Os modelos de inteligência artificial (IA), que se multiplicaram desde o lançamento do ChatGPT, carecem de transparência e representam um risco para os aplicativos que os utilizam como base técnica, segundo um estudo da Universidade de Stanford publicado nesta quarta-feira (19).
Um novo índice projetado e calculado por pesquisadores desta universidade californiana afirma que o modelo mais transparente entre os dez avaliados é o Llama 2, um sistema de inteligência artificial lançado pela Meta em julho e reutilizável livremente.
Obteve, no entanto, uma pontuação de apenas 54%, ainda muito insuficiente, segundo os autores do estudo.
GPT-4, o modelo de linguagem criado pela Open AI — empresa financiada pela Microsoft por trás do famoso robô ChatGPT —, obteve apenas 48% de transparência.
Os outros modelos conhecidos, como o Palm-2, do Google, ou o Claude 2, da empresa Anthropic (financiada pela Amazon), aparecem ainda mais abaixo no ranking.
• Clique aqui e receba as notícias do R7 no seu WhatsApp
• Compartilhe esta notícia pelo WhatsApp
• Compartilhe esta notícia pelo Telegram
Todos devem tentar alcançar entre 80% e 100% de transparência, estima o diretor de pesquisa de Stanford, Rishi Bommasani, sobre os chamados modelos “de fundação”.
A falta de transparência torna mais difícil para as empresas “saberem se podem criar aplicativos seguros baseados nestes modelos de negócio” e “para os acadêmicos confiarem nestes modelos para sua pesquisa”, explica o estudo.
Isso também complica a tarefa dos consumidores, que querem “compreender os limites dos modelos ou pedir uma indenização pelos danos sofridos”, detalha.
Especificamente, “a maioria das empresas não divulga o alcance dos conteúdos protegidos por direitos autorais usados para treinar seu modelo. Também não divulga o uso de mão de obra humana para corrigir os dados de treinamento, o que pode ser muito problemático”, enfatiza.
“Nenhuma empresa fornece informações sobre o número de usuários que dependem de seu modelo nem estatísticas sobre os países, ou mercados, que o utilizam”, destaca Bommasani.
Segundo os autores, este índice de transparência pode ser usado no futuro por autoridades políticas e reguladoras.
União Europeia, Estados Unidos, China, Reino Unido e Canadá anunciaram seu desejo de uma IA mais transparente.
“A inteligência artificial é uma grande promessa de oportunidades incríveis, mas também apresenta riscos para a nossa sociedade, para a nossa economia e para a nossa segurança nacional”, ressaltou o presidente dos Estados Unidos, Joe Biden, em julho, aos responsáveis pelas empresas do setor.
A questão esteve em destaque durante a reunião do G7 no Japão, em maio, e o Reino Unido se prepara para receber uma cúpula internacional sobre IA em novembro.
Inteligência artificial ‘imagina’ como seriam animais robóticos espiões em miniatura