EUA anunciam nesta segunda-feira (30) nova regulamentação para inteligência artificial


O presidente Joe Biden emitirá uma ordem executiva nesta segunda-feira (30) na qual descreve as primeiras regulamentações do governo federal americano sobre sistemas de inteligência artificial. Elas incluem exigências de que os produtos de IA mais avançados sejam testados para garantir que não possam ser usados para produzir armas biológicas ou nucleares, com os resultados desses testes sendo informados ao governo federal.

Os requisitos de teste são uma parte pequena, mas central, do que Biden, em um discurso programado para a tarde desta segunda-feira, deve descrever como a ação governamental mais abrangente para proteger os americanos dos riscos potenciais trazidos pelos enormes saltos na IA nos últimos anos.

As regulamentações incluirão recomendações, mas não exigências, de que fotos, vídeos e áudios desenvolvidos por esses sistemas sejam marcados com uma marca d’água ou registro similar para deixar claro que foram criados por inteligência artificial.

Isso reflete o medo crescente de que a IA torne muito mais fácil a criação de “deepfakes” e desinformação convincente, especialmente à medida que a campanha presidencial de 2024 se acelera.

Recentemente, os Estados Unidos restringiram a exportação de chips de alto desempenho para a China a fim de diminuir sua capacidade de produzir os chamados grandes modelos de linguagem, a massa de dados que tornou programas como o ChatGPT tão eficazes para responder a perguntas e agilizar tarefas.

São modelos que integram a nova geração de inteligência artificial, chamada de IA generativa.

Da mesma forma, as novas regulamentações exigirão que as empresas que executam serviços em nuvem informem o governo sobre seus clientes estrangeiros.

A ordem executiva de Biden será emitida dias antes de uma reunião de líderes mundiais sobre segurança de IA organizada pelo primeiro-ministro da Grã-Bretanha, Rishi Sunak.

Na questão da regulamentação da IA, os Estados Unidos ficaram atrás da União Europeia, que vem elaborando novas leis, e de outras nações, como China e Israel, que emitiram propostas de regulamentação.

Desde que o ChatGPT, o chatbot alimentado por IA, explodiu em popularidade no ano passado, legisladores e reguladores globais têm se debatido sobre como a inteligência artificial pode alterar empregos, espalhar desinformação e potencialmente desenvolver seu próprio tipo de inteligência.

“O presidente Biden está lançando o conjunto mais forte de ações que qualquer governo do mundo já tomou em relação à segurança, proteção e confiança da IA. É o próximo passo em uma estratégia agressiva para fazer tudo em todas as frentes para aproveitar os benefícios da IA e atenuar os riscos” disse Bruce Reed, vice-chefe de gabinete da Casa Branca.

As novas regras dos EUA, algumas das quais devem entrar em vigor nos próximos 90 dias, provavelmente enfrentarão muitos desafios, alguns legais e outros políticos. Mas a ordem visa os sistemas futuros mais avançados e, na maioria, não aborda as ameaças imediatas dos chatbots existentes que poderiam ser usados para espalhar desinformação relacionada à Ucrânia, à Faixa de Gaza ou à campanha presidencial.

O governo não divulgou ainda o texto da ordem executiva, mas as autoridades disseram que algumas das etapas do novo regulamento exigiriam a aprovação de agências independentes, como a Comissão Federal de Comércio.

As diretrizes a serem anunciadas por Biden afetam apenas as empresas americanas, mas como o desenvolvimento de software ocorre em todo o mundo, os Estados Unidos enfrentarão desafios diplomáticos para aplicar as regulamentações, razão pela qual o governo está tentando incentivar aliados e adversários a desenvolver regras semelhantes.

A vice-presidente Kamala Harris estará representando os Estados Unidos na conferência sobre o assunto a ser realizada em Londres nesta semana.

Os regulamentos também pretendem influenciar o setor tecnológico, estabelecendo padrões iniciais de segurança e proteção ao consumidor. Ao utilizar o poder dos seus recursos financeiros, as diretivas da Casa Branca às agências federais visam forçar as empresas a cumprir os padrões estabelecidos pelos seus clientes governamentais.

“Este é um primeiro passo importante e, mais importante ainda, as ordens executivas estabelecem normas” disse Lauren Kahn, analista de pesquisa sênior do Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown.

A ordem executiva de Biden instrui o Departamento de Saúde e Serviços Humanos e outras agências a criar padrões de segurança claros para o uso de IA e a simplificar os sistemas para facilitar a aquisição de ferramentas de inteligência artificial. Ordena ao Departamento do Trabalho e ao Conselho Econômico Nacional que estudem o efeito da IA no mercado de trabalho e elaborem potenciais regulamentações.

Além disso, apela às agências para fornecerem orientações claras aos proprietários, órgãos governamentais e programas de benefícios federais para evitar a discriminação de algoritmos utilizados em ferramentas de IA.

No entanto, a Casa Branca tem autoridade limitada e algumas das diretrizes não são aplicáveis. Por exemplo, o despacho apela às agências para reforçarem as diretrizes internas para proteger os dados pessoais dos consumidores, mas a Casa Branca também reconheceu a necessidade de legislação sobre privacidade para garantir plenamente a proteção de dados.

Para encorajar a inovação e reforçar a concorrência, a Casa Branca solicitará que a Federal Trade Comission (FTC) intensifique o seu papel como vigilante da proteção do consumidor e das violações antitruste. Mas não tem autoridade para instruir a FTC, uma agência independente, a criar regulamentos.

Vigilância mais agressiva
Lina Khan, presidente da FTC, já sinalizou a sua intenção de agir de forma mais agressiva como vigilante da IA. Em julho, a comissão abriu uma investigação sobre a OpenAI, criadora do ChatGPT, sobre possíveis violações da privacidade do consumidor e acusações de divulgação de informações falsas sobre indivíduos.

“Embora estas ferramentas sejam novas, não estão isentas das regras existentes, e a FTC aplicará vigorosamente as leis que estamos encarregados de administrar, mesmo neste novo mercado”, escreveu Khan num ensaio publicado no The New York Times em Maio.

A indústria tecnológica afirmou que apoia as regulamentações, embora as empresas discordem quanto ao nível de supervisão governamental. Microsoft, OpenAI, Google e Meta estão entre as 15 empresas que concordaram com compromissos voluntários de segurança e proteção, incluindo a solicitação de terceiros para testarem seus sistemas em busca de vulnerabilidades.

Veja também

Quem é Paulo Picchetti, novo indicado pelo governo Lula para diretoria do Banco Central

Brasil

Quem é Paulo Picchetti, novo indicado pelo governo Lula para diretoria do Banco Central

Musk: mensagens corrigidas no X pela comunidade não serão monetizadas

EX-TWITTER

Musk: mensagens corrigidas no X pela comunidade não serão monetizadas


Leave a Reply

Your email address will not be published. Required fields are marked *