Exclusivo: Por trás do desafio dos legisladores da UE de controlar o ChatGPT e a IA generativa

LONDRES/ESTOCOLMO, 28 de abril (Reuters) – (Esta matéria foi reescrita em 28 de abril para remover a palavra duplicado no parágrafo 1)

Em fevereiro, a IA generativa não tinha destaque nos planos dos legisladores da UE para regulamentar as tecnologias de IA, como o ChatGPT.

o A proposta do bloco de 108 páginas Para o AI Act, publicado há dois anos, incluiu apenas uma menção à palavra “chatbot”. As referências a conteúdo gerado por IA referem-se em grande parte a deepfakes: imagens ou áudio projetados para se passar por humanos.

No entanto, em meados de abril, os eurodeputados estavam correndo para atualizar essas regras para acompanhar a explosão de interesse em IA generativa, que alimentou o medo e a ansiedade desde que a OpenAI revelou o ChatGPT há seis meses.

Essa disputa culminou na quinta-feira com um novo projeto de lei que identificou a proteção de direitos autorais como uma parte fundamental do esforço para manter a inteligência artificial sob controle.

Entrevistas com quatro legisladores e outras fontes próximas aos debates revelam pela primeira vez como, ao longo de apenas 11 dias, esse pequeno grupo de políticos criou o que se tornaria uma legislação histórica, remodelando o cenário regulatório para a OpenAI e seus concorrentes.

O projeto de lei não é final e os advogados dizem que provavelmente levará anos para entrar em vigor.

No entanto, a velocidade de seu trabalho também é um raro exemplo de consenso em Bruxelas, frequentemente criticada pela lentidão na tomada de decisões.

Mudanças de última hora

Desde o seu lançamento em novembro, o ChatGPT se tornou o aplicativo de crescimento mais rápido da história, gerando uma enxurrada de atividades de concorrentes de Big Tech e investimentos em startups de IA como Anthropic e Midjourney.

READ  Netflix inicia campanha de compartilhamento de senhas nos EUA

A enorme popularidade de tais aplicativos levou o chefe da indústria da UE, Thierry Breton, e outros a pedir a regulamentação de serviços semelhantes ao ChatGPT.

Uma organização apoiada por Elon Musk, o bilionário CEO da Tesla Inc (TSLA.O) e do Twitter, intensificou-se ao emitir uma carta alertando sobre os riscos existenciais da IA ​​e pedindo regulamentações mais rígidas.

Em 17 de abril, dezenas de eurodeputados envolvidos na elaboração da legislação assinaram uma carta aberta endossando algumas partes da carta de Musk e instando os líderes mundiais a convocar uma cúpula para encontrar maneiras de controlar o desenvolvimento da inteligência artificial avançada.

No entanto, no mesmo dia, dois deles — Dragos Todorac e Brando Benevi — propuseram mudanças que obrigariam as empresas geradoras de sistemas de IA a divulgar qualquer material protegido por direitos autorais usado para treinar seus modelos, segundo quatro fontes presentes nas reuniões, que pediram não ao anonimato devido à sensibilidade das discussões.

As fontes disseram que esta nova proposta estrita teve o apoio de várias partes.

Uma proposta do deputado conservador Axel Voss – forçar as empresas a pedir permissão aos detentores de direitos antes de usar dados – foi descartada como muito restritiva e poderia inviabilizar a indústria nascente.

Depois de divulgar detalhes na semana seguinte, a União Européia delineou projetos de lei que poderiam impor um nível desconfortável de transparência a uma indústria notoriamente sigilosa.

“Tenho que admitir que fiquei positivamente surpreso com a facilidade com que convergimos sobre o que deveria estar no texto desses modelos”, disse Todorac à Reuters na sexta-feira.

“Isso mostra que há um forte consenso, um entendimento comum sobre como regular neste momento.”

READ  S&P 500 cai à frente do Fed, Nasdaq atinge o menor fechamento desde 2020; O Dow termina perto de uma linha plana

O comitê votará o acordo em 11 de maio e, se for bem-sucedido, passará para a próxima fase das negociações, a trilateral, na qual os Estados membros da UE discutirão o conteúdo com a Comissão Europeia e o Parlamento.

“Estamos esperando para ver se o acordo está em vigor até então”, disse uma fonte familiarizada com o assunto.

GRANDE IRMÃO VS. posição ou terminador

Até recentemente, os membros do Parlamento Europeu ainda não estavam convencidos de que a IA generativa merecesse qualquer consideração especial.

Em fevereiro, Todorach disse à Reuters que a IA generativa “não seria abordada” em profundidade. “Essa é outra discussão que acho que não vamos tratar neste texto”, disse.

Citando riscos de segurança de dados sobre avisos de inteligência humanóide, ele disse: “Tenho mais medo do Big Brother do que do Terminator”.

Mas Teodorach e seus colegas agora concordam que são necessárias leis que visem especificamente o uso de IA generativa.

Sob novas propostas visando “modelos de fundação”, empresas como a OpenAI, apoiada pela Microsoft Corp (MSFT.O), teriam que divulgar qualquer material protegido por direitos autorais – livros, fotografias, vídeos e muito mais – usado para treinar seus sistemas.

Alegações de violação de direitos autorais enfureceram as empresas de IA nos últimos meses, quando a Getty Images processou a Stable Diffusion por usar imagens protegidas por direitos autorais para treinar seus sistemas. A OpenAI também enfrentou críticas por Recuse-se a compartilhar detalhes do conjunto de dados usado para treinar seu software.

“Houve apelos de fora e dentro do parlamento para banir o ChatGPT ou classificá-lo como de alto risco”, disse a parlamentar Svenja Hahn. “O compromisso final é favorável à inovação porque não classifica esses modelos como ‘alto risco’, mas estabelece requisitos de transparência e qualidade.”

READ  A primeira balsa comercial movida a hidrogênio do mundo passa na Baía de São Francisco e a viagem é gratuita

Reportagem adicional de Martin Coulter em Londres e Subanta Mukherjee em Estocolmo; Edição por Josephine Mason, Kenneth Lee e Matthew Lewis

Nossos padrões: Princípios de confiança da Thomson Reuters.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *