Bill Gates, desenvolvedores de IA se opõem a Musk e Wozniak uma carta aberta

McNamee vence Getty Images

Se você ouviu muita conversa pró-IA nos últimos dias, provavelmente não está sozinho.

Os desenvolvedores de IA, os principais especialistas em ética de IA e até mesmo o cofundador da Microsoft, Bill Gates, passaram a semana passada defender seu trabalho. Esta é uma resposta a um arquivo carta aberta Publicado na semana passada pelo Future of Life Institute e assinado pelo CEO da Tesla, Elon Musk, e pelo cofundador da Apple, Steve Wozniak, pedia uma pausa de seis meses para trabalhar em sistemas de IA que podem rivalizar com a inteligência em nível humano.

A carta, que agora tem mais de 13.500 assinaturas, expressa preocupação de que a “corrida perigosa” para desenvolver software como o ChatGPT da OpenAI, o chatbot Bing AI da Microsoft e o Bard da Alphabet possa ter consequências negativas se não for controlada, desde a desinformação generalizada até o comprometimento. máquinas.

Mas grandes segmentos da indústria de tecnologia, incluindo pelo menos um de seus maiores luminares, estão em declínio.

“Não acho que pedir a um determinado grupo para fazer uma pausa resolva os desafios”, Gates disse à Reuters na segunda-feira. Gates acrescentou que seria difícil forçar uma pausa em uma indústria global – embora concordasse que a indústria precisava de mais pesquisas para “identificar áreas difíceis”.

É isso que torna o debate tão interessante, dizem os especialistas: a carta aberta pode apontar para algumas preocupações legítimas, mas a solução proposta parece quase impossível de alcançar.

Aqui está o porquê e o que pode acontecer a seguir – de regulamentações governamentais a um possível levante de botnet.

As preocupações da carta aberta são relativamente diretas: “Nos últimos meses, os AI Labs se envolveram em uma corrida fora de controle para desenvolver e implantar cérebros digitais mais poderosos que ninguém – nem mesmo seus criadores – pode entender, prever ou prever com segurança. ao controle.”

READ  Delta Airlines oferece Wi-Fi gratuito

Os sistemas de IA geralmente vêm com vieses e possibilidades de programação problemas de privacidade. Eles podem espalhar desinformação por toda parte, especialmente quando usados ​​de forma maliciosa.

E é fácil imaginar empresas tentando economizar dinheiro substituindo empregos humanos – de assistentes pessoais a representantes de atendimento ao cliente – por sistemas de linguagem AI.

A Itália já baniu temporariamente o ChatGPT devido a problemas de privacidade causados ​​pela violação de dados do OpenAI. O governo do Reino Unido publicou suas recomendações de regulamentação na semana passada e Organização Europeia do Consumidor Ele pediu aos legisladores de toda a Europa que também aumentem os regulamentos.

Nos Estados Unidos, alguns membros do Congresso pediram novas leis para regular a tecnologia de IA. Mês passado , Comissão Federal de Comércio Ele emitiu diretrizes para empresas que desenvolvem esses chatbots, o que significa que o governo federal está de olho nos sistemas de IA que os golpistas podem usar.

e múltiplo Leis estaduais de privacidade Foi aprovado no ano passado para forçar as empresas a divulgar quando e como seus produtos de IA funcionam e Dar aos clientes a oportunidade de optar por não participar Para fornecer dados pessoais para decisões automatizadas de IA.

Essas leis estão atualmente em vigor nos estados da Califórnia, Connecticut, Colorado, Utah e Virgínia.

Pelo menos uma empresa de segurança e pesquisa de IA ainda não está preocupada: as tecnologias existentes “não representam uma preocupação iminente”, escreveu a Anthropic, com sede em San Francisco, em postagem no blog Mês passado.

A Anthropic, que recebeu um investimento de US$ 400 milhões da Alphabet em fevereiro, possui um chatbot de IA. Em sua postagem no blog, ela observou que os futuros sistemas de IA podem se tornar “mais robustos” na próxima década e que a construção de grades de proteção agora pode “ajudar a reduzir os riscos” no futuro.

READ  Lucros da Berkshire Hathaway disparam, mas Warren Buffett lamenta falta de bons negócios

O Problema: Livros Antrópicos: Ninguém tem certeza de como essas barreiras poderiam ou deveriam ser.

A capacidade de uma carta aberta iniciar uma conversa sobre um tópico é útil, disse um porta-voz da empresa à CNBC Make It. O porta-voz não especificou se a Anthropic apoiará a pausa de seis meses.

Em um tweet na quarta-feira, o CEO da OpenAI, Sam Altman, reconheceu que uma “estrutura regulatória global eficaz, incluindo governança democrática” e “coordenação adequada” entre as principais empresas de inteligência geral artificial (AGI) poderia ajudar.

Mas Altman, cuja empresa financiada pela Microsoft fabrica o ChatGPT e ajudou a desenvolver o chatbot de IA do Bing, não especificou o que essas políticas podem implicar, nem respondeu ao pedido de comentário da CNBC Make It sobre a carta aberta.

Alguns pesquisadores levantam outra questão: interromper a pesquisa pode sufocar o progresso em uma indústria em rápido movimento, permitindo que países autoritários desenvolvam seus próprios sistemas de IA para progredir.

Destacar possíveis ameaças à IA pode encorajar pessoas mal-intencionadas a adotar a tecnologia para fins nefastos, diz Richard Sucher, pesquisador de IA e CEO da startup de mecanismo de pesquisa com tecnologia de IA You.com.

A urgência dessas ameaças também é exagerada Alimenta histeria desnecessária No tópico, diz Socher. Ele acrescenta que as propostas da carta aberta são “impossíveis de implementar e abordam o problema no nível errado”.

A resposta silenciosa à carta aberta dos desenvolvedores de IA parece indicar que é improvável que gigantes da tecnologia e startups interrompam seu trabalho voluntariamente.

O apelo da carta por maior regulamentação governamental parece mais provável, especialmente porque os legisladores nos EUA e na Europa já estão pressionando pela transparência dos desenvolvedores de IA.

READ  O S&P 500 fecha acima do nível chave de 5.000 pela primeira vez

Nos EUA, a FTC também pode criar regras que exijam que os desenvolvedores de IA treinem novos sistemas apenas com conjuntos de dados que não contenham desinformação ou viés implícito e aumentem os testes de tais produtos antes e depois de serem lançados ao público, de acordo com um relatório. consultor de dezembro Do escritório de advocacia Alston & Bird.

Stuart Russell, um cientista da computação da Universidade de Berkeley e pesquisador líder em inteligência artificial que co-assinou a carta aberta, diz que tais esforços devem ser feitos antes que a tecnologia avance ainda mais.

A pausa também pode dar às empresas de tecnologia mais tempo para provar que seus sistemas avançados de IA “não apresentam um risco indevido”, disse Russell. ele disse à CNN no sábado.

Ambos os lados parecem concordar em uma coisa: os piores cenários para o rápido desenvolvimento da IA ​​devem ser evitados. No curto prazo, isso significa fornecer transparência aos usuários de produtos de IA e protegê-los de golpistas.

A longo prazo, isso pode significar impedir que os sistemas de IA ultrapassem a inteligência de nível humano e preservar a capacidade de controlá-la com eficácia.

“Quando você começar a fabricar máquinas que rivalizam e superam os humanos, será muito difícil sobrevivermos”, disse Gates. ele disse à BBC Em 2015. “É apenas uma inevitabilidade.”

Não perca: Quer ser mais inteligente e mais bem-sucedido com seu dinheiro, seu trabalho e sua vida? Subscreva a nossa nova newsletter!

Responda a esta pesquisa e diga-nos como você deseja levar seu dinheiro e sua carreira para o próximo nível.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *