1. Pular para o conteúdo
  2. Pular para o menu principal
  3. Ver mais sites da DW

O que está por trás dos apelos de magnatas para regular a IA

Janosch Delcker
15 de novembro de 2023

Líderes de gigantes da tecnologia como OpenAI, Meta e X estão ditando o debate sobre a regulamentação da inteligência artificial. Influência crescente preocupa pesquisadores e ativistas.

Fotomontagem com os rostos de quatro magnatas da tecnologia: Mark Zuckerberg, Elon Musk, Sam Altman e Dario Amodei
Gigantes da tecnologia estão de olho na regulamentação da inteligência artificialFoto: Mario Jose Sanchez/picture alliance/Kimberly White/Getty/Imago/Justin Sullivan/Getty

Enquanto a inteligência artificial (IA) transforma indústrias e a própria sociedade, políticos quebram a cabeça pensando em como regulamentá-la.

CEOs das principais empresas de tecnologia do mundo surgiram como vozes de destaque nesse debate, apresentando seus pontos de vista sobre os potenciais benefícios e riscos da AI.

Pesquisadores e ativistas, porém, têm se mostrado preocupados com a influência crescente do setor na conversa. Eles apontam para uma exasperante dominância de empresas americanas, suscitando questionamentos sobre a sub-representação de outras regiões do mundo, especialmente do Sul GlobaL. Também temem que essa situação possa ofuscar questões críticas como violação de privacidade e proteção trabalhista.

"Temos visto essas empresas pautarem o debate com muita habilidade", afirma à DW Gina Neff, diretora-executiva do Centro Minderoo para Tecnologia e Democracia na Universidade de Cambridge.

Veja, abaixo, quem são e o que defendem as vozes mais influentes no debate de regulamentação da AI.

Nenhum empresário tem sido mais enfático ao falar sobre os potenciais riscos da inteligência artificial do que o bilionário Elon MuskFoto: Alain Jocard/AFP

Elon Musk, o profeta da ruína

Nenhum empresário tem sido mais enfático ao falar sobre os potenciais riscos da inteligência artificial do que Elon Musk, o bilionário que comanda várias corporações no setor de tecnologia, incluindo o novo empreendimento xAI.

Por anos, Musk tem alertado sobre os impactos potencialmente catastróficos da IA sobre a civilização. Em 2018, ele se referiu à tecnologia como "muito mais perigosa que armas nucleares". Durante uma conversa com o primeiro-ministro britânico, Rishi Sunak, neste mês, o empresário repetiu avisos de que a IA pode ser "a força mais disruptiva da história" e exortou reguladores a agirem como "árbitros".

Mas Musk também advertiu contra o controle excessivo, dizendo a Sunak que governos devem evitar "cair em cima com regulações que inibam o lado positivo" da tecnologia.

Para Daniel Leufer, analista sênior do Access Now, grupo de direitos digitais baseado em Bruxelas, ao destacar esses riscos existenciais, Musk continua desviando atenção de preocupações tecnológicas urgentes, tais como a proteção de dados pessoais e a garantia de sistemas de IA justos.

"Ele está desviando atenção da tecnologia com a qual estamos lidando neste momento para coisas que são bem especulativas e, muitas vezes, estão no âmbito da ficção científica", afirma Leufer à DW.

CEO da OpenAI, Sam AltmanFoto: JACK GUEZ/AFP/Getty Images

Sam Altman, o encantador de reguladores

Em novembro de 2022, a OpenAI, sediada em San Francisco, lançou o ChatGPT, tornando-se a primeira empresa a disponibilizar para o público um sistema de IA generativo em larga escala. Desde então, o CEO da empresa, Sam Altman, embarcou em uma turnê para discutir a regulamentação da IA, inclusive com legisladores mundo afora – de Washington a Bruxelas.

Isso alçou Altman à vanguarda do debate. Nos encontros, o empresário disse que aplicações de IA de alto risco poderiam causar "danos significativos ao mundo" e precisavam ser regulamentadas, apenas para em seguida oferecer a expertise da OpenAI para orientar os legisladores em meio às complexidades de sistemas de ponta de IA.

"Basicamente, ele está dizendo: 'Não confiem em nossos concorrentes, não confiem em vocês mesmos, confiem em nós para fazer esse trabalho'", explica Neff, professora de Cambridge. "É uma comunicação corporativa brilhante."

Ainda assim, Neff alerta que a abordagem da OpenAI, embora eficaz do ponto de vista dos interesses da empresa, pode não refletir adequadamente a diversidade de vozes na sociedade. "Pedimos mais responsabilidade e participação democrática nessas decisões, e não é isso o que estamos ouvindo de Altman."

O pai do Facebook e dono da Meta, Mark ZuckerbergFoto: JOSH EDELSON/AFP/Getty Images

Mark Zuckerberg, o gigante silencioso

Já o CEO da Meta, outra empresa líder em desenvolvimento de IA, tem estado notavelmente quieto no debate. Dirigindo-se a congressistas americanos em setembro, Mark Zuckerberg defendeu a colaboração conjunta entre legisladores, acadêmicos, sociedade civil e indústria para "minimizar os potenciais riscos dessa nova tecnologia, mas também para maximizar os potenciais benefícios".

Fora isso, Zuckerberg parece ter delegado boa parte da discussão regulatória a seus subordinados, como o presidente de assuntos globais da empresa, o ex-político britânico Nick Clegg.

Nos bastidores da recente cúpula de IA no Reino Unido, Clegg minimizou temores sobre riscos da IA que possam ameaçar a sobrevivência humana – enfatizando, em vez disso, ameaças mais imediatas, como o risco de interferência indevida nas eleições no Reino Unido e nos EUA, marcadas para o ano que vem – e defendeu a busca por soluções de curto prazo para questões como a detecção de conteúdo online gerado por IA.

O empresário Dario Amodei, ex-OpenAI e hoje à frente da AnthropicFoto: Kimberly White/Getty Images for TechCrunch

Dario Amodei, o novo garoto no pedaço

Fundada em 2021 por ex-funcionários da OpenAI, a Anthropic, uma empresa de IA na área de segurança, atraiu rapidamente investimentos substanciais, incluindo possíveis 4 bilhões de dólares (R$ 19,4 bilhões) da gigante de tecnologia Amazon.

E apesar da breve trajetória da Anthropic, seu CEO, Dario Amodei, já conquistou um lugar no debate sobre regulamentação de IA.

Em discurso recente para legisladores durante a cúpula de Segurança de IA em Bletchley Park, Amodei disse que os perigos associados aos sistemas atuais de IA podem ser até relativamente limitados, mas "provavelmente se tornarão muito sérios em algum momento desconhecido no futuro próximo" – a declaração foi divulgada pela própria empresa.

Para lidar com essas ameaças iminentes, Amodei apresentou aos legisladores uma metodologia desenvolvida pela Anthropic: uma abordagem que categoriza os sistemas de IA com base nos riscos potenciais à segurança dos usuários. Uma metodologia semelhante, segundo ele, poderia servir como um "protótipo" para a elaboração de projetos de lei para regulamentar a tecnologia.

Leufer, da ONG Access Now, alerta contra qualquer dependência excessiva de atores corporativos como a Anthropic para a elaboração de políticas públicas: embora suas contribuições para o debate sejam necessárias e úteis, os legisladores devem manter sua independência. "Com certeza não deveriam ser eles a ditar as regras", afirma. "Devemos ter muito cuidado em deixar que eles determinem a agenda."

Arte gerada por inteligência artificial: quem é o artista?

07:08

This browser does not support the video element.

Pular a seção Manchete

Manchete

Pular a seção Outros temas em destaque