Numa lista que já soma mais de 27 mil assinaturas, o pessoal do instituto Future of Life (dedicados, segundo eles próprios, a “direcionar a tecnologia transformadora para beneficiar a vida, e para longe de riscos extremos em grande escala”) pediu, nada menos, do que uma pausa no desenvolvimento das inteligências artificiais. É isso mesmo: eles mandaram um “dá um tempo aí, por favor” para as empresas de IA.
Entre os signatários desse documento, gente graúda do mundinho tech e além, como Elon Musk, CEO da SpaceX, Tesla e Twitter; Steve Wozniak, cofundador da Apple ao lado de Steve Jobs; o professor e escritor Yuval Noah Harari; Emad Mostaque, CEO da Stability AI e Craig Peters, CEO da Getty Images, entre outros. Esse grupo de indivíduos se dizem preocupados com o poder das inteligências artificiais atuais, e recomendam uma interrupção de seis meses no desenvolvimento dessas tecnologias.
O objetivo é pressionar as autoridades e empresas a regulamentar estas ferramentas – em especial seus padrões de segurança – antes que seja tarde demais. O principal medo é que a IA possa ser destrutiva para a humanidade, seja por negligência da engenharia ou por malícia das pessoas que a utilizarem.
“Os sistemas contemporâneos de IA estão se tornando competitivos em tarefas gerais, e devemos nos perguntar: devemos deixar que as máquinas inundem nossos canais de informação com propaganda e desinformação? Devemos automatizar todos os trabalhos, incluindo os que já são satisfatórios? Deveríamos desenvolver mentes não-humanas que eventualmente nos superem em número, fossem mais espertas e nos substituíssem? Devemos arriscar perder o controle de nossa civilização? Tais decisões não devem ser delegadas a líderes tecnológicos não eleitos”, afirma o documento.
O gatilho para esse pedido foi o lançamento da versão 4 do ChatGPT, da OpenAI, que além de melhorar os recursos que o chatbot já tinha, ainda apresentou uma forma de alimentação “multimodal”, podendo gerar conteúdo a partir de prompts de texto, imagens ou os dois combinados. Some isso a algumas das experiências mais perturbadoras que usuários tiveram com o robô da OpenAI, quando ele sugeriu coisas como matar pessoas, construir uma bomba e dizer coisas antissemitas.
A própria fundação já reconheceu que, em algum ponto, será preciso limitar o crescimento de novos modelos de treinamento e obter uma revisão independente antes de começar a treinar sistemas futuros. Para os assinantes da carta do Future of Life, “esse ponto é agora (…) Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória”. O pensamento leva em conta o que aconteceu, por exemplo, com as mudanças climáticas: e se tivéssemos nos atentado para o perigo da poluição décadas atrás, quando o perigo não era tão iminente, ao invés de só agora? Os esforços para reverter esse quadro teriam que ser bem menores, certo?
Mas quem não assinou o documento, tem qual posicionamento? O sempre vocal Bill Gates (bilionário, filantropo e fundador da Microsoft) avalia que o pedido não vai para frente. “Não acho que pedir a um grupo específico para fazer uma pausa resolva os desafios”, disse em entrevista à Reuters. “Claramente há enormes benefícios nessas coisas, o que precisamos fazer é identificar as áreas complicadas”.
Gates é um entusiasta da tecnologia, e em um artigo recente intitulado “A era da IA começou”, comparou o avanço atual tão revolucionário quanto o dos primeiros computadores pessoais. “Eu sabia que tinha acabado de ver o avanço mais importante na tecnologia desde a interface gráfica do usuário”, comentou, ao testar o ChatGPT. Mas em certo ponto, ele concorda com a preocupação demonstrada pela carta “O mundo precisa estabelecer as regras da estrada para que quaisquer desvantagens da inteligência artificial sejam superadas por seus benefícios”.
Vale lembrar, porém, que a Microsoft de Gates é a principal investidora da OpenAI, e usa sua tecnologia para tentar dar uma virada no mercado de buscadores, dominado há anos pelo Google. Esta, por sua vez, também jogou para a galera o resultado dos seus estudos internos com IA, o Bard, com sucesso no mínimo questionável. “Uma moratória de seis meses no desenvolvimento da IA simplesmente beneficiaria a China”, avalia o ex-CEO do Google, Eric Schmidt. Conversando com o Australian Financial Review, o executivo afirmou que em vez de uma pausa, os líderes deveriam discutir coletivamente as proteções apropriadas “o mais rápido possível“, e pesquisadores só devem lançar programas de IA com “algum tipo de mitigação para coisas que podem ser negativas”.
“Acho que hoje a resposta do governo seria desajeitada porque há muito poucas pessoas no governo que entendem essas coisas. Portanto, sou a favor de deixar a indústria tentar agir em conjunto. Este é um caso em que você não se apressa a menos que entenda o que está fazendo”, completou Schmidt ao jornal australiano.
Renato Mota é jornalista, e cobre o setor de Tecnologia há mais de 15 anos. Já trabalhou nas redações do Jornal do Commercio, CanalTech, Olhar Digital e The BRIEF
Comments are closed, but trackbacks and pingbacks are open.