Até bem pouco tempo atrás, o conceito de Singularidade Tecnológica parecia algo muito distante. A ideia de um evento futuro hipotético, no qual a inteligência artificial (IA) e outros avanços tecnológicos atingem um ponto de crescimento exponencial e superam as capacidades humanas em vários domínios só pertencia à ficção científica. Então as IAs generativas chegaram à mão dos usuários. E agora tudo ficou um pouco mais assustador.

A própria singularidade sempre foi associada ao surgimento de sistemas de super IAs que podem melhorar e evoluir em um ritmo sem precedentes, levando a uma transformação profunda e imprevisível da sociedade – o que descreve bem o que estamos sentindo agora. Algo como “contando as horas para a Skynet tomar controle de tudo e destruir a humanidade”, como em ‘Exterminador do Futuro’. Enquanto isso, dou ‘bom dia, boa tarde e boa noite’ para o ChatGPT, para ele entender que sou um aliado.

Super IAs podem melhorar e evoluir em um ritmo sem precedentes, levando a uma transformação profunda da sociedade

O conceito de singularidade tecnológica foi popularizado pelo matemático e cientista da computação Vernor Vinge, em um ensaio chamado “The Technological Singularity”, publicado em 1993. Porém, a preocupação com um “progresso cada vez mais acelerado da tecnologia” já está presente nos ensaios de John von Neumann, um cientista da computação da década de 1950. Embora não haja consenso sobre quando ou se uma singularidade tecnológica ocorrerá, já há quem aposte em implicações significativas para a humanidade nas próximas décadas.

A aposta do diretor de engenharia do Google, Ray Kurzweil, é em 2045, mas não na forma do Arnold Schwarzenegger pelado (alguns lamentam, outros comemoram). No livro ‘The Singularity is Near’, Kurzweil afirma que a uma inteligência artificial super-humana será capaz de criar ferramentas tecnológicas muito mais sofisticadas e avançadas do que qualquer coisa que temos hoje. Capaz de melhorar a si mesma de maneira exponencial, essa IA suplantariam os humanos, que até são bem adaptáveis, mas não nessa velocidade.

Nossa melhor chance é não tentar competir com as máquinas, como em ‘Matrix’, mas trabalhar em conjunto com elas, como em ‘Matrix Resurrections’. Em 2017, tive a oportunidade de entrevistar o campeão de xadrez Gary Kasparov, que ficou conhecido mesmo para o grande público depois de perder para o computador Deep Blue em 1997 (um marco no desenvolvimento da IA). Ele me contou que nas primeiras partidas contra o robô – que, por sinal, o humano venceu – já sabia que, pela maneira com que a máquina jogava, eventualmente iria vencê-lo. 

Foto de Pavel Danilyuk/Pexels

“Para certas tarefas, o computador é muito mais eficiente. Tentar competir é nadar contra a maré. Mas não para tudo. Uma máquina pode fazer 99% do trabalho, mas aquele 1% que só o ser humano consegue, nunca será substituído”, me contou Kasparov. Na época, batizei de Teoria do Safadão.

Nessa proposta, Kasparov criou um novo tipo de competição de xadrez: uma em que jogadores e computadorizados colaboram entre si. A máquina fica responsável pelos cálculos rápidos de movimentos e o humano analisa as opções, colocando em contraste com o lado humano do seu adversário, para desequilibrá-lo.

Essa cooperação é muito bonita, mas precisamos nos preparar para um cenário mais adverso também. É muito sobre isso que fala a carta aberta publicada em março, que pedia pela interrupção temporária do desenvolvimento de IAs mais poderosas que o GPT-4. O documento recebeu assinaturas do cofundador da Apple, Steve Wozniak, Elon Musk e do CEO da Getty Images, Craig Peters. Bem antes disso, em 2021, 193 países concordaram com as recomendações da UNESCO sobre a ética da IA para ajudar a estabelecer um padrão global de regulamentação.

Foto: PC Pereira/Porto Digital

O Elon Musk, por sinal, sempre foi muito vocal quanto a isso. “O advento da inteligência artificial geral é chamado de Singularidade porque é muito difícil prever o que acontecerá depois disso”, disse em entrevista à CNBC. Para o executivo, o custo da “era de abundância” trazida pela tecnologia é a chance da criação de algo que “destrói a humanidade”. Outro porta-voz de peso é Sam Altman, CEO da OpenAI, que avalia que “mitigar o risco de extinção da IA. deve ser uma prioridade global” ao lado de “pandemias e guerra nuclear”. 

A superinteligência é só um dos potenciais da singularidade tecnológica. Futuristas e teóricos também discutem os impactos de avanços rápidos da ciência em campos como robótica, nanotecnologia, engenharia genética e realidade virtual. O próprio Musk, que assinou a carta da IA, desenvolve outro projeto com possíveis desdobramentos disruptivos, mas para o lado do transumanismo: a fusão de humanos com tecnologias avançadas, como interfaces cérebro-computador que a Neuralink estuda.

Futuristas discutem os impactos em campos como robótica, nanotecnologia, engenharia genética e realidade virtual

Para além do pânico, é preciso separar o hype da realidade. Em um relatório de abril passado, a OpenAI  reporta que a versão preliminar do seu mais recente modelo “exibe muitos traços de inteligência”, incluindo “abstração, compreensão, visão, codificação” e “compreensão dos motivos humanos e emoções”.

Mas para o pesquisador da Universidade de Stanford, Rylan Schaeffer, essas “habilidades emergentes” são somente capacidades inexplicáveis que não eram evidentes em versões menos desenvolvidas do sistema. O deslumbramento causado é, na verdade,  “uma miragem” causada por erros de medição, e que as estão vendo o que querem ver.

Além disso, existem barreiras práticas para a chegada da singularidade. Capacidade de processamento e geração de energia são duas delas, uma vez que estamos a anos de ter a computação quântica que alcance esse feito, e mais longe ainda de uma fonte de energia sustentável para alimentar essa superinteligência. 

Para encontrar a resposta definitiva para essa questão, nada melhor do que aplicar minhas habilidades jornalísticas e consultar a fonte primária de informações. Ou seja, perguntei ao próprio ChatGPT quais as chances dele dominar o mundo e recebi uma resposta muito tranquilizadora: “a possibilidade de uma IA generativa como eu desenvolver superinteligência e suplantar a humanidade é altamente especulativa”, me garantiu o robô. 

“Atualmente, as IAs generativa como eu são projetadas para auxiliar humanos em tarefas específicas, mas não possuem motivações ou objetivos próprios”, completou. 

Mas nem o chatbot foi tão definitivo em sua resposta, deixando uma fresta aberta para caso, no futuro, ele mude de ideia. “Embora a discussão em torno da singularidade e da superinteligência seja fascinante, é difícil prever com certeza o que o futuro nos reserva nessa área”. Sei…

Renato Mota é jornalista, e cobre o setor de Tecnologia há mais de 15 anos. Já trabalhou nas redações do Jornal do Commercio, CanalTech, Olhar Digital e The BRIEF

Comments are closed, but trackbacks and pingbacks are open.