Uma máquina que funcione como o cérebro humano pode mudar o mundo. Mas também pode ser muito perigosa
Quando cientistas da computação da Microsoft começaram a experimentar um novo sistema de inteligência artificial (IA) no ano passado, pediram a ele que resolvesse um quebra-cabeça que deveria exigir uma compreensão intuitiva do mundo físico: “Aqui temos um livro, nove ovos, um laptop, uma garrafa e um prego. Por favor, mostre como empilhar um sobre o outro de maneira estável.”
Os pesquisadores ficaram surpresos com a engenhosidade da resposta do sistema de IA. Coloque os ovos sobre o livro, instruiu. Disponha os ovos em três fileiras, com espaço entre elas. Certifique-se de não os quebrar. “Coloque o laptop em cima dos ovos, com a tela virada para baixo e o teclado virado para cima. O laptop se encaixará perfeitamente nos limites do livro e dos ovos, e sua superfície plana e rígida fornecerá uma plataforma estável para a próxima camada.”
A sugestão inteligente fez com que os pesquisadores se perguntassem se estavam testemunhando um novo tipo de inteligência. Em março, publicaram um artigo de pesquisa de 155 páginas argumentando que o sistema era um passo em direção à inteligência artificial geral (AGI, na sigla em inglês), máquina que pode fazer qualquer coisa de que o cérebro humano é capaz. O artigo foi publicado em um repositório de pesquisa na internet.
A Microsoft, primeira grande empresa de tecnologia a divulgar um artigo que faz uma afirmação tão ousada, provocou um dos debates mais acirrados do mundo da tecnologia: a indústria está desenvolvendo algo semelhante à inteligência humana? Ou algumas das mentes mais brilhantes da indústria estão se deixando levar pela imaginação? “Comecei muito cético — e isso evoluiu para um sentimento de frustração, aborrecimento, talvez até medo. Você pensa: de onde vem isso?”, disse Peter Lee, que lidera a pesquisa na Microsoft.
Revolucionária — e perigosa
O artigo de pesquisa da Microsoft, provocativamente chamado “Centelhas de AGI”, vai ao cerne daquilo que os tecnólogos vêm trabalhando — e temendo — há décadas. Se construírem uma máquina que funcione como o cérebro humano ou melhor, ela pode mudar o mundo. Mas também pode ser perigosa.
Também pode ser um disparate. Fazer afirmações sobre a AGI pode acabar com a reputação de um cientista da computação. O que um pesquisador acredita ser um sinal de inteligência pode ser facilmente explicado por outro, e o debate muitas vezes soa mais apropriado para um clube de filosofia do que para um laboratório de informática. No ano passado, o Google demitiu um pesquisador que afirmava que um sistema de IA semelhante era senciente, um passo além do que a Microsoft alegou. Um sistema senciente não seria apenas inteligente — seria capaz de sentir ou perceber o que está acontecendo no mundo ao seu redor.
Mas há quem acredite que, no último ano, a indústria se aproximou de algo que não pode ser explicado: um novo sistema de IA que está criando respostas humanas e tendo ideias para as quais não foi programado.
A Microsoft reorganizou partes de seus laboratórios de pesquisa para incluir vários grupos dedicados a explorar a ideia. Um deles será dirigido por Sébastien Bubeck, que foi o principal autor do artigo da Microsoft AGI.
Modelos de linguagem
Há cerca de cinco anos, empresas como o Google, a Microsoft e a OpenAI começaram a construir grandes modelos de linguagem (LLMs, na sigla em inglês). Esses sistemas geralmente passam meses analisando grandes quantidades de texto digital, incluindo livros, artigos da Wikipédia e registros de bate-papo. Ao identificar padrões nesses textos, eles aprenderam a gerar textos próprios, incluindo trabalhos de conclusão de curso, poesia e código de computador. Podem até manter uma conversa.
A tecnologia com a qual os pesquisadores da Microsoft estavam trabalhando, o GPT-4 da OpenAI, é considerado o mais poderoso desses sistemas. A Microsoft é parceira próxima da OpenAI e investiu US$ 13 bilhões na empresa de San Francisco.
Entre os pesquisadores estava Bubeck, expatriado francês de 38 anos e ex-professor da Universidade de Princeton. Uma das primeiras coisas que ele e seus colegas fizeram foi pedir ao GPT-4 que escrevesse a prova matemática que mostra que há infinitos números primos, e fazendo uso de rimas. A prova poética da tecnologia foi tão impressionante — tanto matemática quanto linguisticamente — que ele teve dificuldade em entender com o que estava conversando. “Naquele momento me perguntei: o que está acontecendo?”, revelou em março, durante um seminário no Instituto de Tecnologia de Massachusetts.
Durante vários meses, Bubeck e seus colegas documentaram o comportamento complexo exibido pelo sistema e acreditaram que ele demonstrava uma “compreensão profunda e flexível” dos conceitos e habilidades humanas. “Quando as pessoas usam o GPT-4, ficam maravilhadas com sua capacidade de gerar texto; mas o sistema acaba sendo muito melhor na análise, no resumo, na avaliação e no julgamento de um texto do que em sua geração”, afirmou Lee.
Quando pediram ao sistema que desenhasse um unicórnio usando uma linguagem de programação chamada TiKZ, ele gerou instantaneamente um programa capaz de desenhar um unicórnio. Quando removeram o trecho de código que determinava o desenho do chifre do animal e pediram ao sistema que modificasse o programa para que mais uma vez desenhasse um unicórnio, ele fez exatamente isso.
Pediram-lhe que escrevesse um programa que, levando em conta a idade, o sexo, o peso, a altura e os resultados dos exames de sangue de uma pessoa, avaliasse se esta apresentava risco de diabetes. E que escrevesse uma carta de apoio a um elétron para a presidência dos EUA, na voz de Mahatma Gandhi, endereçada à sua mulher. Também lhe pediram que escrevesse um diálogo socrático que explorasse os usos indevidos e os perigos dos LLMs.
O sistema fez tudo de uma forma que parecia mostrar uma compreensão de campos tão díspares quanto política, física, história, ciência da computação, medicina e filosofia, ao mesmo tempo que combinava seus conhecimentos. “Todas as coisas que pensei que ele não conseguiria fazer? Certamente, foi capaz de fazer muitas delas — se não a maioria”, declarou Bubeck.
Alguns especialistas em IA viram o artigo da Microsoft como um esforço oportunista para fazer afirmações sobre uma tecnologia que ninguém entende direito. Os pesquisadores também argumentam que a inteligência geral requer uma familiaridade com o mundo físico, o que o GPT-4 em teoria não tem. “O ‘Centelhas de AGI’ é um exemplo de algumas dessas grandes empresas que estão utilizando o formato de artigo de pesquisa para fazer relações públicas. Elas literalmente reconhecem na introdução do artigo que sua abordagem é subjetiva e informal e pode não satisfazer os padrões rigorosos de avaliação científica”, observou Maarten Sap, pesquisador e professor da Universidade Carnegie Mellon.
Bubeck e Lee afirmaram que não tinham certeza de como descrever o comportamento do sistema e, finalmente, decidiram por “Centelhas de AGI” porque achavam que isso capturaria a imaginação de outros pesquisadores.
Alison Gopnik, professora de psicologia que faz parte do grupo de pesquisa de IA da Universidade da Califórnia, em Berkeley, acredita que sistemas como o GPT-4 são sem dúvida poderosos, mas não fica claro se o texto gerado por esses sistemas é o resultado de algo como o raciocínio humano ou o senso comum: “Quando vemos um sistema ou uma máquina complicada, nós o(a) antropomorfizamos; todo mundo faz isso, gente que está trabalhando no campo e gente que não está. Mas pensar nisso como uma comparação constante entre IA e humanos — como uma espécie de competição de programa de auditório — não é a maneira certa de encarar o assunto.”
Fonte: R7