banner
Centro de notícias
Excelentes insumos, rigorosa garantia de qualidade.

O ChatGPT pode destruir a humanidade se não compreender o mundo?

Oct 15, 2023

Às muito discutidas alucinações dos Grandes Modelos de Linguagem (LLM), à sua instabilidade e falta de interpretabilidade, podemos agora acrescentar a sua vulnerabilidade a ataques adversários automatizados que os forçam a produzir conteúdos nocivos. Mas estas são as menores das suas fraquezas. A profundidade da sua compreensão do mundo humano é um obstáculo muito mais importante a ser superado pelo LLM antes de se tornarem “superinteligência”.

De acordo com o criador do ChatGPT, OpenAI, no entanto, esta “tecnologia mais impactante que a humanidade já inventou” poderia “chegar nesta década” e “levar à extinção humana”.

Sinal de chatbot para conceito de serviço de suporte.

Já ouvimos anos atrás que a IA humana está chegando. Na época em que Terry Winograd ingressou na pós-graduação, no final da década de 1960, a maioria [dos humanos inteligentes e conhecedores] “acreditava que não demoraria muito para que as máquinas vissem, ouvissem, falassem, se movessem e executassem tarefas semelhantes às humanas”, escreveu John Markoff. em Máquinas de Graça Amorosa.

Para sua dissertação de doutorado no MIT, Winograd desenvolveu o SHRDLU, um programa de computador capaz de participar de conversas sobre um mundo inventado, um “micromundo” composto por blocos de brinquedo e uma “garra” para movê-los. Ele respondeu a comandos em inglês para manipular os blocos usando sua pinça e “entendeu” perguntas sobre o estado de seu mundo.

Em sua história da inteligência artificial, Nils Nilsson diz que o desempenho impressionante do SHRDLU deixou alguns pesquisadores de PNL “otimistas quanto ao sucesso futuro”. Mas “Winograd logo abandonou esta linha de pesquisa em favor de prosseguir trabalhos dedicados à interação entre computadores e pessoas. Talvez porque tivesse experiência em primeira mão de quanto conhecimento era necessário para uma compreensão bem-sucedida da linguagem em algo tão simples como o mundo dos blocos, ele perdeu a esperança de dar aos computadores conhecimento suficiente para duplicar toda a gama de competência verbal humana.”

Mais tarde, em 2006, Winograd viu a compreensão estatística da linguagem, as redes neurais e o aprendizado de máquina como novos desenvolvimentos que moveram o campo da IA ​​na direção de sua abordagem preferida para a interação humano-computador. “A tentativa e o erro esclarecidos superam o planeamento do intelecto perfeito” está no centro desta abordagem, escreveu ele, reconhecendo “as limitações de conhecer e modelar as complexidades do mundo humano real”.

Outros triunfos da abordagem de análise estatística à IA, particularmente no domínio da identificação de imagens em 2012, fizeram com que a maioria dos seres humanos inteligentes e conhecedores acreditassem que a inteligência mecânica semelhante à humana ou mesmo a “superinteligência” está, mais uma vez, ao virar da esquina.

A maioria, mas não todos. Uma ferramenta popular usada por aqueles que questionam a inteligência da nova IA ficou conhecida como Winograd Schema Challenge. Esta foi uma ideia de 2010 de Hector Levesque, da Universidade de Toronto, com base em um exemplo de ambiguidade semântica mencionada em “Understanding Natural Language” de Winograd, de 1972. Para superar as limitações do “Teste de Turing”, Levesque sugeriu um teste de múltipla escolha que exige a resolução correta de um pronome ambíguo em uma afirmação. Por exemplo,

O troféu não cabe na mala marrom porque é muito grande. O que é muito grande?

A. O troféu

B. A mala

“O desafio atraiu bastante interesse favorável tanto da comunidade de pesquisa quanto da imprensa científica popular. A naturalidade do problema tornou-o justo para os sistemas de IA; a complexidade das inferências envolvidas parecia colocá-lo muito além do alcance do que era então a tecnologia atual”, escreveram os autores de “The Defeat of the Winograd Schema Challenge” (janeiro de 2023).

Na verdade, na “primeira e última edição do Winograd Schema Challenge”, que teve lugar em 2016, o mais bem sucedido dos seis programas de IA que nele participaram alcançou uma pontuação de 58% na recolha de testes, apenas um pouco melhor que o acaso. Na conferência inaugural de IA da O'Reilly no mesmo ano, enquanto alguns falavam sobre carros sem motorista “super-humanos” que estão chegando, outros, incluindo o pioneiro do aprendizado profundo Yann LeCun, mencionaram o Esquema Winograd como um desafio não resolvido no teste do conhecimento da máquina sobre como o mundo funciona.