A evolução das pesquisas em Inteligência Artificial (IA) está a impulsionar o conceito de Inteligência Artificial Geral (AGI) para além da mera teoria, transformando-o numa possibilidade cada vez mais concreta. Encontramo-nos, inegavelmente, numa fase inicial da era da IA, com inúmeras aplicações de IA Generativa já disponíveis comercialmente. No entanto, qual será o próximo passo? Será a AGI o futuro? Para compreendermos o que é a Inteligência Artificial Geral (AGI) e o seu potencial impacto na humanidade, convidamo-lo a continuar a leitura.
O que é a Inteligência Artificial Geral ou AGI?
Não existe um consenso universal entre os investigadores e os laboratórios de IA sobre a definição precisa de AGI. Contudo, o termo AGI – Inteligência Artificial Geral – é geralmente entendido como um tipo de sistema de IA capaz de igualar ou mesmo exceder as capacidades humanas, especialmente no que respeita a tarefas cognitivas.
Diversos laboratórios de IA apresentam as suas próprias definições de AGI. Em fevereiro de 2023, a OpenAI clarificou o seu entendimento de AGI: “sistemas de IA que são geralmente mais inteligentes do que os humanos”. A empresa ambiciona desenvolver uma AGI que beneficie toda a humanidade, reconhecendo simultaneamente os riscos “graves” associados a uma tecnologia desta natureza, com potencial para “uso indevido, acidentes de grandes proporções e desestabilização social”.
Shane Legg, um dos cofundadores da DeepMind (atualmente Google DeepMind) e atual cientista-chefe de AGI na mesma empresa, foi quem criou o termo AGI em conjunto com Ben Goertzel, seu colega investigador. Segundo Legg, o conceito de AGI é bastante amplo. A posição da DeepMind em relação à AGI é que um sistema deve “não apenas ser capaz de executar uma variedade de tarefas, mas também aprender a realizá-las, avaliar o seu próprio desempenho e solicitar assistência quando necessário”.
A equipa da Google DeepMind delineou diferentes níveis de AGI: emergente, competente, experiente, virtuoso e sobre-humano. Atualmente, os modelos de IA mais avançados já apresentam alguns comportamentos emergentes, de acordo com os investigadores da DeepMind.
Características da AGI
Tal como não existe um consenso alargado sobre a definição de AGI, as suas características também não estão totalmente estabelecidas. No entanto, os investigadores de IA defendem que uma AGI de nível humano deve ser capaz de raciocinar como os humanos e tomar decisões mesmo em situações de incerteza. Deverá deter conhecimento sobre praticamente tudo, incluindo uma compreensão do senso comum.
Adicionalmente, um sistema de AGI deve possuir a capacidade de planear e adquirir novas competências, resolver problemas complexos e comunicar-se através de linguagem natural. Cientistas cognitivos argumentam que os sistemas de AGI deverão também manifestar características como a imaginação para gerar ideias e conceitos originais. As características da AGI incluem ainda atributos físicos, como a capacidade de ver, ouvir, mover-se e agir.
Para avaliar se os modelos de IA atingiram o nível de AGI, existem vários testes, incluindo o famoso Teste de Turing. Nomeado em homenagem ao cientista da computação Alan Turing, este teste procura determinar se um sistema de IA consegue imitar uma conversa humana ao ponto de ser impossível distinguir se se está a conversar com uma máquina ou com uma pessoa.
Muitos acreditam que os chatbots de IA atuais já superaram o teste de Turing. No entanto, o teste também propõe que uma máquina deva exibir um comportamento inteligente equivalente ao dos humanos. Outros testes incluem o Teste de Emprego, proposto por John Nilsson, que considera que uma máquina deve ser capaz de realizar uma tarefa de trabalho relevante, tal como um humano.
Steve Wozniak, cofundador da Apple, também propôs o Teste do Café para avaliar um sistema de IA inteligente. Segundo Wozniak, um sistema de IA suficientemente inteligente deve ser capaz de encontrar a cafeteira, adicionar água e café e completar o processo de preparação sem qualquer intervenção humana.
Níveis de AGI
A OpenAI acredita que a AGI não será alcançada de forma súbita, mas sim através de múltiplos níveis de progresso gradual. A Bloomberg noticiou recentemente que a OpenAI propôs cinco níveis de progresso rumo à concretização do objetivo da AGI.
O primeiro nível é o da IA Conversacional, onde nos encontramos atualmente, com chatbots como o ChatGPT, Claude e Gemini. O segundo nível é o da IA de Raciocínio, em que os modelos de IA conseguem raciocinar como os humanos, um patamar ainda não alcançado. O terceiro nível é o da IA Autónoma, em que os agentes de IA conseguem executar ações de forma autónoma em nome do utilizador.
O quarto nível é o da IA Inovadora, onde os sistemas de IA inteligentes conseguem inovar e aprimorar-se a si próprios. Finalmente, o quinto nível é o da IA Organizacional, onde um sistema de IA consegue executar ações e concluir tarefas de uma organização inteira sem intervenção humana. Este tipo de sistema de IA terá a capacidade de falhar, aprender, melhorar e trabalhar em conjunto com múltiplos agentes para realizar tarefas em paralelo.
Progresso da AGI e Cronograma: Quão Perto Estamos de Concretizá-la?
Imagem Cortesia: Shutterstock
Sam Altman, CEO da OpenAI, acredita que podemos atingir o quinto nível – IA Organizacional – dentro dos próximos dez anos. No entanto, muitos especialistas apresentam diferentes previsões sobre quando poderemos realizar o sonho da AGI. Ben Goertzel estima que poderemos alcançar a AGI nas próximas décadas, possivelmente na década de 2030.
Geoffrey Hinton, conhecido como o “padrinho da IA”, manifestou inicialmente incerteza quanto ao cronograma da AGI. Agora, acredita que uma IA de propósito geral poderá estar a apenas 20 anos de distância.
François Chollet, um proeminente investigador da Google DeepMind e criador do Keras, defende que a AGI não será possível através do simples aumento de escala das tecnologias atuais, como os LLMs. Chollet até desenvolveu um novo teste de referência denominado ARC-AGI e lançou uma competição pública para que os modelos de IA atuais o resolvam. Segundo Chollet, o desenvolvimento da AGI estagnou, sendo necessárias novas abordagens para avançar.
Yann LeCun, cientista-chefe de IA na Meta, também afirma que os LLMs têm limitações e não são suficientes para alcançar a AGI, pois carecem de inteligência e capacidades de raciocínio.
Risco Existencial da AGI
À medida que o desenvolvimento da IA avança em todo o mundo, muitos especialistas acreditam que alcançar a AGI poderá colocar a humanidade em risco. A própria OpenAI reconhece os sérios riscos associados a esta tecnologia. Geoffrey Hinton, após abandonar o Google, declarou à CBS News que “não é inconcebível” que a IA possa exterminar a humanidade, enfatizando a necessidade de encontrar formas de controlar sistemas de IA muito mais inteligentes.
Uma vez que um sistema de AGI seja capaz de igualar as capacidades humanas, poderá levar ao desemprego em massa em diversos setores de atividade, agravando as dificuldades económicas a nível global. A OpenAI já publicou um estudo detalhando quais os empregos que poderão ser substituídos pelo ChatGPT. Além disso, um sistema tão poderoso representa riscos de uso indevido ou consequências não intencionais se não estiver alinhado com os valores humanos.
Elon Musk também tem alertado para os perigos da AGI, defendendo que o seu desenvolvimento deve ser primordialmente alinhado com os interesses humanos. No ano passado, Musk, juntamente com outros líderes da indústria, solicitou uma pausa em grandes experiências de IA.
Ilya Sutskever, cofundador da OpenAI e antigo cientista-chefe, abandonou a empresa para fundar uma nova startup chamada Safe Superintelligence. Segundo Sutskever, “a IA é uma espada de dois gumes: tem o potencial de resolver muitos dos nossos problemas, mas também cria novos. O futuro será bom para a IA de qualquer maneira, mas seria bom se fosse bom para os humanos também”.
Ilya está atualmente a trabalhar no sentido de alinhar os sistemas de IA poderosos com os valores humanos para evitar resultados catastróficos para a humanidade. Timnit Gebru, uma antiga investigadora de IA no Google, foi demitida da empresa por publicar um artigo que destacava os riscos associados aos modelos de linguagem de grande escala (LLMs). Gebru argumenta que, em vez de nos questionarmos sobre o que é a AGI, deveríamos questionar “porque é que a deveríamos construir”.
A AGI poderá impactar a estrutura social da sociedade com a perda de empregos em larga escala, potencialmente aprofundando a desigualdade e levando a conflitos e escassez. Assim, surge a questão: deveremos realmente construí-la? Existem inúmeras perguntas e preocupações éticas que necessitam de ser abordadas antes de darmos início ao desenvolvimento de um sistema de AGI. Quais são as suas opiniões sobre a AGI? Partilhe-as connosco nos comentários abaixo.