Com o avanço das pesquisas no campo da IA, o conceito de AGI (Inteligência Geral Artificial) começa a deixar o realm da teoria para se tornar uma realidade tangível. Estamos, sem dúvida, na fase inicial da era da IA, com muitas aplicações de IA Generativa já disponíveis no mercado. Mas, qual é o próximo passo? A AGI representa o futuro? Para entender o que é a Inteligência Geral Artificial (AGI) e como ela pode impactar a humanidade, continue lendo.
últimas postagens
O que é a Inteligência Geral Artificial ou AGI?
Não há um consenso amplo entre os pesquisadores e laboratórios de IA sobre a definição de AGI. No entanto, o termo AGI – Inteligência Geral Artificial – é principalmente compreendido como um tipo de sistema de IA que pode igualar ou superar as capacidades humanas, especialmente em tarefas cognitivas.
Vários laboratórios de IA possuem suas próprias definições de AGI. Em fevereiro de 2023, a OpenAI esclareceu o que significa AGI para eles: “sistemas de IA que são geralmente mais inteligentes que humanos”. A empresa deseja desenvolver AGI que beneficie toda a humanidade. Ao mesmo tempo, a OpenAI reconhece os riscos “sérios” associados a uma tecnologia como a AGI, que tem potencial para “uso indevido, acidentes drásticos e desestabilização social”.
Shane Legg, um dos cofundadores da DeepMind (atualmente Google DeepMind) e atual cientista-chefe de AGI da mesma empresa, cunhou o termo AGI junto com Ben Goertzel, seu colega pesquisador. Legg afirma que AGI é um conceito muito amplo. A posição da DeepMind sobre AGI é que um sistema deve “não apenas ser capaz de realizar uma variedade de tarefas, mas também aprender a realizar essas tarefas, avaliar seu desempenho e solicitar assistência quando necessário”.
A equipe da Google DeepMind delineou diferentes níveis de AGI: emergente, competente, expert, virtuoso e super-humano. Atualmente, os modelos de IA de fronteira mostraram alguns comportamentos emergentes, acreditam os pesquisadores da DeepMind.
Características da AGI
Assim como não existe um consenso amplo sobre a definição de AGI, suas características também não são bem definidas. No entanto, pesquisadores de IA afirmam que uma AGI de nível humano deve ser capaz de raciocinar como os humanos e tomar decisões mesmo sob incerteza. Deve ter conhecimento sobre praticamente tudo, incluindo compreensão do senso comum.
Além disso, um sistema de AGI deve ser capaz de planejar e adquirir novas habilidades. Ele deve resolver questões abertas e se comunicar em linguagem natural. Cientistas cognitivos argumentam que sistemas de AGI também devem possuir características como imaginação para formar ideias e conceitos novos. As características da AGI também incluem traços físicos, como a capacidade de ver, ouvir, mover e agir.
Para testar se os modelos de IA alcançaram a AGI, existem vários testes, incluindo o famoso Teste de Turing. Nomeado em homenagem ao cientista da computação Alan Turing, o teste é uma forma de verificar se um sistema de IA pode imitar a conversa humana a ponto de uma pessoa não conseguir dizer se está conversando com uma máquina.
Many believe that current AI chatbots have already passed the Turing test. However, the test also proposes that a machine should exhibit intelligent behavior equivalent to humans. Outros testes incluem o Teste de Emprego, proposto por John Nilsson. Ele afirma que uma máquina deve ser capaz de realizar um trabalho crucial, similar aos humanos.
Steve Wozniak, cofundador da Apple, também propôs o Teste do Café para avaliar um sistema de IA inteligente. Ele afirma que um sistema de IA suficientemente inteligente deve ser capaz de encontrar a cafeteira, adicionar água e café e completar o processo de preparo sem necessitar de input humano.
Níveis de AGI
A OpenAI acredita que a AGI não será alcançada de uma só vez; em vez disso, haverá múltiplos níveis ascendentes de progresso até finalmente alcançar a AGI. A Bloomberg recentemente relatou que a OpenAI propôs cinco níveis de progresso em direção à realização do objetivo da AGI.
O primeiro é a IA Conversacional, onde atualmente estamos, com chatbots como ChatGPT, Claude e Gemini. O segundo nível é a IA de Raciocínio, onde os modelos de IA podem raciocinar como humanos. Ainda não chegamos aqui. O terceiro nível é a IA Autônoma, onde agentes de IA podem realizar ações autonomamente em nome do usuário.
O quarto nível é a IA Inovadora, onde sistemas inteligentes de IA podem inovar e se aprimorar. E finalmente, o quinto nível é a IA Organizacional, onde um sistema de IA pode realizar ações e concluir tarefas de toda uma organização sem intervenção humana. Esse tipo de sistema de IA pode falhar, aprender, melhorar e trabalhar em conjunto com múltiplos agentes para executar tarefas em paralelo.
Progresso da AGI e Cronograma: Quão Perto Estamos de Realizá-la?
Imagem Cortesia: Shutterstock
Sam Altman, CEO da OpenAI, acredita que podemos alcançar o quinto nível — IA Organizacional — nos próximos dez anos. Muitos especialistas têm previsões diferentes sobre quando podemos realizar o sonho da AGI. Ben Goertzel prevê que poderíamos alcançar a AGI nas próximas décadas, possivelmente na década de 2030.
Geoffrey Hinton, popularmente conhecido como “o padrinho da IA”, inicialmente expressou incerteza quanto ao cronograma da AGI. Agora, acredita que uma IA de propósito geral pode estar a apenas 20 anos de distância.
François Chollet, um pesquisador proeminente da Google DeepMind e criador do Keras, é da opinião que a AGI não será possível apenas escalando tecnologias atuais como os LLMs. Ele até desenvolveu um novo benchmark chamado ARC-AGI e iniciou uma competição pública para que modelos atuais de IA o resolvessem. Chollet argumenta que o desenvolvimento de AGI estagnou e precisamos de novas ideias para avançar.
Yann LeCun, cientista-chefe de IA na Meta, também afirma que os LLMs têm limitações e não são suficientes para alcançar a AGI, pois faltam inteligência e capacidades de raciocínio.
Risco Existencial da AGI
Enquanto o desenvolvimento da IA avança em todo o mundo, muitos especialistas acreditam que alcançar a AGI colocaria a humanidade em risco. A própria OpenAI admite os riscos sérios associados à tecnologia. Geoffrey Hinton, após deixar o Google, disse à CBS News que “não é inconcebível” quando questionado se a IA poderia exterminar a humanidade. Ele enfatizou ainda a necessidade de encontrar formas de controlar sistemas de IA muito mais inteligentes.
Uma vez que um sistema de AGI poderia igualar as capacidades humanas, isso poderia levar ao desemprego em massa em muitas indústrias. Isso apenas agravaria a dificuldade econômica ao redor do mundo. A OpenAI já publicou um artigo detalhando quais empregos poderiam ser substituídos pelo ChatGPT. Além disso, um sistema tão poderoso representa riscos de uso indevido ou consequências não intencionais se não estiver alinhado com os valores humanos.
Elon Musk também levantou o alarme sobre os perigos da AGI e que o desenvolvimento da AGI deve alinhar-se primeiramente com os interesses humanos. No ano passado, Musk, juntamente com proeminentes líderes da indústria, solicitou uma pausa em grandes experimentos de IA.
Ilya Sutskever, cofundador da OpenAI e ex-cientista-chefe, deixou a empresa para iniciar uma nova startup chamada Safe Superintelligence. Ele afirma: “A IA é uma espada de dois gumes: tem o potencial de resolver muitos de nossos problemas, mas também cria novos. O futuro será bom para a IA de qualquer forma, mas seria bom se fosse bom para os humanos também”.
Ilya agora está trabalhando para alinhar poderosos sistemas de IA com os valores humanos para prevenir resultados catastróficos para a humanidade. Timnit Gebru, uma ex-pesquisadora de IA no Google, foi demitida da empresa por publicar um artigo que destacou os riscos associados a modelos de linguagem de grande escala (LLMs). Ela argumenta que, em vez de perguntar o que é AGI, deveríamos perguntar “por que devemos construí-la”.
A AGI pode potencialmente impactar a estrutura social da sociedade com a perda de empregos em larga escala. Isso poderia aprofundar ainda mais a desigualdade e levar a conflitos e escassez. Portanto, surge a questão – devemos realmente construí-la? Existem muitas perguntas e preocupações éticas que precisam ser abordadas antes de começarmos a desenvolver um sistema de AGI. Quais são suas opiniões sobre a AGI? Deixe-nos saber nos comentários abaixo.