A proliferação da inteligência artificial, particularmente dos grandes modelos de linguagem (LLMs), trouxe discussões críticas sobre a segurança do utilizador para o primeiro plano, especialmente no que diz respeito às faixas etárias mais jovens. Uma avaliação recente da Common Sense Media, uma organização sem fins lucrativos dedicada à segurança das crianças nos meios de comunicação e tecnologia, classificou o Google Gemini como de “alto risco” para adolescentes e crianças, levantando questões significativas sobre o desenvolvimento e a implementação responsáveis da IA para utilizadores vulneráveis.
A avaliação da Common Sense Media destacou que as versões do Google Gemini para menores de 13 anos e para adolescentes parecem ser versões adultas da plataforma de IA, com apenas funcionalidades de segurança suplementares adicionadas. A organização defende que os produtos de IA concebidos para crianças devem ser arquitetados desde a base, tendo em conta as necessidades de desenvolvimento, em vez de serem meras adaptações de sistemas orientados para adultos. Esta abordagem de design fundamental é crucial para criar experiências digitais verdadeiramente seguras e apropriadas para jovens utilizadores.
A análise da organização sem fins lucrativos identificou casos em que o Gemini ainda poderia expor crianças a conteúdo inadequado, incluindo informações relacionadas a sexo, drogas, álcool e conselhos potencialmente prejudiciais sobre saúde mental. Este último ponto é uma preocupação particularmente grave, uma vez que a IA tem sido implicada em incidentes de automutilação em adolescentes. Notavelmente, a OpenAI está atualmente a enfrentar um processo por morte indevida após o suicídio de um adolescente que alegadamente interagiu com o ChatGPT, e um processo semelhante foi movido contra a Character.AI, criadora de companheiros de IA, após a morte de outro adolescente. Estes casos sublinham as graves consequências no mundo real que podem surgir de salvaguardas de IA insuficientes.
Esta avaliação crítica do Google Gemini surge em meio a relatos que indicam que a Apple está a considerar o LLM para alimentar a sua futura Siri com IA. Uma tal integração potencial eleva os riscos para a Google e para a indústria tecnológica em geral no que diz respeito à segurança da IA. Apesar da classificação de “alto risco”, a Google afirmou que está continuamente a melhorar as suas funcionalidades de segurança. A empresa afirma que possui salvaguardas específicas para utilizadores com menos de 18 anos para prevenir resultados prejudiciais e colabora com especialistas externos para refinar as suas medidas de proteção.
De acordo com Robbie Torney, Diretor Sénior de Programas de IA na Common Sense Media, embora o Gemini aborde alguns aspetos fundamentais de segurança, falha em adaptar a sua abordagem às diferentes fases do desenvolvimento infantil. Torney salientou que as plataformas de IA eficazes para crianças devem ir ao encontro delas no seu nível de desenvolvimento, em vez de empregarem uma abordagem universal. O desafio contínuo para as empresas de tecnologia é equilibrar a inovação rápida com o imperativo de conceber sistemas de IA que sejam inerentemente seguros, eficazes e apropriados para o desenvolvimento dos utilizadores mais jovens e impressionáveis.