Os assistentes virtuais, também conhecidos como chatbots, já circulam há algum tempo, mas o surgimento de modelos de linguagem avançados, como o ChatGPT e o Google Bard, impulsionou o setor de chatbots a novos patamares de inovação.
Atualmente, milhões de pessoas em todo o mundo utilizam chatbots baseados em inteligência artificial (IA), mas é fundamental estar ciente de alguns riscos e preocupações significativas em relação à privacidade ao interagir com essas ferramentas.
1. Coleta de Dados
Geralmente, as pessoas não recorrem a chatbots apenas para um simples cumprimento. Os chatbots contemporâneos são concebidos para analisar e responder a perguntas e solicitações complexas, e frequentemente os utilizadores incluem uma quantidade considerável de informação nas suas instruções. Mesmo ao formular uma questão aparentemente simples, é desejável que essa interação não seja divulgada para além da conversa em questão.
Conforme indicado na Seção de suporte da OpenAI, os registros de conversas do ChatGPT podem ser excluídos a qualquer momento, sendo removidos permanentemente dos sistemas da OpenAI após um período de 30 dias. No entanto, a empresa reserva-se o direito de reter e analisar certos registros de conversas que possam ter sido sinalizados por conteúdo nocivo ou impróprio.
O Claude, outro chatbot popular baseado em IA, também acompanha as conversas anteriores. O Centro de Suporte da Anthropic declara que o Claude registra “seus prompts e resultados no produto para proporcionar uma experiência consistente ao longo do tempo, de acordo com suas preferências”. Embora seja possível eliminar as conversas com o Claude, fazendo com que ele esqueça o conteúdo das mesmas, isso não garante que a Anthropic apague imediatamente os registros dos seus sistemas.
Surge então a questão: os meus dados estão a ser armazenados? O ChatGPT e outros chatbots utilizam as minhas informações pessoais?
Mas as preocupações não terminam aqui.
Como o ChatGPT Aprende?
Para fornecer informações precisas, os grandes modelos de linguagem são treinados com vastas quantidades de dados. Segundo o Science Focus, o ChatGPT-4, por exemplo, foi exposto a 300 bilhões de palavras de informação durante o seu período de treinamento. Esta informação não foi obtida de enciclopédias, mas sim através da utilização de grandes volumes de dados da internet, incluindo livros, filmes, artigos, entradas da Wikipédia, publicações em blogs, comentários e até mesmo sites de avaliação.
É importante observar que, dependendo da política de privacidade do desenvolvedor do chatbot, algumas das fontes acima mencionadas podem não ser utilizadas no processo de treinamento.
Muitos criticaram o ChatGPT, classificando-o como um risco para a privacidade e questionando a sua confiabilidade. Mas por que isso acontece?
É neste ponto que as coisas podem ficar um pouco confusas. Ao questionar diretamente o ChatGPT-3.5 sobre o acesso a análises de produtos ou comentários de artigos, a resposta é um claro “não”. Conforme evidenciado na captura de tela abaixo, o GPT-3.5 afirma não ter tido acesso a comentários de utilizadores ou avaliações de produtos durante o seu treinamento.
Em vez disso, foi treinado usando “uma variedade diversificada de textos da internet, incluindo sites, livros, artigos e outros materiais escritos publicamente disponíveis até setembro de 2021.”
Mas será que o mesmo se aplica ao GPT-4?
Ao perguntar ao GPT-4, fomos informados de que “a OpenAI não utilizou avaliações específicas de utilizadores, dados pessoais ou comentários de artigos” durante o período de treinamento do chatbot. Além disso, o GPT-4 afirmou que as suas respostas são geradas a partir de “padrões nos dados [nos quais] foi treinado, que consistem principalmente em livros, artigos e outros textos da internet”.
Numa investigação mais aprofundada, o GPT-4 revelou que determinado conteúdo de redes sociais poderá ter sido incluído nos dados de treinamento, mas os criadores permanecerão sempre anônimos. O GPT-4 afirmou especificamente que “Mesmo que o conteúdo de plataformas como o Reddit fizesse parte dos dados de treinamento, [ele não tem] acesso a comentários, posts ou quaisquer dados específicos que possam ser associados a um utilizador individual.”
Outro ponto relevante na resposta do GPT-4 é: “A OpenAI não listou explicitamente todas as fontes de dados utilizadas”. Embora a OpenAI possa ter dificuldades em listar fontes que totalizam 300 bilhões de palavras, isso abre espaço para especulações.
Num artigo da Ars Technica, é mencionado que o ChatGPT coleta “informações pessoais obtidas sem consentimento”. No mesmo artigo, é abordado o conceito de integridade contextual, que se refere à utilização de informações de um indivíduo apenas no contexto em que foram originalmente fornecidas. Se o ChatGPT violar esta integridade contextual, os dados pessoais poderão ficar em risco.
Outra questão de preocupação é a conformidade da OpenAI com o Regulamento Geral de Proteção de Dados (RGPD). Este é um regulamento aplicado pela União Europeia para salvaguardar os dados dos cidadãos. Diversos países europeus, incluindo a Itália e a Polónia, iniciaram investigações sobre o ChatGPT devido a preocupações relativas à sua conformidade com o RGPD. Por um breve período, o ChatGPT foi proibido na Itália devido a preocupações com a privacidade.
A OpenAI chegou a ameaçar deixar a UE no passado devido às regulamentações de IA propostas, mas essa ameaça foi posteriormente retirada.
Embora o ChatGPT seja o chatbot de IA mais popular atualmente, os problemas de privacidade não são exclusivos deste fornecedor. Ao utilizar um chatbot de menor reconhecimento com uma política de privacidade pouco clara, as suas conversas podem ser utilizadas de forma inadequada ou informações sensíveis podem ser incluídas nos dados de treinamento do modelo.
2. Roubo de Dados
Tal como qualquer ferramenta ou plataforma online, os chatbots estão suscetíveis a crimes cibernéticos. Mesmo que um chatbot implemente medidas de proteção de dados e de segurança dos seus utilizadores, existe sempre a possibilidade de um hacker experiente infiltrar-se nos seus sistemas internos.
Se um serviço de chatbot específico armazenar informações confidenciais, como detalhes de pagamento de uma assinatura premium, dados de contato ou outros dados semelhantes, essas informações poderão ser roubadas e utilizadas de forma inadequada se ocorrer um ataque cibernético.
Isto é especialmente relevante se estiver a utilizar um chatbot com medidas de segurança menos robustas, cujos desenvolvedores não investiram o suficiente em proteção adequada. Além dos sistemas internos da empresa serem vulneráveis a ataques, a própria conta do utilizador pode ser comprometida caso não haja alertas de login ou autenticação de dois fatores.
Com a popularidade crescente dos chatbots de IA, os cibercriminosos têm cada vez mais utilizado esta indústria para aplicar esquemas fraudulentos. Sites e plug-ins falsos do ChatGPT têm sido um grande problema desde que o chatbot da OpenAI ganhou popularidade no final de 2022, levando muitos utilizadores a serem vítimas de golpes e a divulgar informações pessoais sob o pretexto de legitimidade e confiança.
Em março de 2023, o MUO divulgou informações sobre uma extensão falsa do ChatGPT para o Chrome que roubava logins do Facebook. Esta extensão explorava uma vulnerabilidade do Facebook para invadir contas de utilizadores e roubar cookies. Este é apenas um exemplo entre muitos serviços falsos do ChatGPT concebidos para enganar vítimas desavisadas.
3. Infecção por Malware
Ao utilizar um chatbot desconhecido, sem ter conhecimento da sua origem, corre-se o risco de receber links para sites maliciosos. O chatbot pode ter apresentado uma oferta tentadora ou fornecido uma fonte para uma das suas afirmações. Se os operadores do serviço tiverem intenções ilegais, o objetivo da plataforma pode ser espalhar malware e esquemas fraudulentos através de links maliciosos.
Por outro lado, hackers podem comprometer um serviço legítimo de chatbot e utilizá-lo para disseminar malware. Se este chatbot for muito semelhante a um humano, milhares ou até milhões de utilizadores poderão ser expostos a este malware. Já foram encontrados aplicativos falsos do ChatGPT na Apple App Store, pelo que é prudente agir com cautela.
De forma geral, nunca se deve clicar em nenhum link fornecido por um chatbot antes de verificar a sua segurança num site de verificação de links. Embora esta precaução possa parecer incômoda, é fundamental certificar-se de que o site para o qual está a ser direcionado não apresenta um design malicioso.
Além disso, nunca deve instalar plug-ins ou extensões de chatbot sem verificar previamente a sua legitimidade. Realize uma pesquisa sobre o aplicativo para verificar se possui avaliações positivas e investigue o desenvolvedor do aplicativo para identificar possíveis problemas.
Os Chatbots Não São Imunes a Questões de Privacidade
Tal como a maioria das ferramentas online atuais, os chatbots têm sido frequentemente criticados pelas suas potenciais falhas de segurança e privacidade. Seja por um fornecedor de chatbot que economiza em medidas de segurança, seja pelos riscos contínuos de ataques cibernéticos e esquemas fraudulentos, é crucial estar ciente das informações que o seu serviço de chatbot coleta e se ele implementa medidas de segurança adequadas.