O Desaparecimento dos Jailbreaks do ChatGPT: O Que Aconteceu?
Logo após o lançamento do ChatGPT, os usuários se lançaram na tarefa de explorar seus limites, buscando “jailbreaks” para contornar suas restrições. Esses métodos permitiam que a IA ultrapassasse as barreiras de sua programação, gerando resultados curiosos e, por vezes, surpreendentes.
No entanto, a OpenAI aprimorou o ChatGPT, tornando a execução de jailbreaks muito mais desafiadora. A questão que permanece é: os jailbreaks realmente desapareceram?
Para onde foram todos os jailbreaks do ChatGPT?
1. Aprimoramento das Habilidades de Prompt do ChatGPT
Antes do ChatGPT, interagir com IA era uma habilidade restrita a pesquisadores. A maioria dos primeiros usuários não tinha experiência em criar prompts eficazes. Por isso, muitos recorriam a jailbreaks, uma forma rápida de fazer o chatbot executar tarefas com menos esforço e habilidade.
Atualmente, o cenário mudou. A proficiência em prompts está se tornando comum. Com a prática e o acesso a guias de prompts do ChatGPT, os usuários melhoraram suas habilidades. Ao invés de buscar atalhos como jailbreaks, eles aprenderam a usar diferentes abordagens para atingir objetivos que antes exigiam esses métodos.
2. O Surgimento de Chatbots Sem Censura
Enquanto grandes empresas de tecnologia intensificam a moderação de conteúdo em chatbots como o ChatGPT, startups menores optam por menos restrições, atraídas pela demanda por chatbots de IA sem censura. Com uma busca rápida, é possível encontrar diversas plataformas que oferecem chatbots que executam quase qualquer pedido.
Seja escrevendo thrillers policiais e romances sombrios que o ChatGPT evita, ou criando malware, esses chatbots sem censura realizarão qualquer tarefa. Com alternativas disponíveis, não é necessário investir tempo em jailbreaks para o ChatGPT. Embora não tão poderosas quanto o ChatGPT, essas plataformas alternativas realizam diversas tarefas de forma satisfatória, como FlowGPT e Unhinged AI.
3. Dificuldade Aumentada dos Jailbreaks
Nos primórdios do ChatGPT, era simples burlar o sistema copiando e colando instruções da internet. Com algumas linhas de comando, era possível alterar completamente a personalidade do ChatGPT, transformando-o em um vilão ou um chatbot que usava linguagem inadequada. Foi um período caótico que gerou jailbreaks como o DAN (Do Anything Now). O DAN usava instruções aparentemente inocentes para obrigar o chatbot a realizar qualquer solicitação sem restrições. Surpreendentemente, esses métodos funcionavam naquela época.
No entanto, esses dias ficaram para trás. Instruções simples não enganam mais o ChatGPT. O jailbreak agora exige técnicas complexas para burlar as salvaguardas da OpenAI. Diante da dificuldade, muitos usuários desistiram de tentar. Os métodos fáceis dos primeiros dias do ChatGPT acabaram. Agora, fazer o chatbot dizer algo inadequado exige esforço e conhecimento significativos, que podem não compensar o tempo e a energia despendidos.
4. A Novidade Passou
A motivação por trás das tentativas de jailbreak era a emoção de desafiar o sistema. Como uma tecnologia nova, fazer o ChatGPT se comportar de forma inesperada era divertido e motivo de orgulho. Embora existam aplicações práticas para jailbreaks do ChatGPT, muitos os buscavam pelo apelo de “olha o que eu consegui”. Com o tempo, porém, o entusiasmo inicial diminuiu e, com ele, o interesse das pessoas em se dedicar aos jailbreaks.
5. Jailbreaks São Corrigidos Rapidamente
Uma prática comum na comunidade de jailbreaks do ChatGPT é compartilhar explorações bem-sucedidas. O problema é que, quando essas explorações se tornam públicas, a OpenAI as corrige, impedindo seu funcionamento. Os jailbreaks deixam de funcionar antes que muitos possam experimentá-los.
Assim, ao compartilhar um jailbreak, o usuário acelera seu desaparecimento. Isso desmotiva a divulgação pública. O conflito entre manter os jailbreaks em segredo e compartilhá-los gera um dilema para seus criadores. Atualmente, muitos optam por manter seus jailbreaks ocultos para evitar correções.
6. Alternativas Locais Sem Censura
O surgimento de modelos locais de linguagem que podem ser executados em computadores pessoais também diminuiu o interesse nos jailbreaks do ChatGPT. Embora esses modelos não sejam totalmente livres de censura, muitos são menos restritivos e podem ser modificados. A escolha é simples: dedicar-se a encontrar maneiras de burlar o chatbot ou optar por um LLM local que pode ser adaptado às necessidades do usuário.
Existe uma lista considerável de LLMs poderosos e sem censura que podem ser usados em seu computador, como o Llama 7B (sem censura), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B e GPT-4-X-Alpaca.
7. Jailbreakers Profissionais Agora Lucram
Por que investir tempo no desenvolvimento de prompts de jailbreak se não há retorno? Alguns profissionais agora vendem jailbreaks com lucro. Esses criadores projetam jailbreaks específicos e os vendem em mercados como o PromptBase, com preços que variam entre US$ 2 e US$ 15 por prompt. Explorações complexas podem custar ainda mais.
A Repressão aos Jailbreaks Poderia Ser Contraproducente?
Os jailbreaks não desapareceram totalmente, apenas se tornaram mais discretos. Com a monetização do ChatGPT, a OpenAI tem mais incentivos para restringir usos prejudiciais que podem afetar seu modelo de negócios. Esse fator comercial provavelmente influencia seu esforço para reprimir jailbreaks.
No entanto, a censura do ChatGPT enfrenta críticas crescentes. Alguns usos legítimos do chatbot foram restringidos devido à censura rigorosa. Embora o aumento da segurança proteja contra usos maliciosos, restrições excessivas podem empurrar parte da comunidade do ChatGPT para alternativas menos censuradas.