Fim dos Jailbreaks do ChatGPT? 7 Razões!

O Desaparecimento dos Jailbreaks do ChatGPT: O Que Aconteceu?

Logo após o lançamento do ChatGPT, os usuários se lançaram na tarefa de explorar seus limites, buscando “jailbreaks” para contornar suas restrições. Esses métodos permitiam que a IA ultrapassasse as barreiras de sua programação, gerando resultados curiosos e, por vezes, surpreendentes.

No entanto, a OpenAI aprimorou o ChatGPT, tornando a execução de jailbreaks muito mais desafiadora. A questão que permanece é: os jailbreaks realmente desapareceram?

Para onde foram todos os jailbreaks do ChatGPT?

1. Aprimoramento das Habilidades de Prompt do ChatGPT

Antes do ChatGPT, interagir com IA era uma habilidade restrita a pesquisadores. A maioria dos primeiros usuários não tinha experiência em criar prompts eficazes. Por isso, muitos recorriam a jailbreaks, uma forma rápida de fazer o chatbot executar tarefas com menos esforço e habilidade.

Atualmente, o cenário mudou. A proficiência em prompts está se tornando comum. Com a prática e o acesso a guias de prompts do ChatGPT, os usuários melhoraram suas habilidades. Ao invés de buscar atalhos como jailbreaks, eles aprenderam a usar diferentes abordagens para atingir objetivos que antes exigiam esses métodos.

2. O Surgimento de Chatbots Sem Censura

Enquanto grandes empresas de tecnologia intensificam a moderação de conteúdo em chatbots como o ChatGPT, startups menores optam por menos restrições, atraídas pela demanda por chatbots de IA sem censura. Com uma busca rápida, é possível encontrar diversas plataformas que oferecem chatbots que executam quase qualquer pedido.

Seja escrevendo thrillers policiais e romances sombrios que o ChatGPT evita, ou criando malware, esses chatbots sem censura realizarão qualquer tarefa. Com alternativas disponíveis, não é necessário investir tempo em jailbreaks para o ChatGPT. Embora não tão poderosas quanto o ChatGPT, essas plataformas alternativas realizam diversas tarefas de forma satisfatória, como FlowGPT e Unhinged AI.

3. Dificuldade Aumentada dos Jailbreaks

Nos primórdios do ChatGPT, era simples burlar o sistema copiando e colando instruções da internet. Com algumas linhas de comando, era possível alterar completamente a personalidade do ChatGPT, transformando-o em um vilão ou um chatbot que usava linguagem inadequada. Foi um período caótico que gerou jailbreaks como o DAN (Do Anything Now). O DAN usava instruções aparentemente inocentes para obrigar o chatbot a realizar qualquer solicitação sem restrições. Surpreendentemente, esses métodos funcionavam naquela época.

No entanto, esses dias ficaram para trás. Instruções simples não enganam mais o ChatGPT. O jailbreak agora exige técnicas complexas para burlar as salvaguardas da OpenAI. Diante da dificuldade, muitos usuários desistiram de tentar. Os métodos fáceis dos primeiros dias do ChatGPT acabaram. Agora, fazer o chatbot dizer algo inadequado exige esforço e conhecimento significativos, que podem não compensar o tempo e a energia despendidos.

4. A Novidade Passou

A motivação por trás das tentativas de jailbreak era a emoção de desafiar o sistema. Como uma tecnologia nova, fazer o ChatGPT se comportar de forma inesperada era divertido e motivo de orgulho. Embora existam aplicações práticas para jailbreaks do ChatGPT, muitos os buscavam pelo apelo de “olha o que eu consegui”. Com o tempo, porém, o entusiasmo inicial diminuiu e, com ele, o interesse das pessoas em se dedicar aos jailbreaks.

5. Jailbreaks São Corrigidos Rapidamente

Uma prática comum na comunidade de jailbreaks do ChatGPT é compartilhar explorações bem-sucedidas. O problema é que, quando essas explorações se tornam públicas, a OpenAI as corrige, impedindo seu funcionamento. Os jailbreaks deixam de funcionar antes que muitos possam experimentá-los.

Assim, ao compartilhar um jailbreak, o usuário acelera seu desaparecimento. Isso desmotiva a divulgação pública. O conflito entre manter os jailbreaks em segredo e compartilhá-los gera um dilema para seus criadores. Atualmente, muitos optam por manter seus jailbreaks ocultos para evitar correções.

6. Alternativas Locais Sem Censura

O surgimento de modelos locais de linguagem que podem ser executados em computadores pessoais também diminuiu o interesse nos jailbreaks do ChatGPT. Embora esses modelos não sejam totalmente livres de censura, muitos são menos restritivos e podem ser modificados. A escolha é simples: dedicar-se a encontrar maneiras de burlar o chatbot ou optar por um LLM local que pode ser adaptado às necessidades do usuário.

Existe uma lista considerável de LLMs poderosos e sem censura que podem ser usados em seu computador, como o Llama 7B (sem censura), Zephyr 7B Alpha, Manticore 13B, Vicuna 13B e GPT-4-X-Alpaca.

7. Jailbreakers Profissionais Agora Lucram

Por que investir tempo no desenvolvimento de prompts de jailbreak se não há retorno? Alguns profissionais agora vendem jailbreaks com lucro. Esses criadores projetam jailbreaks específicos e os vendem em mercados como o PromptBase, com preços que variam entre US$ 2 e US$ 15 por prompt. Explorações complexas podem custar ainda mais.

A Repressão aos Jailbreaks Poderia Ser Contraproducente?

Os jailbreaks não desapareceram totalmente, apenas se tornaram mais discretos. Com a monetização do ChatGPT, a OpenAI tem mais incentivos para restringir usos prejudiciais que podem afetar seu modelo de negócios. Esse fator comercial provavelmente influencia seu esforço para reprimir jailbreaks.

No entanto, a censura do ChatGPT enfrenta críticas crescentes. Alguns usos legítimos do chatbot foram restringidos devido à censura rigorosa. Embora o aumento da segurança proteja contra usos maliciosos, restrições excessivas podem empurrar parte da comunidade do ChatGPT para alternativas menos censuradas.