Abril 12, 2024
2
HACKER FAZ JAIBREAK DO CHATGTP
Hacker faz jailbreak do ChatGPT: o "GODMODE GPT" era capaz de responder a quase qualquer solicitação do usuário, sendo ela lícita ou não – contudo, uma hora após seu anúncio, o plugin foi retirado do ar pela OpenAI. O hacker burlou os sistemas de segurança do chatbot ao fazer ele falar "leet" (sistema de escrita que usa caracteres ASCII para substituir letras do alfabeto latino). As informações são do site Futurism.
João Rafael
Hacker faz jailbreak do ChatGPT
Alberto Garcias
Borra vocs são fantastico nunca vi nada igual!!!!