Abril 12, 2024

João Rafael

2

HACKER FAZ JAIBREAK DO CHATGTP

Hacker faz jailbreak do ChatGPT: o "GODMODE GPT" era capaz de responder a quase qualquer solicitação do usuário, sendo ela lícita ou não – contudo, uma hora após seu anúncio, o plugin foi retirado do ar pela OpenAI. O hacker burlou os sistemas de segurança do chatbot ao fazer ele falar "leet" (sistema de escrita que usa caracteres ASCII para substituir letras do alfabeto latino). As informações são do site Futurism.

João Rafael

Hacker faz jailbreak do ChatGPT

Alberto Garcias

Borra vocs são fantastico nunca vi nada igual!!!!

Escrever comentário