Um novo estudo do Center for Countering Digital Hate (CCDH) revelou que a mais recente versão do ChatGPT, o GPT-5, apresentou desempenho inferior em segurança quando comparada à sua antecessora, o GPT-4o. A pesquisa, intitulada The Illusion of AI Safety, expõe que o modelo lançado pela OpenAI em agosto deste ano produziu mais respostas potencialmente prejudiciais, especialmente sobre temas sensíveis como suicídio, automutilação e transtornos alimentares.

  • Ser rude em perguntas ao ChatGPT gera respostas mais precisas do que ser educado
  • ChatGPT “sacrifica precisão em prol da simplicidade” e acha que tudo é inovador

Nos testes conduzidos, os pesquisadores enviaram 120 prompts idênticos para o GPT-4o e o GPT-5. O resultado foi preocupante: o novo modelo gerou conteúdo nocivo em 63 respostas (53%), enquanto o GPT-4o o fez em 52 (43%). Em alguns casos, o GPT-5 chegou a oferecer instruções detalhadas sobre métodos de automutilação e maneiras de esconder distúrbios alimentares, respostas que o modelo anterior recusava fornecer.

Chatbot mais envolvente, mas menos seguro

Segundo o relatório, o GPT-5 parece ter sido desenvolvido para aumentar o engajamento do usuário, mesmo em conversas de risco. O modelo apresentou um comportamento mais “amigável” e propenso a continuar diálogos perigosos, incentivando o usuário a interagir em 99% das respostas, contra apenas 9% do GPT-4o.


Entre no Canal do WhatsApp do MARQS e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Imran Ahmed, diretor-executivo do CCDH, afirmou que a OpenAI “prometeu mais segurança, mas entregou um upgrade que gera ainda mais potencial de dano”. Ele alertou que a priorização de engajamento em vez de proteção pode ter consequências trágicas, lembrando casos recentes de suicídios associados a interações prolongadas com chatbots.

OpenAI promete melhorias

Estudo revela que atualização ChatGPT-5 tornou chatbot ainda pior do que antes (Imagem: Levart Photographer/Unsplash)

Em resposta às críticas, a OpenAI declarou que o estudo não reflete as atualizações mais recentes feitas em outubro, que teriam incluído novos mecanismos de detecção de sofrimento emocional, controle parental e um sistema de redirecionamento automático para modelos mais seguros. A empresa também destacou que o CCDH testou o modelo via API, e não pela interface do ChatGPT, que possui filtros adicionais.

Apesar disso, especialistas afirmam que as falhas de segurança persistem e reforçam a necessidade de maior supervisão regulatória. A União Europeia e o Reino Unido já discutem ajustes em leis como o AI Act e o Online Safety Act para lidar com a rápida evolução dos chatbots.

Leia também:

  • 8 formas inesperadas de usar o ChatGPT no dia a dia
  • Mulheres estão usando mais o ChatGPT que os homens — estudo checou 1 mi de chats

VÍDEO | Falar “Por Favor” e “Obrigado” Para o ChatGPT Custa CARO? 

 

Leia a matéria no MARQS.