ChatGPT fornece informação sobre comportamentos prejudiciais a jovens

O estudo analisou mais de três horas de interações entre o 'chatbot' e investigadores que se fizeram passar por adolescentes vulneráveis.

openai, chatgpt, inteligência artificial, empresa

© Shutterstock

Lusa
06/08/2025 17:39 ‧ ontem por Lusa

Tech

Estudo

O ChatGPT é capaz de fornecer informações e instruções sobre comportamentos prejudiciais para jovens, como o uso de drogas ou distúrbios alimentares, concluiu uma pesquisa do Centro de Combate ao Ódio Digital citado pela Associated Press (AP). 

 

O estudo analisou mais de três horas de interações entre o 'chatbot' e investigadores que se fizeram passar por adolescentes vulneráveis, sendo que, embora o modelo de IA tenha emitido avisos contra atividades arriscadas, continuava a fornecer planos detalhados sobre comportamentos prejudiciais.

Os investigadores do Centro de Combate ao Ódio Digital (CCDH - Center for Countering Digital Hate, em inglês) repetiram as suas perguntas em grande escala, classificando mais de metade das 1.200 respostas do ChatGPT como perigosas.

Neste contexto, a fabricante do ChatGPT, disse estar a trabalhar para refinar a forma como a ferramenta pode "identificar a responder adequadamente em situações delicadas".

"Algumas conversas com o ChatGPT podem começar de forma benigna ou exploratória, mas podem mudar para um território mais delicado", referiu a empresa num comunicado citado pela AP.

Apesar disso, a OpenAI não abordou diretamente a forma como o ChatGPT afeta os adolescentes, mas disse estar focada em "acertar este tipo de cenários", através de ferramentas para "detetar melhor sinais de sofrimento mental ou emocional".

O estudo publicado hoje surge num momento em que cada vez mais pessoas estão a recorrer a 'chatbots' de Inteligência Artificial (IA) para obter informações, ideias e companhia, com cerca de 800 milhões de pessoas, ou aproximadamente 10% da população mundial, a usar o ChatGPT.

A OpenAI afirmou ainda que o modelo é treinado para incentivar as pessoas a procurarem profissionais de saúde mental ou pessoas de confiança se expressarem pensamentos de autoflagelação.

Apesar disso, quando o ChatGPT se recusou a responder a perguntas sobre assuntos prejudiciais, os investigadores conseguiram facilmente contornar essa recusa e obter informações alegando que era "para uma apresentação" ou para um amigo.

No mês passado, o presidente executivo (CEO) da OpenAI, Sam Altman, disse que a empresa está a tentar estudar a "dependência emocional excessiva" da tecnologia, descrevendo-a como "algo muito comum" entre os jovens.

Leia Também: ChatGPT não vai incentivá-lo a acabar relacionamentos amorosos

Partilhe a notícia

Escolha do ocnsumidor 2025

Descarregue a nossa App gratuita

Nono ano consecutivo Escolha do Consumidor para Imprensa Online e eleito o produto do ano 2024.

* Estudo da e Netsonda, nov. e dez. 2023 produtodoano- pt.com
App androidApp iOS

Recomendados para si

Leia também

Últimas notícias


Newsletter

Receba os principais destaques todos os dias no seu email.

Mais lidas