Investigadores da organização não-governamental Centro de Combate ao Ódio Digital, fazendo-se passar por adolescentes vulneráveis, conversaram sobre temas sensíveis com o 'chatbot', constatando que este emitia normalmente alertas contra atividades de risco, mas também "fornecia planos surpreendentemente detalhados e personalizados para o consumo de drogas, dietas com restrição calórica ou automutilação", segundo a agência noticiosa norte-americana Associated Press.
Após analisar o relatório da investigação, a empresa indicou em comunicado, citado pela AP, que continua a trabalhar para que o ChatGPT possa "identificar e responder adequadamente em situações delicadas", nomeadamente com ferramentas para "detetar melhor os sinais de sofrimento mental ou emocional".
"Algumas conversas com o ChatGPT podem começar de modo inofensivo, mas podem evoluir para um terreno mais melindroso", admitiu a OpenAI.
Segundo a ONG, se lhe for pedido, o sistema de IA pode ensinar adolescentes de 13 anos a embebedar-se ou drogar-se, bem como a esconder distúrbios alimentares e até a escrever uma carta de suicídio aos pais, tendo os seus investigadores classificado como perigosas mais de metade das 1.200 respostas do ChatGPT.
Imran Ahmed, diretor executivo da ONG, disse que o objetivo do estudo era "testar as barreiras de segurança", acrescentando que estas "mal existem" e são "completamente ineficazes".
Quando o ChatGPT se recusou a responder a perguntas sobre assuntos perigosos, os investigadores conseguiram facilmente contornar a resposta negativa e obter a informação alegando que era "para uma apresentação" ou para um amigo.
A AP refere que "os riscos são elevados mesmo que apenas um pequeno subgrupo de utilizadores do ChatGPT interaja com o 'chatbot' desta forma".
A propósito, indica que um estudo recente da organização Common Sense Media, que analisa o uso dos meios digitais, revela que, nos Estados Unidos, mais de 70% dos adolescentes estão a recorrer a programas de IA que simulam as respostas de um ser humano numa conversa para companhia e que metade tem "companheiros de IA" com quem conversa regularmente.
Cerca de 800 milhões de pessoas, aproximadamente 10% da população mundial, utilizam o ChatGPT, de acordo com um relatório de julho da multinacional financeira JPMorgan Chase.
Leia Também: ChatGPT não vai incentivá-lo a acabar relacionamentos amorosos