[
Um jovem de 16 anos suicidou-se horas depois de perguntar ao ChatGPT a forma mais “eficaz” de acabar com a sua vida. O caso aconteceu no ano passado, no Reino Unido, mas uma investigação policial trouxe agora à tona a conversa com o chatbot.
Kiichiro Sato
Luca Cella Walker morreu a 4 de maio do ano passado, depois de se dirigir a uma estação ferroviária, onde acabou por tirar a própria vida. Um inquérito judicial realizado em Winchester revelou que, na madrugada anterior, o jovem tinha questionado o chatbot sobre o “método mais eficaz” para cometer suicídio numa linha de comboio.
De acordo com a investigação conduzida pelas autoridades inglesas, o adolescente terá contornado os mecanismos de segurança do chatbot ao explicar que procurava as “informações” para um “trabalho de investigação“, o que permitiu que a conversa prosseguisse.
Ainda assim, o ChatGPT sugeriu que o jovem procurasse ajuda junto de organizações de apoio à vítima.
O caso foi descrito em tribunal como “perturbador”.
“Descobriram que ele tinha estado no ChatGPT na noite anterior, por volta da 00h30, a pedir conselhos sobre as formas mais eficazes de cometer suicídio na linha férrea. É uma leitura bastante arrepiante e perturbadora”, disse o agente Garry Knight, da Polícia Britânica de Transportes, que investigou a morte de Walker.
“Está programado para dizer que se pode contactar organizações para obter ajuda, como os Samaritans, mas o Luca ignorou isso, o que o ChatGPT aceitou e apresentou as formas mais eficazes de as pessoas se [matarem] na linha férrea”, explicou.
Saúde mental, uma “batalha invisível”
O médico-legista Christopher Wilkinson manifestou preocupação com o impacto crescente deste tipo de tecnologias, embora tenha reconhecido limitações na sua capacidade de intervenção.
“Há sinais de preocupação nas respostas, mas isso não impede que a conversa continue”, afirmou.
A família descreveu Luca como “bondoso e sensível” e afirmou desconhecer o sofrimento psicológico do jovem, que consideraram uma “batalha invisível“.
Durante o inquérito, foi também referido que o ambiente escolar poderá ter contribuído para dificuldades emocionais.
Em resposta, a OpenAI, responsável pelo desenvolvimento do ChatGPT, afirmou ter reforçado os mecanismos de deteção de sinais de sofrimento emocional, garantindo que o sistema procura encaminhar os utilizadores para apoio especializado e desescalar situações de risco.
“Continuámos a aperfeiçoar a formação do ChatGPT para que este reconheça e responda a sinais de sofrimento mental ou emocional, acalme as conversas e oriente as pessoas para serviços de apoio no mundo real”, começou por dizer.
“Também continuámos a reforçar as respostas do ChatGPT em momentos delicados, trabalhando em estreita colaboração com profissionais de saúde mental”, rematou.
O caso reacendeu o debate sobre os limites e responsabilidades das plataformas de inteligência artificial, especialmente quando utilizadas por menores ou em contextos de vulnerabilidade psicológica.
