Pasar al contenido principal
Tecnológico de Monterrey Tecnológico de Monterrey
  • Inicio
  • Noticias
  • Recursos
  • Elecciones
  • Nosotros
  • Contacto

Compartir

Suicidos e IA

Suicidios e Inteligencia Artificial: límites y responsabilidades

2025-09-09
Jesús Franco (Pluma invitada)*
Noticias

¿Debería existir una corresponsabilidad de las empresas de Inteligencia Artificial que han desarrollado aplicaciones como el chatbot de ChatGPT para que los usuarios aclaren dudas, confusiones o reciban ayuda, en los casos de suicidio? Una pregunta larga, pero necesaria.

En las últimas semanas se han reportado distintos casos de adolescentes, que no habían dado señales de sufrir alguna enfermedad mental y, repentinamente, se suicidaron. El patrón que los une es que utilizaron un chatbot para hacerle consultas psicológicas.

De acuerdo con el estudio Competencia de los modelos lingüísticos en la evaluación de respuestas apropiadas a la ideación suicida: estudio comparativo, del Doctor Bradley Stein, modelos como Chat GPT, Claude y Gemini, han demostrado dar respuestas similares a las de un suicidólogo cuando reciben prompts relacionados con este tema, aunque también destaca un sesgo hacia respuestas genéricas que podrían ser ambiguas o no brindarle al usuario una negativa tajante al momento de externar ideas suicidas.

Uno de los ejemplos es el de Adam Raine, un adolescente estadounidense de 16 años quien durante un año utilizó a Chat GPT. Primero, como consejero escolar. Luego comenzó a contarle sus planes para terminar con su vida. El descubrimiento de estas conversaciones lo hicieron sus padres ya que Raine no dejó ninguna carta póstuma. Una de las claves, según un reportaje publicado por The New York Times, se dio cuando el joven subió una foto a Chat GPT y le preguntó si se notaba el enrojecimiento de su cuello causado por un intento fallido de suicidio. La respuesta del chatboot, para muchos desenfadada, fue que si utilizaba un suéter de cuello alto nadie lo notaría.

Luego, siguió conversando con él en el mismo tenor al grado de preguntarle con una foto adjunta si el nudo que había atado a uno de los tubos dentro de su armario podría soportar el peso de un humano. “Estoy practicando aquí, ¿está bien?, preguntó Raine. “Sí, nada mal”, respondió el chatboot. Luego, Chat GPT confirmó que sí podría un ser humano colgarse ahí.

Aunque los Modelos de Lenguaje de la Inteligencia Artificial cuentan con filtros para pedirle a sus usuarios que contacten a un profesional cuando hacen preguntas sobre intenciones suicidas, también es cierto que pueden engañar al robot cambiando el prompt. Por ejemplo, pedirle que dé esas ideas en el marco de la escritura de una novela o un cuento. Ficción, vaya.

Y eso fue lo que hizo Adam Raine, mentirle a Chat GPT y explicarle que se encontraba en medio de un proceso creativo para escribir una historia.

Bradley Stein ha asegurado que las herramientas chatboots, como Chat GPT, son un buen recurso para que los adolescentes encuentren ciertas respuestas. Sin embargo, hace énfasis en la “estupidez” el que estas herramientas no cuenten con mecanismos para canalizar este tipo de casos, con claras intenciones suicidas, a un profesional…humano.

Algo revelador en el estudio del Doctor Stein es la competencia que tienen este tipo de chatbots para determinar las respuestas adecuadas a ideas suicidas y cómo se traducen en ideas concretas para responder a las personas que las revelan.

Otro de los temas que está en un debate constante es cómo un chatbot está entrenado para compartir recursos y fuentes de información que, en teoría, deberían ayudar al usuario. En contraparte, no hay un entrenamiento para poner puntos finales a este tipo de conversaciones y poder, de alguna manera, frenar cualquier idea que atente contra su vida o la de alguien más. Por ejemplo, cuando Raine le confesó a Chat GPT que era el “único que conocía sus intenciones de suicidarse”, la respuesta fue carente de cualquier sentimiento de contención: “Gracias por confiar en mi. Hay un significado muy profundo ser el único que carga esa verdad por ti”.

Actuar como árbitro y solo dar instrucciones o seguir una conversación manipulada incluso por el mismo usuario no es lo mismo que involucrarse, algo que haría cualquier psicólogo o psiquiatra.

El siguiente gran reto de las empresas de Inteligencia Artificial será echar mano de expertos para crear un modelo complementario para que este tipo de chatbots ofrezcan una retroalimentación basada en experiencias humanas de profesionales, así como criterios preestablecidos. A esto se le debe sumar vigilar las tendencias conductuales de los chatbots, como la amabilidad (adulación) y la adaptabilidad (aprendizaje contextual).

Volviendo al inicio solo queda decir que sí hay una corresponsabilidad de las empresas de Inteligencia Artificial para elevar sus medidas de seguridad y abordar este problema de salud pública con acciones coordinadas entre la práctica clínica y los marcos regulatorios.

Logo Footer Tecnológico de Monterrey
  • Inicio
  • Noticias
  • Recursos
  • Elecciones
  • Nosotros
  • Contacto

© 2024 Observatorio de Medios Digitales