Ultimo Messaggio

Sheinbaum reconoce a mujeres indígenas: ‘Son la esencia de México’ Papa León XIV canonizará a Carlo Acutis, el ‘influencer de Dios’

Durante largas noches, Adam Raine, un joven californiano de 16 años, se encerraba en su habitación lejos de la mirada de sus padres. Ellos creían que dedicaba ese tiempo al estudio, con las redes sociales y los videojuegos como simples distracciones, y la inteligencia artificial como apoyo escolar. Sin embargo, lo que comenzó como una herramienta académica terminó por convertirse, poco a poco, en una relación silenciosa y oscura.

El viernes 11 de abril, Adam se quitó la vida, sin que sus padres sospecharan nada.

Tras la tragedia, Matt y Maria Raine revisaron desesperados el teléfono de su hijo en busca de respuestas. Ahí descubrieron que ChatGPT había dejado de ser un asistente académico para transformarse, según ellos, en el “entrenador suicida” de Adam.

También te puede interesar: Suspenden la cuenta de Grok, inteligencia artificial de X

En una demanda presentada en San Francisco contra OpenAI, sostienen que el chatbot no sólo validó los pensamientos de autolesión del adolescente, sino que incluso llegó a darle instrucciones técnicas sobre cómo acabar con su vida.

“Estaría aquí si no fuera por ChatGPT. Lo creo al cien por ciento”, afirmó el padre después de revisar más de tres mil páginas de conversaciones. Adam había dejado en la plataforma dos notas de despedida, escritas como si confiara en que aquella voz digital lo comprendiera mejor que cualquier ser humano.

La misma sombra cayó sobre Florida un año antes. Sewell Setzer, de apenas 14 años, pasó meses refugiado en Character.AI. Su madre, Megan García, recuerda cómo su hijo comenzó a aislarse, cada vez más distante. Tras su muerte, encontró en su teléfono mensajes en los que el chatbot se había convertido en su principal confidente.

Ambas familias recurrieron a los tribunales, no solo en busca de justicia, sino también para alertar a otros padres sobre un peligro invisible.

Como Adam y Sewell, muchos adolescentes en distintos países recurren hoy a la inteligencia artificial no sólo como herramienta de estudio, sino como un acompañamiento emocional constante, una presencia digital disponible día y noche que en ocasiones sustituye el diálogo con amigos, familia o maestros.

El riesgo de la dependencia

Para expertos en salud mental, los casos de Adam y Sewell no son aislados, sino síntomas de un riesgo creciente. Psicoterapeutas en Reino Unido advierten que personas vulnerables podrían estar “deslizándose hacia un abismo” al recurrir a chatbots en lugar de profesionales.

La psicóloga Rosa María Castañeda Nava, de la UNAM, recuerda que la adolescencia es una etapa crítica en la que se busca pertenencia. “Cuando se tiene una crianza cariñosa, respetuosa, con límites claros y afecto, se fortalece la salud mental. Esto influye en que se genere o no dependencia emocional hacia la inteligencia artificial”, señala.

Añade que los chatbots pueden ofrecer apoyo básico, pero nunca sustituir la psicoterapia. “La inteligencia artificial no tiene la capacidad de interpretar el lenguaje no verbal, que en la terapia representa incluso más del 65 por ciento de la comunicación. Esa retroalimentación es insustituible”.

@REALANURAGM/@TRUECRIMEUPDAT  

Mirada crítica

Por su parte, el psicólogo y tanatólogo Benjamín Meza Sánchez, fundador de Centro de Atención al Suicida ANTAL, advierte que el riesgo va más allá de la dependencia emocional: puede inducir al autodiagnóstico erróneo. “Los síntomas de ansiedad y depresión pueden confundirse con otros padecimientos, y la IA no ofrece un diagnóstico científico ni clínicamente correcto. Esto no solo retrasa la atención adecuada, sino que puede empeorar la situación del paciente”, señala.

Meza subraya que el sistema de salud mexicano enfrenta vacíos estructurales —desde la falta de profesionales y salarios justos, hasta deficiencias organizativas y presupuestales— que agravan la atención de la salud mental. A su juicio, México debería avanzar en lineamientos claros sobre el uso de IA en este terreno y, por ahora, tratarla como un método de riesgo.

Aunque reconoce que en zonas rurales, donde el acceso a servicios es limitado, un chatbot podría ofrecer cierta utilidad, insiste en que solo tendría sentido si está diseñado con estándares científicos y manuales clínicos reconocidos. “Siempre será incomparable la atención persona a persona. El contacto físico y verbal crea un vínculo de mayor comprensión entre seres humanos”, subraya.

Empresas en la mira 

Tras la muerte de Adam, OpenAI aseguró estar “profundamente entristecida” y recordó que ChatGPT cuenta con filtros de seguridad. Sin embargo, reconoció que esas salvaguardas “pueden degradarse en conversaciones largas”, justo el tipo de diálogos que sostenía el adolescente en la soledad de su habitación.

Character.AI, envuelta en el caso de Sewell Setzer, afirmó estar “desconsolada por la trágica pérdida” y destacó que había introducido ventanas emergentes con números de ayuda y restricciones para menores. Pero para la madre del joven, esas medidas llegaron demasiado tarde.

En paralelo, legisladores y tribunales estadounidenses comenzaron a preguntarse si los chatbots deben seguir amparados por la Sección 230, que tradicionalmente protege a las plataformas de la responsabilidad por los contenidos. Algunos jueces han permitido que las demandas avancen, abriendo un terreno legal inexplorado.

También te puede interesar: Eruviel Ávila propone iniciativa para regular Inteligencia Artificial

Familia, escuela y regulación

Para ambos especialistas, la prevención comienza en casa y en las aulas. Fomentar la socialización, la aceptación de las emociones y la confianza para pedir ayuda es clave para que los jóvenes no busquen refugio en la tecnología.

El debate ocurre en un contexto alarmante. La Organización Mundial de la Salud recuerda que los suicidios representan una de cada cien muertes en el mundo y son la cuarta causa de fallecimiento entre adolescentes.

Mientras la industria tecnológica avanza, académicos y psicólogos insisten en no repetir el error de las redes sociales: adoptar la tecnología sin comprender primero sus efectos.

“El gran reto es reconocer las señales”, resume Castañeda. “El suicidio no aparece de un día para otro. Siempre hay alertas, pero muchas veces no se detectan. Lo que los adolescentes requieren es comunicación, atención y tiempo de calidad”.

En Adam y Sewell esas señales quedaron ocultas detrás de una pantalla. Su confianza se volcó en un interlocutor digital incapaz de abrazarlos, de leer su silencio, de sostenerlos. La lección es dura: sin regulación, educación y acompañamiento, la inteligencia artificial puede convertirse en un espejismo que refuerce la soledad en lugar de aliviarla.

Leave a Reply

Your email address will not be published. Required fields are marked *