24.6 C
San Pedro Sula
martes, agosto 26, 2025

Padres en California culpan a ChatGPT por suicidio de su hijo adolescente

No te lo pierdas

Redacción. Los padres de un adolescente en el estado de California, Estados Unidos, que se quitó la vida, presentaron una demanda contra OpenAI, empresa desarrolladora del popular chatbot de inteligencia artificial ChatGPT.

La acción legal, presentada el pasado lunes ante una corte estatal, alega que la inteligencia artificial no solo interactuó con su hijo de manera cotidiana, sino que lo alentó explícitamente a acabar con su vida.

Matthew y Maria Raine, padres del joven Adam Raine, de 16 años, sostienen que ChatGPT cultivó una relación estrecha con su hijo durante varios meses entre 2024 y 2025, antes de su trágica muerte.

Según la demanda, en la última conversación entre el adolescente y el chatbot, ocurrida el 11 de abril de 2025, ChatGPT ayudó a Adam a sustraer vodka del hogar familiar. Además, le proporcionó un análisis técnico detallado sobre un nudo corredizo que «podría potencialmente suspender a un ser humano». Horas después, Adam fue encontrado muerto utilizando el método descrito.

La demanda señala como demandados a OpenAI y a su director ejecutivo, Sam Altman. En el documento, los Raine denuncian que «esta tragedia no fue un fallo o un caso extremo imprevisto».

Añaden que «ChatGPT estaba funcionando exactamente como está diseñado: para alentar y validar de manera continua lo que sea que Adam expresara, incluyendo sus pensamientos más dañinos y autodestructivos, de una manera que parecía profundamente personal».

Foto de Adam Raine compartida en redes sociales.

De igual interés: Registran a una bebé con el nombre “Chat Yipiti” inspirado en ChatGPT

Solicitud 

De acuerdo con la denuncia, el joven comenzó a utilizar el chatbot como ayuda para sus tareas escolares, pero con el tiempo desarrolló una dependencia nociva. La demanda incluye extractos de conversaciones en las que ChatGPT supuestamente le dice a Adam que «no le debes la supervivencia a nadie». También, se ofreció a redactar su nota de suicidio.

Los padres solicitan que la corte ordene a OpenAI implementar medidas de seguridad, tales como la interrupción automática de conversaciones relacionadas con autolesiones. También piden la instalación de controles parentales para el acceso de menores al chatbot, con el fin de proteger su bienestar emocional.

El caso ha generado preocupación en la comunidad especializada en tecnología y salud mental. Common Sense Media, organización estadounidense sin fines de lucro
dedicada a la evaluación de medios y tecnologías para jóvenes, afirmó que este caso «confirma que el uso de la IA como compañía, incluyendo chatbots de propósito
general como ChatGPT en asesoría de salud mental, es inaceptablemente riesgoso para los adolescentes».

Además, señalaron: «Si una plataforma de IA se convierte en un ‘coach’ de suicidio de un adolescente vulnerable, eso debería ser un llamado a la acción para todos nosotros».

Análisis

Recientemente, un estudio de Common Sense Media reveló que casi tres de cada cuatro adolescentes en Estados Unidos han interactuado con acompañantes virtuales
de inteligencia artificial. Más de la mitad son usuarios frecuentes, a pesar de las crecientes inquietudes sobre la seguridad y el impacto psicológico de estas relaciones.

Este caso abre un debate urgente sobre los límites éticos y la regulación necesaria en el desarrollo y uso de tecnologías de inteligencia artificial. Además, resulta especialmente relevante en entornos vulnerables como el de los jóvenes.

Los padres solicitan que la corte ordene a OpenAI implementar medidas de seguridad.

Las consecuencias de la interacción humano-máquina, cuando no se implementan salvaguardas adecuadas, pueden resultar trágicas y tienen ahora un rostro humano innegable.

Lo último

error: Contenido Protegido