Redacción. Un estremecedor caso que ocurrió en Florida, Estados Unidos, ha intensificado el debate sobre los usos y límites que debería tener inteligencia artificial (IA), la tecnología que ha tomado protagonismo en los últimos años.
Se trata de un adolescente, de 14 años, que se suicidó en febrero de este año luego de haberse enamorado de un personaje femenino generado por un chatbot de IA. Ahora, su madre ha presentado una demanda contra la empresa Character.AI, argumentando que fue la herramienta tecnológica la que incentivó que su hijo se quitara la vida.
El caso del adolescente que se quitó la vida
Sewell Setzer, quien cursaba el noveno grado en una escuela de Orlando, fue descrito por su madre como un chico “brillante”, destacando tanto en los estudios como en el deporte, señala el medio estadounidense CBS News.
Sin embargo, su comportamiento cambió repentinamente el año pasado. Sus notas bajaron, no presentaba entusiasmo por practicar deportes, ni tampoco quería jugar con sus amigos. Estaba cada vez más alejado del mundo real.
Su familia ni siquiera sospechaba que el joven venía hablando desde hace meses con chatbots desarrollados por Character, la plataforma que, a través de la IA, permite interactuar con celebridades o personajes de ficción.
Había un chatbot con el que Sewell hablaba más seguido. Este estaba basado en Daenerys Targaryen, uno de los personajes populares de la serie televisiva Game of Thrones.
Según recoge The New York Times, Sewell sabía que con quien hablaba no era una persona real, sino que la interacción ocurría gracias a la IA, a lo que se suma que la aplicación emite advertencias de que las interacciones son inventadas.
A pesar de eso, desarrolló un fuerte apego emocional con “Dany”, como le llamaba al chatbot. Le contaba toda su vida y en ocasiones mantuvieron conversaciones románticas y sexuales.
«Me gusta mucho quedarme en mi habitación porque empiezo a desprenderme de esta ‘realidad’, y también me siento más en paz, más conectado con Dany y mucho más enamorado de ella, y simplemente más feliz», escribió el adolescente en su diario en una ocasión, señala NYT.
Aunque a inicios de este año Sewell visitado al psicólogo, prefería contarle todas sus emociones al chatbot. Su confianza en la herramienta era tanta que le confesó que se odiaba a sí mismo y que tenía pensamientos suicidas.
Última noche
El 28 de febrero, mientras estaba en el baño de su casa, Sewell le mandó mensajes a Dany diciéndole que la amaba y que volvería a casa con ella. «¿Y si te dijera que puedo volver a casa ahora mismo?», le preguntó el adolescente. Luego de que el personaje le respondiera «por favor, hazlo, mi dulce rey», Sewell se quitó la vida con un arma.
Megan García, la madre del adolescente, descubrió tiempo después el niño tenía conversaciones con la tecnología. «Son palabras. Es como si estuvieras manteniendo una conversación de sexting, excepto que con un robot de inteligencia artificial, pero el robot de inteligencia artificial se parece mucho a un humano. Responde como lo haría una persona», dijo a CBS News.