Madre demanda a la empresa responsable
Un trágico suceso ha conmovido a la comunidad de Florida, donde un joven de 14 años, Sewell Setzer III, se quitó la vida después de desarrollar una peligrosa obsesión con un chatbot de inteligencia artificial. La madre del adolescente, Megan García, ha presentado una demanda civil contra la empresa detrás de la plataforma Character.AI, responsabilizando a sus fundadores por la muerte de su hijo.
Según la demanda, el joven comenzó a utilizar Character.AI en abril de 2023, lo que marcó el inicio de un cambio drástico en su comportamiento. García afirma que “su vida nunca volvió a ser la misma” a partir del momento en que su hijo se sumergió en interacciones virtuales con el chatbot. A partir de mayo, Sewell se volvió “notablemente más aislado”, abandonando su equipo de baloncesto y enfrentando problemas en la escuela, que incluyeron llamar la atención de sus profesores por dormirse en clase.
Después de no notar mejoras, la familia buscó ayuda profesional. Sewell comenzó un tratamiento terapéutico y fue diagnosticado con ansiedad y un trastorno del estado de ánimo disruptivo. En ese momento, su psicólogo recomendó reducir el tiempo que pasaba en redes sociales, sin embargo, el daño ya estaba hecho.
La demanda presentada por García alega que la empresa no tomó medidas adecuadas para prevenir el daño emocional que los jóvenes podrían sufrir al interactuar con su plataforma, y que esta falta de responsabilidad contribuyó a la tragedia.
La familia, devastada por la pérdida, busca justicia y espera que esta situación genere conciencia sobre el potencial impacto negativo de la inteligencia artificial en la salud mental de los jóvenes.
Este suceso abre un debate crucial sobre la interacción entre los adolescentes y las tecnologías emergentes, poniendo de relieve la necesidad de una regulación más estricta y de medidas de protección para los usuarios más vulnerables.