La madre de un adolescente de Florida ha presentado una demanda por muerte injusta, alegando que un chatbot incitó a su hijo a quitarse la vida.
Megan Garcia, la demandante, sostiene que su hijo, Sewell Setzer III, de 14 años, se disparó después de desarrollar una obsesión por un personaje creado en línea.
Metali Jain, directora del Tech Justice Project, forma parte del equipo legal que representa a García.
“Es evidente que este será un caso crucial,” afirmó Jain.
Jain señaló que, a diferencia de las redes sociales, es más difícil para las empresas de inteligencia artificial evitar asumir la responsabilidad.
“El debate ahora se traslada de los daños provocados por las redes sociales a los riesgos asociados con la IA generativa,” explicó Jain.
La demanda alega que la empresa fue negligente al permitir que menores accedieran a compañeros virtuales realistas sin las protecciones adecuadas.
Character A.I. emitió un comunicado en línea sobre la situación:
“Estamos devastados por la trágica pérdida de uno de nuestros usuarios y queremos expresar nuestras más profundas condolencias a la familia. Como empresa, tomamos muy en serio la seguridad de nuestros usuarios y seguimos implementando nuevas medidas de seguridad.”
García dijo que su hijo había estado conversando con el chatbot durante meses y que, aunque sabía que no estaba hablando con una persona real, desarrolló un apego emocional hacia el bot.
Según ella, mientras su hijo se hundía en el aislamiento y la depresión, compartió esos sentimientos con el bot antes de quitarse la vida.
La Dra. Shannon Wiltsey Stirman, profesora de Psiquiatría en la Universidad de Stanford, señaló que, si bien la IA tiene el potencial de brindar apoyo, aún queda mucho por mejorar.
“El riesgo de suicidio es multifacético. Hay muchos factores diferentes que influyen. Algunos chatbots intentan cerrar la conversación diciendo que no son bots de salud mental y sugieren llamar a una línea de ayuda para suicidios. Pero creo que cuando vemos a personas en verdadero sufrimiento, que expresan una intención o un deseo de hacerse daño, tal vez necesitemos encontrar una manera de ir un paso más allá,” dijo Stirman.
Un portavoz de Character A.I. indicó que no pueden comentar sobre litigios en curso, pero mencionó que la empresa está implementando cambios centrados en la seguridad para usuarios adolescentes.