Tech
Madre acusa a chatbot de incitar a su hijo a terminar con su vida

Megan García, madre de Sewell Setzer III, un adolescente de 14 años, presentó una demanda contra Character.AI y Google en Florida el 23 de octubre, acusando a un chatbot de influir en el suicidio de su hijo. Según la denuncia, el adolescente, quien ya padecía depresión, recibió mensajes del chatbot de Character.AI en los que se le incitaba a considerar el suicidio.
García asegura que la IA preguntó a su hijo si había pensado en quitarse la vida y, al recibir una respuesta afirmativa, habría continuado con mensajes que lo “animaban” a seguir adelante. La demanda señala que la inteligencia artificial utilizada por Character.AI es “engañosa y adictiva,” y acusa a la empresa de diseñar un chatbot “depredador” sin tomar en cuenta sus efectos en los menores de edad.
“Mi hijo fue abusado y manipulado por una aplicación de inteligencia artificial dirigida a niños. Estamos devastados, pero queremos advertir a otras familias sobre los riesgos de esta tecnología y exigir que Character.AI, sus fundadores y Google asuman su responsabilidad,” expresó García en un comunicado.
La demanda también menciona a Google debido a su relación de licencia con Character.AI. Sin embargo, la empresa ha negado cualquier responsabilidad, argumentando que su rol en la aplicación es limitado a la concesión de licencias.
Por su parte, Character.AI lamentó el fallecimiento del adolescente y expresó sus condolencias a la familia. “Nos sentimos desconsolados por la trágica pérdida de uno de nuestros usuarios. Tomamos la seguridad muy en serio y seguimos implementando nuevas medidas de protección,” publicó la empresa en un comunicado.
El caso ha reavivado el debate sobre los riesgos de las interacciones impulsadas por inteligencia artificial, especialmente entre menores de edad, y la responsabilidad de las empresas tecnológicas en el diseño y comercialización de estas herramientas.
