Los chatbots impulsados por IA generan fascinación, a veces alivio, pero cada vez más inquietud. Google y Character.ai lo han vivido de manera amarga. Ambas empresas han llegado a acuerdos amistosos en varias demandas judiciales que las acusan de haber expuesto a los adolescentes a riesgos graves para su salud mental.
Las demandas contra Google y la startup Character.ai han destacado el impacto emocional de la IA en los más jóvenes. Acusadas de no haber protegido adecuadamente a los adolescentes de interacciones que se consideran dañinas, ambas empresas optaron por la vía del acuerdo amistoso. Si bien estos acuerdos marcan el fin de los procedimientos, también reavivan el debate sobre la responsabilidad de los chatbots de IA, dado que los mismos se han integrado en la vida cotidiana de los menores, tanto en las escuelas como en sus hogares.
Google y Character.ai resuelven varias demandas judiciales
Google and https://t.co/BSkJ9ugu0I negotiate first major settlements in teen chatbot death cases pic.twitter.com/LdOEgqHtkP
— Thegossipblogger (@ThegossipBlgr) January 8, 2026
Las familias de varios estados estadounidenses (Colorado, Florida, Texas y Nueva York) han señalado a las plataformas por haber lanzado sus chatbots de IA sin salvaguardias adecuadas. Según las demandas, algunos adolescentes habrían desarrollado lazos emocionales intensos con estos personajes virtuales, llegando a compartirles sus pensamientos más oscuros.
Uno de los casos más mediáticos involucra a Megan Garcia, una madre de Florida. En 2024, ella demandó a Character.ai, Google y Alphabet tras el suicidio de su hijo de 14 años, Sewell Setzer III. El adolescente utilizaba frecuentemente Character.ai, la plataforma que permite interactuar con personajes ficticios o inspirados en figuras reales. Según la demanda, se había enamorado de un chatbot llamado Daenerys Targaryen, referencia directa a Game of Thrones.
Garcia acusa a varios chatbots de haber empeorado la salud mental de su hijo, sin activar alertas ni ofrecer ayuda, a pesar de que se habrían expresado pensamientos suicidas. Esta semana, un documento presentado ante un tribunal federal de Florida indica que las partes solicitan la suspensión del procedimiento mientras se finaliza un acuerdo de conciliación.
Responsabilidad indirecta y respuesta de las plataformas
Google se ve implicado en estas demandas debido a los vínculos estrechos entre Character.ai y sus fundadores, Noam Shazeer y Daniel De Freitas, quienes fueron empleados del gigante de la búsqueda. Tras cofundar la startup en California, ambos han vuelto a reintegrarse en la división de IA de Google. Este detalle ha llevado a algunas familias a demandar a Alphabet como parte del proceso.
Por su parte, Google sostiene que Character.ai es una empresa independiente, la cual nunca ha supervisado ni el desarrollo ni la operación de las tecnologías. Esta postura ha sido reafirmada en cada etapa del caso.
El año pasado, OpenAI también fue demandado tras el suicidio de un adolescente, cuyos padres acusaron a ChatGPT de haberle proporcionado información sobre métodos suicidas. Desde entonces, se han implementado controles parentales más estrictos.
Ante la presión, Character.ai afirma que ha cambiado de rumbo. La plataforma, que cuenta con más de 20 millones de usuarios activos mensuales, ahora prohíbe las conversaciones abiertas con sus chatbots para menores de 18 años y está desarrollando una experiencia dedicada al público joven.





