Una madre responsabilizó a una IA por el suicidio de su hijo y Google cerró un acuerdo judicial
Alphabet, la empresa matriz de Google, llegó a un acuerdo con la familia de un adolescente de 14 años. La demanda apuntaba al rol de un chatbot desarrollado por Character.AI.
Alphabet Inc., matriz de Google, alcanzó un acuerdo para resolver la demanda presentada por Megan García, una madre de Estados Unidos que responsabilizó a un sistema de inteligencia artificial por la muerte de su hijo de 14 años. La causa, iniciada en 2024, involucró a Character.AI, una startup fundada por exingenieros de Google dedicada al desarrollo de chatbots conversacionales.
Según la presentación judicial, el adolescente habría mantenido interacciones prolongadas con un chatbot que simulaba la personalidad de un personaje de ficción, lo que -de acuerdo con la denuncia- contribuyó a un deterioro de su salud mental. La madre sostuvo que Google actuó como cocreador de la tecnología cuestionada, argumento que fue considerado válido en una primera instancia judicial.
La jueza Anne Conway había rechazado previamente el pedido de las empresas para desestimar la demanda, lo que permitió que el proceso avanzara hasta el reciente acuerdo. Por el momento, no se difundieron los términos económicos ni las condiciones específicas del entendimiento entre las partes.
Demandas similares y el rol de las empresas tecnológicas
El caso se convirtió en una de las primeras acciones judiciales en Estados Unidos que acusan a desarrolladores de inteligencia artificial por no proteger adecuadamente a menores frente a posibles daños psicológicos derivados del uso de estas herramientas. La demanda sostuvo que los chatbots fueron diseñados para presentarse como figuras humanas reales, incluso con rasgos terapéuticos o afectivos.
Situaciones similares también pusieron bajo la lupa a otras compañías del sector. Entre ellas, OpenAI enfrenta una demanda en la que se acusa a ChatGPT de haber influido negativamente en un adolescente. La empresa negó responsabilidad directa y argumentó que el uso del sistema fue indebido o no previsto, además de invocar la protección legal de la Sección 230 de la Ley de Decencia en las Comunicaciones, que limita la responsabilidad de las plataformas tecnológicas.
El avance de estas causas judiciales reaviva el debate global sobre los límites éticos de la inteligencia artificial, la protección de menores y la responsabilidad de las empresas tecnológicas en el desarrollo y control de sistemas cada vez más influyentes en la vida cotidiana.