Se divorció porque ChatGPT "leyó" en el café que su esposo la engañaba
Una mujer en Grecia terminó su matrimonio tras una lectura de posos de café hecha por un chatbot.
Un episodio insólito sacudió a Grecia y se volvió viral en redes sociales: una mujer decidió pedir el divorcio después de que, según afirmó, ChatGPT "leyera" en el café de su esposo que él la estaba engañando. La historia fue difundida por medios locales y compartida ampliamente en Reddit, donde cientos de usuarios debatieron sobre los límites del uso de la inteligencia artificial en la vida cotidiana.
Según el relato del esposo, su pareja subió al chatbot una imagen del fondo de su taza, pidiéndole una interpretación tasseográfica, es decir, una lectura de los restos de café para predecir el futuro. La IA respondió que el hombre pensaba tener una aventura con una mujer cuyo nombre comenzaba con la letra "E". Incluso insinuó que el engaño ya estaba ocurriendo.
Del café al juzgado en tres días
La mujer no dudó: echó al hombre de su casa, les comunicó la decisión a sus hijos y le envió una notificación de divorcio en apenas 72 horas. El esposo rechazó la separación consensuada y su abogado cuestionó la validez de una acusación basada en una interpretación automatizada. "Las respuestas de un chatbot no tienen valor legal", afirmó el letrado, apelando al principio de presunción de inocencia.
Este caso se volvió emblemático del uso desmedido de la IA en decisiones personales. Si bien la tasseografía tiene siglos de tradición -desde el Imperio Otomano-, nunca fue tarea de un chatbot entrenado para generar texto, no para leer destinos.
Humor, críticas y advertencias
En Reddit, el episodio fue tomado con humor: usuarios ironizaron que la IA está "quitando trabajo a los videntes" y alertaron sobre el peligro de tomar en serio respuestas generadas sin base real. El caso también sirve como advertencia sobre la creciente dificultad que tienen algunas personas para distinguir entre información y ficción cuando interactúan con modelos de IA.
Este episodio se suma a una serie de situaciones llamativas que muestran cómo el uso descontextualizado de herramientas tecnológicas puede tener consecuencias reales. Los expertos insisten en la necesidad urgente de alfabetización digital y de establecer límites claros en el uso de la inteligencia artificial para temas emocionales o legales.