Intoxicación grave por seguir consejos de ChatGPT: el peligro de la IA en salud
Un hombre de 60 años terminó internado tras reemplazar sal por bromuro siguiendo indicaciones erróneas de ChatGPT.
Un hombre sin antecedentes médicos ni psiquiátricos fue internado de urgencia tras una intoxicación grave por bromuro de sodio, luego de seguir recomendaciones de ChatGPT para cambiar su dieta. Preocupado por los supuestos efectos negativos de la sal común, decidió eliminarla y reemplazarla por bromuro, una sustancia que compró por internet.
Bromuro de sodio: un peligro oculto
Aunque ChatGPT mencionó el bromuro como posible sustituto, la información no estaba contextualizada ni advertía sobre los riesgos para la salud. La ingestión prolongada de bromuro puede causar bromismo, un síndrome que provoca síntomas como paranoia, alucinaciones, acné, fatiga e insomnio. El paciente presentó estos cuadros y tuvo que ser internado, incluyendo atención psiquiátrica.
La importancia de la supervisión profesional
Los expertos advierten que la inteligencia artificial puede ofrecer datos imprecisos y carece del juicio crítico que tiene un profesional de la salud. Este caso destaca la necesidad de no reemplazar nunca una consulta médica por el consejo de una IA y de ser cautelosos al usar estas herramientas para temas sensibles como la salud.