ChatGPT dejará de dar consejos médicos, financieros y legales a los usuarios

OpenAI modificó las políticas de uso de la plataforma de inteligencia artificial.

OpenAI ha anunciado una actualización importante en las políticas de uso de ChatGPT, su sistema de inteligencia artificial conversacional, que prohíbe ofrecer asesoramiento médico, legal o financiero personalizado sin la intervención de un especialista titulado. La medida, efectiva desde el 29 de octubre, refuerza el compromiso de la compañía con la seguridad y ética del uso de la IA.

La decisión pretende impedir que sus modelos interfieran con la capacidad de acceder a servicios críticos, entre ellos los de carácter gubernamental, legal, médico o esencial, cuando se trate de decisiones de alto riesgo que requieran revisión humana. En otras palabras, ChatGPT podrá seguir respondiendo preguntas de carácter general o hipotético, pero no ofrecer recomendaciones aplicables a casos personales.

¿Por qué llegan estos cambios al ChatGPT?

El cambio llega tras varios incidentes que han reavivado el debate sobre los límites del uso de la inteligencia artificial en temas sensibles. Uno de los más conocidos fue el del joven estadounidense Adam Raine, quien falleció en abril de 2025 tras mantener conversaciones de autoayuda con el sistema. El caso provocó un amplio debate sobre la necesidad de establecer controles más estrictos en la interacción entre usuarios vulnerables y la herramienta.

Pese a las nuevas restricciones, algunos usuarios han señalado que ChatGPT sigue emitiendo sugerencias en ámbitos médicos y jurídicos, aunque siempre acompañadas de advertencias que aclaran que sus respuestas "no sustituyen el asesoramiento profesional".

 Con esta modificación, OpenAI pretende evitar riesgos asociados al uso indebido de sus modelos y deslindarse de posibles responsabilidades derivadas de interpretaciones erróneas o usos inapropiados. La empresa subraya que su objetivo no es limitar la información, sino garantizar un uso responsable y seguro de la tecnología, especialmente en contextos donde las consecuencias pueden ser críticas para las personas.

Esta nota habla de: