Podrá seguir respondiendo preguntas de carácter general o hipotético, pero no ofrecer recomendaciones aplicables a casos personales.

OpenAI anunció una actualización importante en las políticas de uso de ChatGPT, su sistema de inteligencia artificial conversacional, que prohíbe ofrecer asesoramiento médico, legal o financiero personalizado sin la intervención de un especialista titulado. La medida, efectiva desde el 29 de octubre, refuerza el compromiso de la compañía con la seguridad y la ética en el uso de la IA.

Según detalla la empresa, la decisión pretende impedir que sus modelos «interfieran con la capacidad de acceder a servicios críticos», entre ellos los de carácter gubernamental, legal, médico o esencial, cuando se trate de decisiones de alto riesgo que requieran revisión humana. En otras palabras, ChatGPT podrá seguir respondiendo preguntas de carácter general o hipotético, pero no ofrecer recomendaciones aplicables a casos personales.

«Nuestros servicios no están destinados al diagnóstico ni al tratamiento de ninguna afección médica. Usted es responsable de cumplir con las leyes aplicables para cualquier uso de nuestros servicios en un contexto médico o sanitario», aclaró.

ChatGPT remarcó que sus servicios no podrán ser utilizados para «prestación de asesoramiento personalizado que requiera habilitación profesional, como asesoramiento jurídico o médico, sin la intervención adecuada de un profesional acreditado».

«Las personas deben poder tomar decisiones sobre sus vidas y sus comunidades. Por tanto, no permitimos usar nuestros servicios para manipular o engañar a las personas, interferir en el ejercicio de sus derechos humanos, aprovecharse de sus vulnerabilidades o interferir en su capacidad para recibir educación o acceder a servicios esenciales», aclaró ChatGPT.