¿Por Qué ChatGPT Dejó de Dar Asesoramiento Médico, Legal y Financiero? OpenAI Responde

|

N+

-

Preguntar a ChatGPT sobre cuestiones médicas, legales o financieras, ya no es la opción para los usuarios de OpenAI, y estos son los motivos.

ChatGPT Deja de Dar Asesoramientos Médicos, Legales y Financieros. OpenAI Dice los Motivos

ChatGPT. Foto: Reuters

COMPARTE:

OpenAI, la empresa que desarrolló el sistema de inteligencia artificial ChatGPT, implementó una actualización en sus políticas de uso.

La medida implementada por la empresa que se ha popularizado en los últimos meses restringe la capacidad del chatbot para ofrecer asesoramiento personalizado en áreas que requieren habilitación profesional como médicos, legales y financieros.

Para entender la razón del por qué se realizaron estas actualizaciones de uso que prohíben al chatbot de ChatGPT dar asesoramientos médicos, legales y financieros en N+ te explicamos el por qué de la decisión.

Video: Privacidad en Riesgo: 95 Países se Reúnen en Seúl para Debatir el Futuro de los Datos ante la Inteligencia Artificial

Historia relacionada: ¿Cuándo es el Próximo Pago de Pensiones para Bienestar Adultos Mayores 2025?

¿Por qué ChatGPT deja de dar asesoramientos médicos, legales y financieros?

Este cambio en ChatGPT es para garantizar el uso responsable y seguro de la tecnología. El objetivo principal de esta modificación de política es evitar que los usuarios confundan la asistencia de la inteligencia artificial con la opinión de un especialista acreditado. La empresa busca asegurar la protección de los usuarios ante decisiones de "alto riesgo" que carecen de revisión humana.

La razón más fuerte para prohibir los consejos de salud y legales tiene que ver con la necesidad de una licencia profesional. Las reglas prohíben usar los servicios para dar asesorías personalizadas que piden tener un título o licencia, como el asesoramiento legal o el médico.

Si la herramienta se usa en estos campos, debe haber una participación adecuada de un profesional que sí tenga licencia. Esto significa que ChatGPT no sustituye a un doctor o a un abogado, pues la empresa dice que desarrolla sus productos pensando en la seguridad.

Video; Simposio Vinculación Inteligencia Artificial Unison 2025

OpenAI aclara que sus reglas no quitan de encima los deberes profesionales, las obligaciones éticas o los requisitos legales que ya aplican a la gente a la hora de usar inteligencia artificial. Además, entre sus actualizaciones de uso, reiteró que responsabiliza a las personas por usar sus servicios de manera adecuada y si alguien intenta romper estas reglas y protecciones, puede perder el acceso al sistema o recibir multas.

Sobre la limitación para dar consejos financieros cae dentro de otra punto: "la automatización de decisiones de alto riesgo".

El sistema no debe utilizarse para tomar decisiones que tienen mucho riesgo en áreas sensibles sin que una persona las revise. Las áreas que la empresa considera delicadas o sensibles:

  • Infraestructura clínica
  • Educación
  • Vivienda
  • Empleo
  • Actividades financieras y créditos
  • Seguros
  • Legal
  • Médica
  • Servicios gubernamentales esenciales
  • Componentes de seguridad del producto
  • Seguridad nacional
  • Migración
  • Aplicación de la ley

Entonces, la idea detrás de esta prohibición es proteger a las personas. Y en ese sentido la empresa reiteró que no permite que se usen sus servicios para explotar las vulnerabilidades personales o para interferir con los derechos humanos de la gente.

Video: Derechos Humanos: Inteligencia Artificial Reduce Trabajos

Las reglas de uso se ajustan para proteger a los usuarios

La compañía detalló que aplica y controla sus políticas con la ayuda de protecciones de seguridad y procesos de revisión.

Además, que OpenAI realiza actualizaciones a medida que aprende y observa nuevas formas en que la gente usa sus sistemas. La compañía busca que sus políticas establezcan un estándar razonable para el uso aceptable de sus servicios.

En resumen, ChatGPT deja de dar consejos médicos, legales y financieros directos para garantizar la seguridad de la gente, evitar la automatización de decisiones de alto riesgo en temas delicados, y asegurar que un profesional con licencia supervise los asuntos importantes.

Historias relacionadas:

CH