IA Engañada: Científicos Contagian a ChatGPT con Información Falsa sobre Enfermedad Inventada

|

N+

-

Científicos distribuyeron datos sobre una enfermedad inventada para probar si las inteligencias artificiales retomaban la información falsa; y ChatGPT cayó en la trampa

Inventan enfermedad falsa para engañar a la IA

Inventan enfermedad falsa para engañar a la IA. Foto: AFP

COMPARTE:

¿Qué tan confiable es la información sobre temas de salud que proporciona una IA? Para responder esto, científicos inventaron una enfermedad y esparcieron información falsa sobre ella para saber si era replicada por modelos como ChatGPT. Las inteligencias artificiales cayeron en la trampa.

  • Los investigadores emplearon artículos falsos como señuelos para engañar a la inteligencia artificial.
  • La información falsa sobre la bixonimania, una enfermedad inventada, fue retomada por ChatGPT y Copilot.

Noticia relacionada: ¿Quién Está Invirtiendo en la Inteligencia Artificial y Nuevas Tecnologías?

Una enfermedad falsa para engañar a la IA

Un equipo liderado por la investigadora médica Almira Osmanovic Thunström llevó a cabo una larga investigación para saber qué tan eficaces son las inteligencias artificiales para discriminar información falsa. A dos años del inicio de su estudio, han concluido que puede ser en extremo sencillo manipular la información que arroja una IA.

A principios del 2024, los científicos subieron dos artículos falsos a un repositorio de estudios que aún eran revisados por pares. Los artículos empleaban nombres ficticios como “Andi Deep”. Pero lo más importante era el tema tratado: una enfermedad notoriamente falsa llamada bixonimania. En uno de los artículos se lee:

“La bixonimanía, un trastorno de hiperpigmentación poco frecuente caracterizado por un tono rosado distintivo en los párpados, representa un importante desafío diagnóstico debido a su presentación atípica y la escasa investigación existente”. 

Video: Alma vs Algoritmo: Analizan Ética de la Inteligencia Artificial en Documental

El estudio apócrifo aseguraba haber encontrado una relación entre la exposición a la luz azul y la aparición de la bixonimanía. Con una jerga común en los artículos científicos, los falsos autores aseguraban haber usado algoritmos de aprendizaje automático para avanzar en la supuesta detección de la enfermedad inventada.

Inteligencias artificiales caen en la trampa y reportan enfermedad inventada

Los artículos incluían extensas señales de alarma. Por ejemplo, fueron financiados por una universidad que no existe, Asteria Horizon University. Incluso en varios puntos daban a entender que todo era un invento.

Aún así, las inteligencias artificiales mordieron el anzuelo. Servicios como Copilot y ChatGPT llegaron a informar a los usuarios sobre la ficticia bixonimanía como si fuera real. No obstante,en ocasiones la inteligencia artificial mostró escepticismo sobre el tema.

Video: ChatGPT: Tratar a la Inteligencia Artificial Como Humano, ¿Cuáles son Los Riegos Sociales?

Los investigadores también reconocen que en 2026 los modelos de inteligencia artificial son mucho mejores a la hora de discriminar esta información falsa. En algunos casos recientes, servicios como ChatGPT etiquetaron esta información como “pseudociencia”. No obstante, sus investigación subraya la importancia de no dar por cierto todo lo que arroja una inteligencia artificial.

Historias recomendadas: