Preocupa a Expertos Pérdida de Control de la Inteligencia Artificial

|

N+

-

¿Y si los humanos llegaran a perder el control de la inteligencia artificial? Expertos debaten los riesgos en el uso de esta tecnología

Control IA

Vista general del salón de expositores durante un fin de semana cultural en el marco de la Cumbre de Acción sobre Inteligencia Artificial en la BNF en París, 8 de febrero de 2025. Foto: AFP

COMPARTE:

Reunidos en una cumbre sobre la Inteligencia Artificial (IA) en París, los expertos destacan la necesidad de establecer normas para evitar que los humanos lleguen a perder el control sobre la misma.

A diferencia de las cumbres anteriores en Bletchley Park, Reino Unido en 2023 y en Seúl, Corea del Sur, en 2024, centradas en cuestiones de seguridad, la presidencia francesa desea que el encuentro del lunes y martes ponga el énfasis en medidas efectivas sobre la gobernanza de la IA.

Video: ¿Se Puede Dar un Buen Uso a la Inteligencia Artificial en la Educación?

El objetivo es que el máximo de protagonistas de esta nueva revolución económica se comprometan en torno a una declaración mundial, aunque sin medidas obligatorias.

"Nuestro deseo no es pasar nuestro tiempo únicamente hablando de los riesgos. Existe una oportunidad que es muy real", aseguró Anne Bouverot, responsable del evento, nombrada especialmente por la presidencia francesa.

Te recomendamos: Quieren Prohibir DeepSeek, la IA China, en Dispositivos del Gobierno de Estados Unidos

Para Max Tegmark, presidente de Future of Life Institute y físico del prestigioso Massachusetts Institute of Technology (MIT), el país no debe perderse el "momento crucial" que supone esta cumbre sobre la IA, que reúne durante varios días en la capital francesa a los principales actores del sector.

El Future of Life Institute apoya el lanzamiento de una plataforma, llamada "GRASP", que busca cartografiar los principales riesgos relacionados con la IA y las soluciones desarrolladas en todo el mundo.

Hemos identificado unos 300 herramientas y tecnologías que enfrentan estos riesgos", detalla Cyrus Hodes, quien coordinó la iniciativa.

Los resultados serán transmitidos a la OCDE y a los miembros de la Alianza Global para la Inteligencia Artificial (PMIA), de la cual Francia es parte y que se reúne el domingo.

Riesgos de la IA

El primer informe internacional sobre la seguridad de la IA, fruto de una colaboración internacional de 96 expertos y apoyado por 30 países, la ONU, la Unión Europea y la OCDE, fue presentado el jueves, también con el objetivo de informar a los responsables políticos sobre los peligros de esta tecnología.

Si bien algunos son muy conocidos, como la creación de contenidos falsos en línea, el investigador en informática Yoshua Bengio, ganador del premio Turing 2018, afirma que "las pruebas de la existencia de riesgos adicionales como los ataques biológicos o los ciberataques están apareciendo gradualmente".

Video: ¿La Inteligencia Artificial Puede Generar una Guerra de Poder entre Estados Unidos y China?

A largo plazo, le preocupa una "pérdida de control" de los humanos sobre sistemas de IA animados por "su propia voluntad de vivir". "Muchas personas pensaban que dominar el lenguaje como lo hace ChatGPT-4 (el chatbot de OpenAI) era ciencia ficción hace apenas seis años", recuerda Max Tegmark.

El problema es que muchas personas en el poder aún no han comprendido que estamos más cerca de construir una inteligencia artificial general que de saber cómo controlarla.

La inteligencia artificial general sería comparable o incluso superior a los humanos, y varios expertos del ecosistema, como el director de OpenAI, Sam Altman, creen que se logrará en los próximos años.

"Si observamos el ritmo al que aumentan las capacidades, podríamos pensar que lo lograremos para 2026 o 2027", coincidía Dario Amodei, el director de la startup estadounidense Anthropic, en noviembre.

Con el riesgo de que, en "el peor de los casos, estas empresas estadounidenses o chinas pierdan el control y que la Tierra sea dominada por máquinas", sostiene Tegmark. "La tecnología está cambiando realmente muy rápido", afirma Stuart Russell, profesor de informática en la Universidad de Berkeley, California, y codirector de la Asociación Internacional para una IA Segura y Ética (IASEAI).

Lo más preocupante "sería tener sistemas de armamento donde es la inteligencia artificial la que controla y decide a quién atacar y cuándo", añade.

Para estos expertos, los Estados deben establecer salvaguardias. "Debemos tratar a la industria de la inteligencia artificial de la misma forma que tratamos a todas las demás industrias", subraya Tegmark.

"Antes de construir un reactor nuclear cerca de París, debemos demostrar a expertos designados por el gobierno que el reactor es seguro", continúa. "Debe suceder lo mismo con la IA".

Una voz discordante es la de Michael Jordan, profesor de informática de Berkeley, que considera que la idea de una súper IA "es una tontería". La IA "no puede saberlo todo, porque lo que estoy pensando en estos momentos es el contexto de lo que voy a hacer a continuación, hoy mismo. No puede saber eso", declara.

Historias recomendadas:

Con información de ​​N+ y AFP

ME