Bruselas quiere que los contenidos generados por inteligencia artificial lleven una advertencia específica | Tecnología

La rápida evolución de las nuevas tecnologías hace que, cada vez con más frecuencia, sea prácticamente imposible distinguir si un contenido ha sido generado por un ser humano o por una máquina. Italia acaba de prohibir el uso de ChatGPT alegando que no cumple la normativa europea de protección de datos, pero los riesgos de estas y otras nuevas tecnologías generativas pueden ser más sofisticados aún. Bruselas quiere asegurarse de que haya la confusión mínima posible y, para ello, recuerda que busca, entre otros, que todo contenido generado por inteligencia artificial (IA) esté, de manera obligatoria, debidamente advertido.

“En todo lo que sea generado por inteligencias artificiales, ya sean textos —todo el mundo conoce ahora ChatGPT— o imágenes, habrá una obligación de notificar que ha sido creado por una inteligencia artificial”, ha dicho este lunes el comisario de Mercado Interior, Thierry Breton, en la emisora gala Franceinfo. El alto responsable europeo ha recordado al respecto que el Ejecutivo europeo presentó, hace ahora casi exactamente dos años, una propuesta de reglamento sobre inteligencia artificial que busca “proporcionar a los desarrolladores, implementadores y usuarios de IA requisitos y obligaciones claros en relación con los usos específicos de la IA”, según resume la propia Comisión su propuesta.

Breton, que ha subrayado que, de aprobarse, los europeos serán “los primeros” en proponer una legislación de este tipo, ha manifestado su esperanza de que el texto sea votado y aprobado este mismo mes en el Parlamento Europeo, requisito indispensable para que avance la normativa y pueda ser adoptada por los Veintisiete lo antes posible. Según fuentes parlamentarias, la Eurocámara tiene en su agenda la presentación del plan y su votación en el pleno en la última semana de abril. Si se cumple este calendario, podría conseguirse el objetivo del comisario francés, responsable entre otros de aumentar la soberanía tecnológica europea y de la aplicación de las normas para regular este vasto campo, que quiere que el reglamento pueda entrar en vigor en 2025.

Los rápidos avances de la IA preocupan desde hace tiempo a Europa. De hecho, cuando Bruselas presentó la propuesta de reglamento, en abril de 2021, no se habían desarrollado todavía en todo su esplendor las herramientas basadas en IA generativa, capaz de crear textos, imágenes o música a partir de una serie de instrucciones que ha alcanzado su máxima expresión —por ahora— con ChatGPT.

La propuesta europea de reglamento —legislación que se aplica directamente en los Veintisiete, sin necesidad de trasponerlo a la normativa nacional— prevé cuatro tipos de “riesgos”: en lo más alto está el “inaceptable” y, por lo tanto, prohibido, categoría en la que entran las aplicaciones que permiten, como en China, el denominado social scoring, el sistema de puntuación social que determina la credibilidad o reputación de una persona de acuerdo con varios factores, incluidos datos o actividades por internet. Le sigue el “alto riesgo”, en donde entran tecnologías como la herramienta de escaneo de CV para evaluar y jerarquizar a solicitantes de empleo o algunas aplicaciones médicas, que deberán estar sujetas a determinados requisitos legales. Una tercera categoría sería la de “IA con obligaciones específicas de transparencia”, en la que se incluyen los bots de suplantación como sería ChatGPT (aunque sin mención específica a este, que todavía no existía) y, finalmente, aquellos de riesgo “mínimo o inexistente” que serán permitidos sin restricción alguna.

El recordatorio de Breton sobre la necesidad de advertir claramente de que un contenido ha sido generado por una IA se aplica tanto para la categoría de riesgo “alto” como la tercera, que reclama obligaciones específicas (ambas categorías no son mutuamente excluyentes, subraya la Comisión). En concreto, las tecnologías que entren en estas categorías deberán notificar a los usuarios que están interactuando con un sistema de IA, salvo que sea algo evidente, así como si se les aplican sistemas de reconocimiento emocional o categorización biométrica. Además, los denominados deep fakes (contenido que imita la voz o apariencia de una persona) deberán tener una etiqueta informando de ello.

El último ejemplo de lo fácil que es engañar a medio mundo (o más) con un contenido creado por IA se produjo este mismo fin de semana, cuando se hizo viral una foto del papa Francisco vestido con un abrigo blanco de plumas de Balenciaga, que resultó un deep fake realizado con la herramienta de inteligencia artificial generativa Midjourney. Su creador es un trabajador de la construcción de Chicago de 31 años que, según declaró a la publicación BuzzFeed, solo buscaba “divertirse haciendo arte psicodélico”.

Poco antes, la semana pasada, la alarma surgía de los propios generadores de este tipo de tecnologías y contenidos: más de un millar de empresarios, intelectuales e investigadores de primer nivel relacionados con la IA generativa firmaron una carta abierta en la que solicitan una moratoria de seis meses en el desarrollo de esta tecnología para recapacitar sobre sus consecuencias. Entre los signatarios figura Elon Musk, dueño de Twitter, pero también fundador de OpenAI, la empresa que ha desarrollado ChatGPT.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Enlace a la fuente