Europa inaugura su herramienta para abrir las cajas negras de los algoritmos en Internet | Tecnología

María y Alejandra utilizan la misma red social, sin embargo, el contenido al que acceden es muy diferente. Todo depende de la información que introducen en sus búsquedas, con esos datos los motores de búsqueda pueden llegar a ofrecer un contenido tan hiperpersonalizado que pueda llegar a fabricar realidades tan diferentes para cada una de ellas, con los riesgos añadidos tanto para ellas como para el resto de la sociedad. Este es un caso práctico con los que ya está trabajando el equipo multidisciplinar de trabajadores del Centro Europeo para la Transparencia Algorítmica (ECAT por sus siglas en inglés) que este martes se inaugura de manera oficial en Sevilla y que está llamado a convertirse en la principal herramienta de la Comisión Europea para garantizar que las grandes plataformas digitales cumplen con los principios para garantizar el buen funcionamiento y el control de contenidos ilícitos y perjudiciales en Internet que recoge la Directiva de Servicios Digitales, que entró en vigor el pasado mes de noviembre.

Los mecanismos de transparencia establecidos en la DSA y que las grandes plataformas digitales (las que tienen más de 45 millones de usuarios y suponen el 10% del mercado potencial europeo), que obligan a sus propietarias a identificar y controlar los riesgos de sus sistemas algorítmicos hubieran podido alertar a María y Alejandra. Controlar que los gigantes de Internet realizan correctamente esa autoevaluación y anticiparse ante cualquier posibilidad de evadirlos será una de las principales funciones del ECAT. El centro tiene la enorme responsabilidad de abrir las cajas negras de los sistemas algorítmicos, descifrarlos y asegurar que cumplen con los criterios de la normativa europea.

“Este es un gran paso porque hay una enorme expectación, ya que estamos mostrando al mundo que aplicar normas acaba marcando la diferencia sobre el terreno y que eso puede cambiar la actitud de las grandes plataformas, que deben asumir su responsabilidad social y no solo mirar por el crecimiento de su negocio”, señala un alto funcionario de la Comisión involucrado en la implementación de la DSA. Los algoritmos y su uso son objeto de debate en muchos ámbitos, la diferencia que marca el ECAT es que su investigación se realiza con el propósito de apoyar a los servicios legales de la Comisión para asegurar que la normativa se cumple.

El ECAT tiene su base en la sede en el Centro Común de Investigación (JRC) que la Comisión tiene en Sevilla. De momento cuenta con 10 expertos en distintas materias no solo relacionadas con la informática, la inteligencia artificial o el Big Data, pero también con disciplinas de carácter social, porque uno de los objetivos es detectar que las grandes compañías y buscadores cumplen con las obligaciones relacionadas con la protección de la infancia, que no se incita a la violencia de género o que los contenidos no son un riesgo para la salud mental. El objetivo es que en los próximos meses el equipo se amplíe hasta los 30 especialistas y que en una segunda fase crezca hasta los 40.

Además de la tarea de supervisión de la documentación que los gigantes de Internet les brinden sobre su autoevaluación, que es previamente auditada por una tercera empresa, el ECAT puede también iniciar investigaciones a través de denuncias de terceros o cuando detecte que no se está cumpliendo con la DSA. Toda esa información servirá para poder armas causas legales contra estas empresas en el caso de que haya evidencias de malas prácticas. Con todo, desde la Comisión se quiere dejar claro que el ECAT no pretende ser un “Ministerio de la Verdad”. “Si detectamos que se está alojando o se está derivando a contenido ilegal o se está distribuyendo información falsa y no se elimina y se corrige, podemos actuar. La carga de probar que no están actuando correctamente recae en las empresas”, señala el funcionario. En este sentido, Bruselas está trabajando en establecer los parámetros para que las grandes compañías puedan realizar sus autoevaluaciones de riesgo en materias como la privacidad, la protección de la salud mental…

En esa tarea de abrir las cajas negras hay tres pasos de transparencia que las grandes plataformas y los buscadores deben alcanzar. El primero llega al usuario medio. “Las compañías deben advertir en un lenguaje que sean capaz de entender los menores edad que acceden a sus redes, de manera que se les puedan ofrecer mejores opciones de navegación”, señala otro responsable del ECAT. “Esto otorga mayor capacidad y poder al usuario”. El segundo nivel es el que atañe a la sociedad civil, expertos, ONG… —”esto nos ofrecería un tipo de información e informes de divulgación para los expertos”, señala el técnico―. El segundo nivel muestra el parámetro prospectivo que también imbrica al ECAT. El nuevo centro quiere servir de puente entre la academia -universidades y grupos de investigación- y la empresa privada -unos acuerdos que aún están por definir-.

El tercer nivel es el más importante para los investigadores. Ese implica llegar a las tripas del algoritmo y para poder investigarlas y acceder hasta ellas, la Comisión puede designar expertos o auditores.

Las conclusiones de las investigaciones sobre el funcionamiento de los sistemas algorítmicos y su impacto también será compartidas con el público, siguiendo con el impulso divulgador que también corresponde al ECAT, pero también con el afán de poder retratar el comportamiento de las grandes compañías. La Comisión elude entrar en las posibles fricciones o desencuentros que puedan encontrarse con los gigantes de Internet, acostumbrados a competir en un entorno más desregulado como el de EE UU y prefiere abordarlo como una oportunidad para mejorar su imagen y generar confianza ofreciendo oportunidades en el mundo digital.

El ECAT, de la mano de los expertos, está llamado a convertirse en el brazo de la Comisión no solo para comprender y desentrañar como funcionan los sistemas algorítmicos para prevenir y evitar efectos indeseados, sino para garantizar a través de la transparencia, que lo que es ilegal en la vida real también lo es en las redes sociales.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Enlace a la fuente