top of page

La AI Act: las personas son algo más que datos

Sergi Rodríguez López Ríos

22 ene 2024

Los medios de comunicación han acogido con grandes elogios la aprobación por el Parlamento Europeo, el pasado 8 de diciembre, de la Ley sobre la Inteligencia Artificial, más conocida por su nombre en inglés: la Artificial Intelligence Act. Y, en parte, no les faltaban motivos, ya que por primera vez a nivel internacional se regulaba un fenómeno tan emergente como importante.

Los medios de comunicación han acogido con grandes elogios la aprobación por el Parlamento Europeo, el pasado 8 de diciembre, de la Ley sobre la Inteligencia Artificial, más conocida por su nombre en inglés: la Artificial Intelligence Act. Y, en parte, no les faltaban motivos, ya que por primera vez a nivel internacional se regulaba un fenómeno tan emergente como importante. Era loable que finalmente se haya pasado del plano moral, de las declaraciones de principios o la formulación recomendaciones, al legal. Tampoco era banal que lo haga sobre un 14,8% de la economía mundial, que tiene además un papel referencial en muchos sectores.


Sin embargo, y ahí empiezan las críticas, la formulación de tal corpus regulatorio se ha llevado a cabo sin la búsqueda de un consenso aún mayor. La AIA, bien estructurada en torno a niveles de peligrosidad y bien segmentada por sectores socioeconómicos, con estructuras de control, era un excelente punto de partida para la búsqueda de un consenso aun mayor con el resto de los países del G20 o, por qué no, con los organismos del sistema de Naciones Unidas. Sin embargo, hasta ahora, las declaraciones oficiales en torno a la citada medida legal, desde el Consejo de la Unión Europea hasta su Alto representante para Exteriores y Seguridad, no han manifestado nada al respecto. Su ámbito de aplicación se limita pues al 5,6% de la población mundial.


El problema radica en la conciencia sobre los límites del propio reglamento

Es ahí donde, desprovisto de ese eurocentrismo, la AIA podría haberse convertido en un instrumento legal de referencia, que por asunción o por imitación, podría haber inspirado otros de mayor alcance internacional o, en cambio, propiciar regulaciones regionales e incluso nacionales. No en vano, Estados Unidos está entre las potencias que más invierten en recursos críticos, nanotecnología, supercomputación y transformación digital. Allí se encuentran las GAFAM (Google, Apple, Facebook, Amazon y Microsoft), líderes de la economía digital, con las transformaciones sociales y gobernanza política que eso comporta. De ahí proceden Google Bard y Gemini, OpenAI ChatGPT, Microsoft Bing Chat o Facebook Llama, por ejemplo.


El problema no radica tanto en la falta de ambición sino en la conciencia sobre los límites del propio reglamento. Su elaboración ha sido producto sobre todo de un debate político europeo, sazonado con consultas a los estados miembros y algunos sectores como el económico o el social. Sin embargo, su transposición, no es tan fácil. No en vano, ha tenido once enmiendas. Y cuando se acabe de transponer, en dos años, la propia evolución de esa realidad hará que su ámbito de aplicación sea limitado. Pero vayamos al fondo de la cuestión: el garantismo de la Unión Europea, que algunos critican como como intervencionista (yo lo llamaría proteccionista), se aviene difícilmente con el liberalismo de Estados Unidos, el principal actor mundial en la materia, junto con otros dos países también de matriz liberal y claves en este ámbito: Reino Unido e India.


En las sesiones de consultas no se han tenido en cuenta los valores y principios que rigen la identidad de las diversas comunidades culturales. De ahí que una de ellas haya hecho incluir que “El uso de la inteligencia artificial, al mejorar la predicción, optimizar las operaciones y la asignación de los recursos, y personalizar las soluciones (...) puede facilitar la obtención de resultados positivos desde el punto de vista (...) de la educación, la formación, los medios de comunicación, los deportes y la cultura”, mientras que otra haya obligado a indicar que “Las emociones o sus formas de expresión y su percepción varían de forma considerable entre culturas y situaciones, e incluso en una misma persona, (...) los efectos del contexto y la cultura no se tienen debidamente en cuenta”. También resulta ilustrativa que la tercera haga referencia a que “los sistemas de IA se desarrollarán y utilizarán incluyendo a diversos agentes y promoviendo (...) la diversidad cultural, evitando al mismo tiempo los efectos discriminatorios y los sesgos injustos”.


Esas cuatro referencias a la cultura, base de la identidad de cualquier colectivo humano, presenta un perfil homogeneizador que es lo que lo hace difícilmente extrapolable a otros contextos o, siquiera, que sirva de base para legislaciones más amplias, destinadas a otros contextos internacionales. O es fruto de un imperdonable olvido o, cosa peor, de un dirigismo cultural. Pasa exactamente lo mismo con el consumo de energía, que sólo aparece en las enmiendas, o la “igualdad de oportunidades”, que aparece sólo en una ocasión.


En cualquier caso, la AI Act o Ley sobre la Inteligencia Artificial es un puerto de partida, más o menos bueno, pero no de llegada. Las personas no son sólo datos y las interacciones sociales no se reducen sólo a algoritmos. Son pensamientos, emociones y algo más. Sucede con esta ley como la propia Unión Europea: es algo más que el euro, Schengen y el Erasmus. La regulación no ha hecho más que empezar.


Fuente:

https://www.lavanguardia.com/opinion/20240122/9501506/ai-act-personas-son-mas-datos.html

bottom of page