Javier Busquets
19 feb 2024
¿Por qué ahora la inteligencia artificial generativa (GenAI)? Es una pregunta que pocos se hacen seriamente. No me refiero a la innovación tecnológica, sino más bien a su lanzamiento como producto de consumo. Creo que estamos tan convencidos de que la tecnología avanza debido al "progreso" que solo advertimos efectos positivos ante los cuales solo nos queda "adaptarnos".
El "progreso" también esconde intereses más mundanos. Con el lanzamiento de la GenAI, Silicon Valley ha iniciado lo que metafóricamente puede considerarse una nueva "carrera armamentística". Desde que Open AI lanzó ChatGPT en diciembre de 2022, este sistema alcanzó los 100 millones de usuarios en menos de cuatro meses. Y Meta, Google, Salesforce, Microsoft (con su vinculación a OpenAI), Tesla o los fabricantes de chips NVDIA y AMD han anunciado ya el lanzamiento de nuevos productos.
Ahora, Silicon Valley vuelve a llamar la atención de los inversores, después de una mala racha, debida a: 1) la subida de los tipos de interés, que han desviado las inversiones hacia otras industrias; 2) algunos descalabros, como el del banco cripto FTX, que volatilizó 9.000 millones de dólares y alejó la inversión en bitcoins o la caída del Silicon Valley Bank, y 3) la ola de recortes, que afectaron al 23% de la plantilla de Meta o provocaron 12.000 despidos en Google.
El dinero fluye de nuevo. Las inversiones en start-ups llegan a los 300.000 millones de dólares. Microsoft acaba de invertir otros 10.000 millones de dólares en Open AI (que hay que añadir a los 1.000 millones anteriores), cuya valoración es de 11.000 millones. Las acciones de Meta han subido un 20% -y por primera vez generarán dividendos- después de los buenos resultados anunciados en enero. Los grandes hyperscalers, como Amazon, Microsoft o Google, esperan que su negocio registre un crecimiento notable, por las necesidades de computación de los nuevos modelos de IA. Ya se observó un gran avance durante la pandemia de la COVID-19, a la cual le siguió un cierto estancamiento.
Esta demanda de computación está beneficiando la fabricación de chips: las acciones de NVIDA se ha revalorizado un 60% este año y AMD acaba de anunciar el lanzamiento del nuevo chip MI300 como "acelerador de la IA", con 153.000 millones de transistores, prácticamente el doble que su rival, el H100 de NVIDIA. Es muy posible que esta carrera también refuerce el cinturón asiático de fabricantes de chips, integrado por Japón, Singapur, Corea del Sur y Taiwán, del cual depende fuertemente la economía mundial. Estos países constituyen una región que, no por casualidad, rodea a China, cuyas grandes plataformas tecnológicas se han visto sorprendidas por la rápida emergencia de la GenAI.
La GenAI acapara portadas y debates, pero también puede ayudar a desviar la atención de los medios de comunicación hacia otras cuestiones, como la importante crisis reputacional que están viviendo de las redes sociales: la comparecencia de Mark Zuckerberg y de otros directivos en el Senado de los Estados Unidos anuncia la posibilidad de que se limite el uso de estas plataformas en algunos estados. También ha quedado eclipsada la cuestión de las demandas antimonopolio que deben afrontar algunos gigantes tecnológicos ante los tribunales de la Unión Europea y de los Estados Unidos durante 2024. Y, por último, se habla poco del impacto medioambiental que estos sistemas producen: la GenAI requiere muchos recursos energéticos.
Lo que queremos resaltar aquí es que, tras "el progreso", una ideología con ecos sobrehumanos, se albergan intereses más mundanos, tanto en Silicon Valley como entre las grandes tecnológicas chinas.
Lo que es también cierto es que las empresas tecnologicas se benefician de un cierto estatus de excepcionalidad con respecto al lanzamiento de innovaciones. Aquí cabe diferenciar la investigación y el desarrollo (I+D) del lanzamiento de productos. A diferencia de otros muchos sectores, como el automovilístico, el farmacéutico o el de la alimentación, los controles sobre los productos tecnológicos que se lanzan en el mercado son mucho menores, de modo que las empresas tecnológicas se permiten una transición muy rápida entre la I+D y el producto.
El resultado es que muchas nuevas tecnologías se presentan como experimentos a gran escala. Esta laxitud tiene un aliado: nuestra actitud ante la tecnología digital. Adoptamos muchas innovaciones con alegre despreocupación, simplemente porque son "nuevas" o porque son "digitales". Al respecto, el caso de ChatGPT es paradigmático.
Creemos, pues, que no se valoran bien los riesgos asociados a la AI, en parte por esta despreocupación en la adopción de tecnología y en parte por la presión social asociada a la ideología del progreso. "Quien no usa la tecnología y se adapta a ella, perece". Quisiéramos detenernos aquí en la idea de "uso". En general, existe una creencia muy popular: que la tecnología es una herramienta que se puede usar. En muchas ocasiones es así, y no hace falta darle muchas vueltas al tema. Pero, cuando usamos una herramienta, presuponemos que sabemos lo suficiente para predecir cuál será el comportamiento de la GenAI al "usarla". Pero no advertimos su carácter sistémico ni su capacidad estructurante.
Por ejemplo, Microsoft ha anunciado un acuerdo con Semafor para ofrecer noticias de última hora basadas en la inteligencia artificial generativa. Según el anuncio de Semafor, se trata de "superar las redes sociales" y "saciar el hambre de información autorizada que las redes sociales ya no proporcionan". Para ello, los periodistas de Semafor "cuentan con herramientas de IA que les ayudan a buscar fuentes en múltiples idiomas y geografías, lo cual les permite aportar perspectivas múltiples y más diversas a los lectores". Aunque el anuncio de Microsoft y Semafor insiste en la consideración de la GenAI como "herramienta", sin pretensión de exhaustividad, veamos algunos de sus efectos sistémicos, es decir, aquellos que no dependen del uso, sino de su presencia:
1) Un chatbot de noticias no hace más que profundizar aún más el proceso de desintermediación que se ha venido produciendo entre la opinión pública y los medios de comunicación. Y lo hace porque actúa a gran escala. Una interfaz basada en la voz escala mucho más que cualquier otra basada en aspectos visuales y gráficos. Existe ya una abundante literatura que estudia esta desintermediación y que afecta los hábitos de comunicación política, la polarización, las relaciones entre los líderes políticos y la opinión pública, así como la crisis de los modelos de negocio de los medios de comunicación.
2) Afecta la relación entre la noticia y la verdad. En otras palabras, ¿cómo sabemos que lo que comunica un chatbot es cierto? ¿Qué "modelo" algorítmico de toma de decisiones sigue? ¿Cuáles son las fuentes?
3) También se plantea el problema de la relevancia: los resultados de los chatbot se ajustarán a lo que imponga su modelo de toma de decisiones y su modelo de negocio, donde lo popular (lo que produce más clickbaits) se impondrá a lo relevante, si tomamos como referencia el funcionamiento de los buscadores o de las redes sociales.
4) Un sistema así incide en la división del trabajo: no es descartable que algunas fuentes del chatbot sean periodistas en prácticas o becarios. Es decir, personal subempleado que trabaja para una máquina (gig economy). De hecho, la inteligencia artificial no es una forma más de automatización de "tareas". Lo que automatiza está a otra escala: la coordinación económica, de modo que "cubre los huecos" que las olas anteriores de la automatización han dejado sin cubrir.
En este ejemplo, un sistema que puede poner en cuestión la verdad y la relevancia, las relaciones entre los medios y la opinión pública y la división del trabajo está afectando el equilibrio de un sistema social. Y, con ello, la calidad de vida de las personas, la relación con la realidad, con el trabajo y con la toma de decisiones colectivas.
Por ello, es tan crítico comprender dónde están los límites del sistema. No podemos esperar que sea el propio sistema de AI quien lo haga. Y lo contrario, ignorar los límites y dejarse llevar por las corrientes ideológicas dominantes que tanto han aplaudido las "disrupciones", puede llevarnos a situaciones muy difíciles. No hay nada más doloroso que vivir una disrupción desde dentro. Es labor de la inteligencia humana -y, en particular, de la academia- trabajar para definir los límites. Dicho de otro modo, aprender a gobernar la AI. Sin ello, no podrán valorarse los riesgos ni obtenerse ventajas: ni de competitividad ni en las condiciones de vida de las personas.
Fuente: Los límites de la Inteligencia Artificial Generativa. (2024, 19 febrero). Expansion. https://www.expansion.com/blogs/sociedad-empresa-digital/2024/02/19/los-limites-de-la-inteligencia.html