Fernanda González
19 feb 2024
El 51% de la población mundial participará en procesos democráticos este año. Expertos advierten que el uso de sistemas de IA con fines de manipulación podría poner en riesgo las elecciones.
Una veintena de empresas tech firmaron el ‘Acuerdo Tecnológico para combatir el uso engañoso de la inteligencia artificial (IA) en las elecciones de 2024’. En el convenio voluntario participan compañías y plataformas como Google, Meta, OpenAI, Microsoft, TikTok y X. Tiene como objetivo establecer acciones y compromisos conjuntos para neutralizar la difusión de contenidos producidos con sistemas de IA que puede “poner en peligro la integridad de los procesos electorales”.
El pacto fue anunciado durante la primera jornada de la Conferencia de Seguridad de Múnich, Alemania (MSC, por sus siglas en inglés). Contempla la contención de materiales como imágenes, audios y videos generados con herramientas basadas en IA “que falsifiquen o alteren engañosamente la apariencia, la voz o las acciones de los candidatos políticos, funcionarios electorales y otras partes interesadas”. Los principios no consideran explícitamente la prohibición o eliminación de deepfakes. Plantean el desarrollo de tecnología y métodos para detectar, monitorear y etiquetar este tipo de contenidos.
Deepfakes, la amenaza invisible para la democracia mexicana en las Elecciones de 2024
Los deepfakes generados por Inteligencia Artificial, plantean una seria amenaza para la democracia en México de cara a las elecciones. Desde la manipulación de vídeos de celebridades hasta la falta de regulación, exploramos los desafíos y la necesidad urgente de medidas coordinadas para preservar la integridad del proceso electoral en medio de la creciente influencia de contenido falso.
Los firmantes acordaron ocho compromisos específicos que serán aplicados cuando “sean relevantes para los servicios que brinda cada empresa”:
Desarrollar e implementar tecnología para mitigar los riesgos relacionados con el contenido electoral engañoso creado con sistemas de IA, incluidos aquellos de código abierto.
Evaluar los modelos de IA dentro del alcance de este acuerdo para comprender los riesgos que pueden representar con respecto a la producción de contenido electoral engañoso.
Detectar la distribución de este tipo de materiales en sus plataformas.
Tomar acciones para abordar adecuadamente la información engañosa distribuida en sus servicios.
Fomentar la adaptación entre las industrias que son sensibles al contenido electoral engañoso.
Proporcionar al público información que transparente las acciones de mitigación.
Trabajar de manera continua con organizaciones académicas y de la sociedad civil para desarrollar planes de control.
Apoyar esfuerzos para fomentar la conciencia pública, la alfabetización mediática y la resiliencia de toda la sociedad.
Las responsabilidades convenidas están basadas en el trabajo en curso de las compañías involucradas. La lista de signatarios está formada por Adobe, Amazon, Anthropic, Arm, ElevenLabs, Google, IBM, Inflection AI, LinkedIn, McAfee, Meta, Microsoft, Nota, OpenAI, Snap, Stability AI, TikTok, Trend Micro, Truepic y X.
Christoph Heusgen, presidente de la Conferencia de Seguridad de Múnich, sostuvo que el acuerdo es un paso crucial para promover la integridad electoral y crear prácticas tecnológicas confiables. “La MSC se enorgullece de ofrecer una plataforma para que las empresas tomen medidas para controlar las amenazas que emanan de la IA y al mismo tiempo la empleen a favor del bien democrático". No se dieron detalles sobre cómo se harán cumplir las resoluciones ni se definió un cronograma de acciones.
Los procesos políticos de este año tendrán un impacto histórico en el curso que tomarán los sectores estratégicos y críticos que mantienen el equilibrio en el mundo. Un informe de The Economist calcula que alrededor de 4,000 millones de personas se darán cita en las urnas electorales. De los 71 países considerados por el índice de Democracia elaborado por la publicación, únicamente 43 naciones tendrán elecciones plenamente libres y justas.
Los expertos advierten que la tendencia se podría agravar con la consolidación de la IA generativa y su potencial uso con fines de manipulación. El Foro Económico Mundial calificó la desinformación provocada por la utilización de sistemas de inteligencia artificial y la polarización política como riesgos a enfrentar durante este año. Autoridades de diversos países han exigido que las grandes empresas tecnológicas establezcan salvaguardas que eviten la utilización maliciosa de estos recursos.
El uso de la IA durante las elecciones
“La democracia se basa en elecciones seguras y protegidas. No podemos permitir que el abuso digital amenace la oportunidad para mejorar nuestras economías, crear nuevos empleos e impulsar el progreso en salud y ciencia. Se necesitan medidas concretas y cooperativas para proteger a las personas y a las sociedades de los riesgos amplificados del contenido engañoso generado por IA”, sentenció Kent Walker, presidente de asuntos globales de Google.
La mayoría de las big tech han anunciado que implementarán medidas para evitar el uso malicioso de sus funciones basadas en IA e identificar oportunamente contenidos engañosos. Grupos y organizaciones de activistas acusan que el grueso de estas soluciones se han propuesto sin fechas concretas para su aplicación. Calificaron el nuevo convenio como decepcionante alegando que la vaguedad de los compromisos y la ausencia de requerimientos vinculantes probablemente ayudó a atraer a un gran número de empresas, pero no existe certeza de que los compromisos se cumplan.
“El lenguaje no es tan fuerte como uno podría haber esperado. Deberíamos dar el crédito donde corresponde y reconocer que las empresas sí tienen un interés en que sus herramientas no sean utilizadas para socavar elecciones libres e imparciales. Pero se trata de un convenio voluntario y estaremos atentos a ver si se cumple”, dijo en una entrevista para Associated Press, Rachel Orey, directora adjunta senior del Proyecto Elecciones en el Centro de Políticas Bipartidistas, una iniciativa que analiza y evalúa el ecosistema electoral para garantizar el voto justo y libre.
Fuente: González, F. (2024, 19 febrero). Google, Meta, OpenAI y 17 más anuncian acuerdo para evitar que la IA interfiera en las elecciones globales. WIRED. https://es.wired.com/articulos/google-meta-openai-y-17-mas-anuncian-acuerdo-para-evitar-que-la-ia-interfiera-en-las-elecciones-globales