Billy Perrigo - Time
En un día ordinario de la semana en noviembre, Bletchley Park recibe a una mezcla de pensionados ancianos y grupos de incontrolables estudiantes, quienes visitan para aprender acerca de los descifradores de códigos, incluyendo al pionero de la computación Alan Turing, que estuvieron basados aquí durante la Segunda Guerra Mundial y ayudaron a las Fuerzas Aliadas a derrotar a los nazis.
Pero esta no es una semana ordinaria y estos no son visitantes comunes.
El miércoles y el jueves, delegados de 27 gobiernos de todo el mundo, así como los líderes de las principales compañías de inteligencia artificial, se reunieron para la primera Cumbre Mundial de Seguridad de la Inteligencia Artificial en esta antigua casa señorial cerca de Londres, ahora un museo. Entre los asistentes se encontraban representantes de los gobiernos de Estados Unidos y China, Elon Musk y el CEO de OpenAI, Sam Altman.
El evento de alto perfil, organizado por el gobierno del Reino Unido liderado por Rishi Sunak, marca un año de intensas discusiones globales sobre la seguridad de la IA, tras el lanzamiento de ChatGPT hace casi un año. El chatbot mostró por primera vez, al menos para muchos usuarios, las poderosas capacidades generales de la última generación de sistemas de IA. Su atractivo viral dio vida a una corriente de pensamiento que sostenía que la IA podría, más temprano que tarde, representar un riesgo existencial para la humanidad, y llevó a los responsables de políticas en todo el mundo a considerar si y cómo regular la tecnología. Estas discusiones se han llevado a cabo en medio de advertencias no solo de que las herramientas de IA actuales ya presentan múltiples peligros, especialmente para las comunidades marginadas, sino también de que la próxima generación de sistemas podría ser 10 o 100 veces más poderosa, sin mencionar más peligrosa.
Bletchley Park fue elegido por el gobierno del Reino Unido como sede de la cumbre debido a su simbolismo: fue uno de los lugares de nacimiento de la computación moderna; las máquinas que se idearon aquí para descifrar el código Enigma de los nazis formaron los planos para las primeras computadoras programables. Michelle Donelan, ministra de Ciencia y Tecnología del Reino Unido, inauguró la Cumbre el miércoles hablando de su esperanza de que los delegados reunidos en la cumbre contribuyan a un logro de magnitud similar, "empujando los límites de lo que es realmente posible".
Los funcionarios de todo el mundo no intentaron llegar a un acuerdo aquí sobre un conjunto compartido de regulaciones ejecutables para la tecnología. Pero Sunak anunció el jueves que las compañías de IA habían acordado en la cumbre dar acceso temprano a sus modelos a los gobiernos para llevar a cabo evaluaciones de seguridad. También anunció que Yoshua Bengio, un científico de la computación ganador del Premio Turing, había acordado presidir un organismo que buscaría establecer, en un informe, el consenso científico sobre los riesgos y capacidades de los sistemas de IA de vanguardia.
"Me complace apoyar la muy necesaria coordinación internacional de la gestión de la seguridad de la IA, trabajando con colegas de todo el mundo para presentar la evidencia más actual sobre este tema de vital importancia", dijo Bengio en un comunicado.
El logro más destacado de Sunak en la cumbre, que consiste en que los laboratorios de IA darán acceso temprano a sus sistemas a los gobiernos, carecía de detalles. Sunak ya había anunciado en junio que las tres principales compañías de IA de vanguardia (OpenAI, Google DeepMind y Anthropic) habían acordado dar al gobierno del Reino Unido "acceso temprano o prioritario" a sus sistemas con fines de seguridad. Sunak no especificó cómo difería este acuerdo alcanzado el jueves de este compromiso existente, si es que lo hacía. Tampoco comentó si los gobiernos recibirían el código fuente o los llamados "pesos" de los modelos de vanguardia, o simplemente la capacidad de interactuar con ellos mediante una interfaz conocida como API. (La oficina de Sunak no respondió de inmediato a una solicitud de comentario).
Sunak también anunció que el Grupo de Trabajo de IA de Vanguardia del Reino Unido se convertiría en un organismo permanente encargado de llevar a cabo evaluaciones de seguridad: el Instituto de Seguridad de la IA del Reino Unido.
A pesar del progreso limitado, los delegados del evento dieron la bienvenida a las discusiones de alto nivel como un primer paso crucial hacia la colaboración internacional en la regulación de la tecnología, reconociendo que si bien existen muchas áreas de consenso, aún persisten algunas diferencias clave.
Al iniciar el evento el miércoles, el gobierno del Reino Unido anunció la "Declaración de Bletchley" sobre la IA, firmada por 28 países, incluyendo Estados Unidos, Reino Unido, China e India, así como la Unión Europea. La declaración afirmaba que la IA plantea riesgos a corto y largo plazo, confirmaba la responsabilidad de los creadores de sistemas de IA potentes de garantizar que sean seguros y se comprometía a la colaboración internacional para identificar y mitigar los riesgos.
El gobierno del Reino Unido, como organizador de la cumbre, ha transitado una línea delicada entre comunicar que se toma en serio los riesgos de la IA por un lado, mientras que señala a las empresas tecnológicas que está abierto a los negocios por el otro. "Para mí, el mayor riesgo en realidad que enfrentamos es el riesgo de perder todas estas oportunidades increíbles que la IA puede ofrecer", dijo Donelan a los líderes de la industria tecnológica en una recepción en la sede de Google DeepMind en la víspera de la cumbre. "Si asustamos demasiado a las personas o si nos alejamos porque no abordamos estos riesgos, no veremos la adopción en nuestro NHS [Servicio Nacional de Salud], no veremos la adopción en nuestra red de transporte, no podremos utilizar la IA para abordar el cambio climático o para apoyar a las naciones en desarrollo a abordar problemas como la desigualdad alimentaria. Y eso sería la mayor tragedia que podríamos imaginar".
Por otro lado, Estados Unidos realizó
varias declaraciones esta semana que amenazaron con eclipsar la afirmación del Reino Unido de liderazgo global en la seguridad de la IA. En un discurso en Londres el miércoles, la vicepresidenta Kamala Harris anunció un conjunto amplio de acciones de Estados Unidos, incluyendo el establecimiento de un Instituto de Seguridad de la IA estadounidense. Harris dijo que el organismo crearía directrices para evaluaciones de riesgos de sistemas de IA y desarrollaría orientación para reguladores sobre cuestiones como la marca de agua en material generado por IA y la lucha contra la discriminación algorítmica. El anuncio de Harris siguió a una orden ejecutiva firmada por el presidente Joe Biden el lunes, que requería que las compañías de IA notificaran al gobierno federal cuando entrenaran modelos potencialmente peligrosos y compartieran los resultados de las pruebas de seguridad antes de hacerlos públicos.
El secretario de Relaciones Exteriores británico, James Cleverley, minimizó las sugerencias el jueves de que Estados Unidos había eclipsado al Reino Unido con sus anuncios. "Esto no se trata de acaparamiento, se trata de compartir", dijo a TIME. "Esto es algo en lo que queremos que todos participen. No es exclusivo, es inclusivo".
En Bletchley Park, la policía estuvo patrullando con fuerza alrededor de un perímetro temporal seguro erigido alrededor del complejo de descifrado de códigos de guerra. Fuera de la puerta principal, un pequeño grupo de manifestantes del grupo de presión Pause AI estuvo presente el miércoles, ondeando pancartas y carteles. El grupo aboga por una pausa temporal en la formación de sistemas de IA más poderosos que el GPT-4 de OpenAI, el sucesor de ChatGPT y el modelo de lenguaje grande público más poderoso del mundo. "Las encuestas muestran cada vez más que ralentizar el desarrollo de la IA es popular entre el público, como lo demuestran los numerosos mensajes de apoyo que recibimos de miembros del público, jóvenes y mayores, hoy mientras estábamos protestando", dijo Gideon Futerman, uno de los manifestantes, a TIME. "Una pausa no solo es necesaria, sino que también es alcanzable".
En el interior, las principales discusiones se llevaron a cabo a puerta cerrada, pero algunas figuras de la industria emergieron para hablar con los medios. Mustafa Suleyman, cofundador de Google DeepMind y ahora CEO de la startup Inflection AI, dijo en una rueda de prensa que no estaba de acuerdo con quienes pedían una pausa en la formación de la próxima generación de sistemas de IA, pero dijo que la industria podría considerarlo como una opción en un futuro cercano. "No lo descarto, y creo que en algún momento, en los próximos cinco años o algo así, tendremos que considerar esa pregunta muy seriamente", dijo. "No creo que haya evidencia hoy de que los modelos de vanguardia del tamaño de GPT-4... presenten daños catastróficos significativos, y mucho menos daños existenciales. Es objetivamente claro que hay un valor increíble para las personas en el mundo. Pero es una pregunta muy sensata de hacer, a medida que creamos modelos que sean 10 veces más grandes, 100 veces más grandes, 1,000 veces más grandes, lo que ocurrirá en los próximos tres o cuatro años".
Una carta abierta en marzo que pedía una pausa de seis meses en la formación de sistemas de IA grandes fue desestimada por muchos en la industria como no aplicable, pero algunos delegados sugirieron que la cumbre estaba dando pasos hacia la creación de un marco internacional en el que se podría aplicar tal decisión. Connor Leahy, CEO de la empresa de seguridad de la IA Conjecture, que ha sido especialmente vocal sobre lo que considera graves amenazas existenciales planteadas por la IA, dijo a TIME el miércoles que había quedado impresionado por la calidad de las discusiones y el acuerdo casi uniforme de que la colaboración para abordar los riesgos era necesaria. "En general, creo que el Reino Unido ha hecho algo realmente fenomenal aquí", dijo, elogiando la cantidad de asistentes de alto nivel tanto del gobierno como de la industria. "Este no es el lugar donde se elabora la política en la práctica, es el tipo de lugar donde se sientan las bases".
Se invitó a miembros selectos de la sociedad civil a asistir a sesiones a puerta cerrada con formuladores de políticas y tecnólogos, aunque algunos de ellos se quejaron de que la representación era insuficiente. "Si esto es realmente una conversación global, ¿por qué la sociedad civil en su mayoría es de Estados Unidos y el Reino Unido [en la asistencia]?", dijo Vidushi Marda, una delegada del evento de la organización sin fines de lucro REAL ML, que se encuentra en Bangalore, India. "La mayoría de las decisiones importantes son bastante opacas para nosotros, incluso cuando estamos en la sala".
Otros acusaron a la cumbre de reflejar los puntos de vista de la industria. "Ha habido una captura completa de la industria en esta conversación y, en muchos aspectos, esta cumbre lo refleja", dijo Amba Kak, directora ejecutiva del Instituto AI Now, un grupo de investigación. "El contexto de todo esto es que estamos viendo una mayor concentración de poder en la industria tecnológica y, dentro de ella, en un puñado de actores. Y si dejamos que la industria dicte la política de la IA, no es suficiente decir que queremos regulación, porque veremos una regulación que afianza aún más los intereses de la industria".
Kak dijo que el alcance de la cumbre parecía haber cambiado tarde en el proceso para incluir la discusión de riesgos a corto plazo, lo cual acogió con beneplácito. "Las señales tempranas sugerían que la Cumbre estaba casi completamente centrada en tipos de daños a largo plazo", dijo. "Si hay una lección que se pueda extraer de la [Declaración de Bletchley], es que hay una necesidad de abordar los riesgos a corto plazo y eso no está desconectado de los riesgos a largo plazo".
Si bien la Cumbre pudo haber tenido éxito en cierta medida en superar la brecha entre los investigadores que advierten sobre los riesgos a corto y largo plazo, una diferencia de opinión separada, relacionada con enfoques de investigación de código abierto y de código cerrado en la investigación de IA, fue evidente entre muchos de los asistentes de la industria. Los defensores de la investigación de IA más restringida sostienen que los peligros de la IA avanzada son demasiado significativos para que el código fuente de modelos poderosos se distribuya libremente. La comunidad de código abierto no está de acuerdo y afirma que las empresas impulsadas por el lucro que monopolizan la investigación de IA probablemente conducirán a malos resultados, y argumentan que la liberación de modelos de código abierto puede acelerar la investigación de seguridad.
"El debate sobre el código abierto todavía se siente como un desafío, y no creo que la Cumbre, dado que abordaba una variedad de temas, realmente pudiera proporcionar suficiente espacio para adentrarse lo suficiente en los detalles para encontrar un mayor consenso", dijo Jess Whittlestone, delegada y jefa de políticas de IA en el Centro para la Resiliencia a Largo Plazo, un grupo de expertos, a TIME. "En las discusiones en las que participé, hubo bastante acuerdo en que necesitábamos ir más allá de un debate binario sobre código abierto/cerrado y examinar soluciones más matizadas, pero aún había perspectivas diferentes sobre cómo debía verse eso y qué debía tener prioridad".
El simbolismo de la reunión en Bletchley Park, hogar de un esfuerzo de guerra donde grandes mentes se unieron para salvaguardar la vida y la libertad frente a una amenaza existencial, no se perdió en muchos de los asistentes. Pero si la Cumbre no logra ofrecer los resultados deseados, una comparación histórica alternativa podría resultar ser una mejor metáfora. Después de la guerra, la celebrada agencia de descifrado basada en Bletchley evolucionó en GCHQ, la agencia de inteligencia del Reino Unido que, en asociación con la Agencia de Seguridad Nacional de los Estados Unidos, llevó a cabo programas indiscriminados de vigilancia masiva global, utilizando la tecnología no para salvaguardar a los ciudadanos, sino para violar sistemáticamente sus derechos.
"La mitología de Bletchley ha sido utilizada por sucesivos gobiernos para justificar la vigilancia y el aumento del control tecnológico, insinuando que estos esfuerzos surgen de la misma fuente que los esfuerzos tecnológicos antifascistas del Reino Unido durante la Segunda Guerra Mundial", dijo Meredith Whittaker, presidenta de Signal, a TIME. "Por lo tanto, no es sorprendente que el intento del gobierno actual de acercarse a la poderosa industria de la IA con sede en los Estados Unidos aproveche y estire esta misma mitología, esperando que el resplandor del pasado pueda oscurecer la realidad del presente". Para consultar el artículo da click aquí.
Comments