top of page
  • Foto del escritorANIA

Declaración de Bletchley - Noviembre 2023

Actualizado: 3 nov 2023

La Declaración de Bletchley por los Países Asistentes a la Cumbre de Seguridad de la Inteligencia Artificial, 1-2 de noviembre de 2023

Publicado el 1 de noviembre de 2023


La Inteligencia Artificial (IA) presenta enormes oportunidades globales: tiene el potencial de transformar y mejorar el bienestar, la paz y la prosperidad humanos. Para hacer realidad esto, afirmamos que, en beneficio de todos, la IA debe ser diseñada, desarrollada, implementada y utilizada de manera segura, de tal manera que sea centrada en el ser humano, confiable y responsable. Aplaudimos los esfuerzos de la comunidad internacional hasta ahora para cooperar en la IA con el fin de promover el crecimiento económico inclusivo, el desarrollo sostenible y la innovación, para proteger los derechos humanos y las libertades fundamentales, y fomentar la confianza pública en los sistemas de IA para realizar plenamente su potencial.


Los sistemas de IA ya se utilizan en muchos ámbitos de la vida diaria, incluyendo la vivienda, el empleo, el transporte, la educación, la salud, la accesibilidad y la justicia, y es probable que su uso aumente. Reconocemos que este es un momento único para actuar y afirmamos la necesidad del desarrollo seguro de la IA y de que las oportunidades transformadoras de la IA se utilicen para el bienestar de todos, de manera inclusiva en nuestros países y a nivel mundial. Esto incluye servicios públicos como la salud y la educación, la seguridad alimentaria, la ciencia, la energía limpia, la biodiversidad y el clima, para lograr el disfrute de los derechos humanos y fortalecer los esfuerzos para alcanzar los Objetivos de Desarrollo Sostenible de las Naciones Unidas.


Junto con estas oportunidades, la IA también plantea riesgos significativos, incluyendo en esos ámbitos de la vida diaria. Con este fin, aplaudimos los esfuerzos internacionales pertinentes para examinar y abordar el posible impacto de los sistemas de IA en los foros existentes y otras iniciativas pertinentes, y el reconocimiento de que la protección de los derechos humanos, la transparencia y la explicabilidad, la equidad, la responsabilidad, la regulación, la seguridad, la supervisión humana adecuada, la ética, la mitigación de sesgos, la privacidad y la protección de datos deben abordarse. También observamos el potencial de riesgos imprevistos derivados de la capacidad de manipular contenido o generar contenido engañoso. Todos estos problemas son de vital importancia y afirmamos la necesidad y urgencia de abordarlos.


Los riesgos de seguridad particulares surgen en la "frontera" de la IA, entendida como aquellos modelos de IA altamente capaces de propósito general, incluyendo modelos base, que podrían realizar una amplia variedad de tareas, así como la IA estrecha específica relevante que podría exhibir capacidades que causen daño, que igualen o superen las capacidades presentes en los modelos más avanzados de hoy en día. Los riesgos sustanciales pueden surgir de un posible uso indebido intencional o de problemas no deseados de control en relación con la alineación con la intención humana. Estos problemas se deben en parte a que esas capacidades no se comprenden completamente y, por lo tanto, son difíciles de predecir. Estamos especialmente preocupados por estos riesgos en ámbitos como la ciberseguridad y la biotecnología, así como en los que los sistemas de IA de vanguardia pueden amplificar riesgos como la desinformación. Existe el potencial de daños graves, incluso catastróficos, ya sea deliberados o involuntarios, derivados de las capacidades más significativas de estos modelos de IA. Dada la rápida y incierta tasa de cambio de la IA, y en el contexto de la aceleración de la inversión en tecnología, afirmamos que profundizar nuestra comprensión de estos riesgos potenciales y de las acciones para abordarlos es especialmente urgente.


Muchos de los riesgos derivados de la IA son inherentemente de naturaleza internacional y, por lo tanto, se abordan mejor a través de la cooperación internacional. Nos comprometemos a trabajar juntos de manera inclusiva para garantizar una IA centrada en el ser humano, confiable y responsable que sea segura y apoye el bienestar de todos a través de los foros internacionales existentes y otras iniciativas pertinentes, para promover la cooperación para abordar la amplia gama de riesgos planteados por la IA. Al hacerlo, reconocemos que los países deben considerar la importancia de un enfoque de gobernanza y regulación proinnovación y proporcionado que maximice los beneficios y tenga en cuenta los riesgos asociados con la IA. Esto podría incluir, cuando sea apropiado, clasificaciones y categorizaciones de riesgo basadas en las circunstancias nacionales y marcos legales aplicables. También señalamos la relevancia de la cooperación, cuando sea apropiado, en enfoques como principios comunes y códigos de conducta. En lo que respecta a los riesgos específicos que se encuentran con mayor probabilidad en relación con la IA de vanguardia, nos comprometemos a intensificar y mantener nuestra cooperación y ampliarla con más países, para identificar, comprender y, según corresponda, actuar, a través de los foros internacionales existentes y otras iniciativas pertinentes, incluidas las futuras Cumbres Internacionales de Seguridad de la IA.


Todos los actores tienen un papel que desempeñar para garantizar la seguridad de la IA: naciones, foros internacionales y otras iniciativas, empresas, sociedad civil y academia deberán trabajar juntos. Destacando la importancia de una IA inclusiva y de cerrar la brecha digital, reafirmamos que la colaboración internacional debe esforzarse por involucrar a una amplia gama de socios según corresponda y dar la bienvenida a enfoques y políticas orientados al desarrollo que puedan ayudar a los países en desarrollo a fortalecer la capacidad de IA y aprovechar el papel habilitador de la IA para respaldar el crecimiento sostenible y abordar la brecha en el desarrollo.


Afirmamos que, si bien la seguridad debe considerarse a lo largo del ciclo de vida de la IA, los actores que desarrollan capacidades de IA de vanguardia, en particular aquellos sistemas de IA que son excepcionalmente poderosos y potencialmente dañinos, tienen una responsabilidad particularmente fuerte de


garantizar la seguridad de estos sistemas de IA, incluso a través de sistemas de prueba de seguridad, evaluaciones y otras medidas apropiadas. Alentamos a todos los actores pertinentes a proporcionar transparencia y responsabilidad adecuadas en sus planes para medir, monitorear y mitigar capacidades potencialmente dañinas y los efectos asociados que puedan surgir, en particular para prevenir el mal uso y problemas de control, y la amplificación de otros riesgos.


En el contexto de nuestra cooperación y para informar la acción a nivel nacional e internacional, nuestra agenda para abordar el riesgo de la IA de vanguardia se centrará en:


identificar los riesgos de seguridad de la IA de vanguardia de interés compartido, construir una comprensión científica compartida y basada en evidencia de estos riesgos, y mantener esa comprensión a medida que las capacidades continúan aumentando, en el contexto de un enfoque global más amplio para comprender el impacto de la IA en nuestras sociedades.

construir políticas basadas en el riesgo en nuestros países para garantizar la seguridad a la luz de tales riesgos, colaborando según corresponda, reconociendo que nuestros enfoques pueden diferir según las circunstancias nacionales y los marcos legales aplicables. Esto incluye, junto con una mayor transparencia por parte de los actores privados que desarrollan capacidades de IA de vanguardia, métricas de evaluación apropiadas, herramientas para pruebas de seguridad y el desarrollo de capacidades relevantes del sector público e investigación científica.

En el marco de esta agenda, nos comprometemos a apoyar una red internacional inclusiva de investigación científica sobre la seguridad de la IA de vanguardia que abarque y complemente la colaboración multilateral, plurilateral y bilateral existente y nueva, incluida a través de foros internacionales existentes y otras iniciativas pertinentes, para facilitar la provisión de la mejor ciencia disponible para la formulación de políticas y el bien público.


En reconocimiento del potencial transformador positivo de la IA, y como parte de garantizar una cooperación internacional más amplia en materia de IA, nos comprometemos a mantener un diálogo global inclusivo que involucre a los foros internacionales existentes y otras iniciativas pertinentes y contribuya de manera abierta a discusiones internacionales más amplias, y a continuar la investigación sobre la seguridad de la IA de vanguardia para asegurar que los beneficios de la tecnología se puedan aprovechar de manera responsable para el bienestar de todos. Esperamos volver a reunirnos en 2024.


Acuerdo

Los países representados fueron:


  • Australia

  • Brasil

  • Canadá

  • Chile

  • China

  • Unión Europea

  • Francia

  • Alemania

  • India

  • Indonesia

  • Irlanda

  • Israel

  • Italia

  • Japón

  • Kenia

  • Reino de Arabia Saudita

  • Países Bajos

  • Nigeria

  • Filipinas

  • República de Corea

  • Ruanda

  • Singapur

  • España

  • Suiza

  • Türkiye

  • Ucrania

  • Emiratos Árabes Unidos

  • Reino Unido de Gran Bretaña e Irlanda del Norte

  • Estados Unidos de América

Las referencias a "gobiernos" y "países" incluyen organizaciones internacionales que actúan de acuerdo con sus competencias legislativas o ejecutivas.


Para consultar el documento oficial aquí.

64 visualizaciones

Comentários


bottom of page