top of page
  • Writer's pictureANIA

El G7 y el "Proceso de IA de Hiroshima": Avanzando hacia una IA Responsable

Updated: Nov 16, 2023


- El G7, que incluye naciones como Alemania, Canadá, Estados Unidos, Francia, Italia, Japón y el Reino Unido, ha llegado a un acuerdo para establecer un código de conducta destinado a guiar a las empresas y organizaciones que desarrollan sistemas de inteligencia artificial (IA). El objetivo principal de este código es abordar los riesgos asociados con la IA, como la proliferación de desinformación, la invasión de la privacidad y la violación de la propiedad intelectual.


- Los líderes del G7 han respaldado esta iniciativa, conocida como el "Proceso de IA de Hiroshima". Este enfoque busca promover la creación de sistemas de IA que sean seguros y confiables a nivel internacional, al tiempo que se gestionan sus riesgos de manera efectiva. Los líderes del G7 hacen un llamado a todos los actores involucrados en el campo de la IA a comprometerse a cumplir con estos principios.


- El G7 reconoce el potencial transformador e innovador de los sistemas avanzados de IA, especialmente de los modelos generativos, como el bot de conversación ChatGPT. Sin embargo, también enfatiza la necesidad de proteger a los individuos y mantener a la humanidad en el centro de las consideraciones.


- Para lograr estos objetivos, el G7 lanzó la iniciativa del "Proceso de IA de Hiroshima" en mayo, que ha resultado en la elaboración de once principios destinados a guiar a empresas y organizaciones involucradas en el desarrollo de sistemas de IA. Estos principios incluyen la supervisión independiente en todas las etapas del desarrollo y lanzamiento de la IA, así como la detección y corrección de posibles riesgos de uso indebido.


- Para aumentar la transparencia en el campo de la IA, se insta a los desarrolladores a proporcionar información pública sobre las capacidades y limitaciones de sus sistemas, así como los usos apropiados e inapropiados de los mismos.


- Además, se propone la implementación de mecanismos de autenticación, como marcas de agua digitales, para que los usuarios puedan identificar el contenido generado por sistemas de IA.


- Estas orientaciones serán revisadas periódicamente para adaptarse a la rápida evolución de la tecnología, con la participación de los actores relevantes en el campo de la IA.


- El G7 no solo insta a las empresas y organizaciones a seguir este código de conducta, sino que también acelerará el desarrollo de un marco de políticas para promover la implementación del Proceso de Hiroshima, lo que incluirá la cooperación en proyectos específicos.


- El G7 promoverá la adhesión a este código de conducta a través de la cooperación y consulta con organismos internacionales, como la Alianza Global sobre Inteligencia Artificial (GPAI) y la Organización para la Cooperación y el Desarrollo Económicos (OCDE), además de trabajar con actores del sector público y privado, así como con países que no forman parte del G7.


- Google ha expresado su respaldo al código de conducta del G7 a través de su presidente de Asuntos Globales, Kent Walker, subrayando la importancia de un enfoque global para la responsabilidad en la IA y la colaboración con gobiernos, la industria y la sociedad civil.


Principios para el Desarrollo y Despliegue de Sistemas Avanzados de IA:


  1. Identificación, Evaluación y Mitigación de Riesgos: Tomar medidas adecuadas a lo largo del desarrollo de sistemas avanzados de IA para identificar, evaluar y mitigar riesgos a lo largo de su ciclo de vida. Esto incluye pruebas internas y externas independientes, así como la implementación de soluciones para abordar riesgos y vulnerabilidades identificados.


  1. Prevención de Malos Usos: Monitorear y abordar posibles vulnerabilidades, incidentes y malos usos de sistemas de IA después de su despliegue. Se anima a las organizaciones a fomentar la participación de terceros y usuarios en la identificación de problemas y mantener documentación de incidentes reportados.


  1. Transparencia y Rendición de Cuentas: Publicar información sobre las capacidades, limitaciones y usos apropiados e inapropiados de los sistemas de IA para garantizar transparencia y responsabilidad. Se deben proporcionar informes de transparencia claros y comprensibles con documentación sólida.


  1. Compartir Información y Reportar Incidentes: Promover el intercambio responsable de información entre organizaciones que desarrollan sistemas de IA, incluyendo informes de evaluación, riesgos de seguridad y capacidades peligrosas. Esto debe incluir la colaboración con la industria, gobiernos, sociedad civil y académicos.


  1. Gestión de Riesgos y Políticas de Privacidad: Desarrollar, implementar y divulgar políticas de gestión de riesgos basadas en un enfoque basado en riesgos, incluyendo políticas de privacidad. Esto implica la divulgación de políticas de privacidad y la creación de mecanismos de responsabilidad y gobernanza.


  1. Controles de Seguridad Robustos: Implementar controles de seguridad sólidos, como medidas de seguridad física, cibernética y contra amenazas internas a lo largo del ciclo de vida de la IA, incluyendo la protección de modelos, servidores y conjuntos de datos.


  1. Autenticación y Procedencia de Contenido: Desarrollar y utilizar mecanismos de autenticación y procedencia de contenido para permitir a los usuarios identificar contenido generado por IA, como marcas de agua, y proporcionar herramientas para verificar la procedencia de dicho contenido.


  1. Investigación para Mitigación de Riesgos: Priorizar la investigación para mitigar riesgos sociales, de seguridad y de confianza asociados con la IA y desarrollar herramientas de mitigación efectivas.


  1. Desarrollo de IA para Desafíos Globales: Priorizar el desarrollo de sistemas avanzados de IA para abordar los mayores desafíos del mundo, como la crisis climática, salud global y educación, en apoyo de los Objetivos de Desarrollo Sostenible de las Naciones Unidas y fomentar la inteligencia artificial responsable y centrada en el ser humano.


  1. Adopción de Estándares Técnicos Internacionales: Contribuir al desarrollo y, cuando sea adecuado, la adopción de estándares técnicos internacionales y mejores prácticas, incluyendo estándares de marca de agua, en colaboración con organizaciones de desarrollo de estándares.


  1. Protección de Datos e Información Personal: Implementar medidas apropiadas para gestionar la calidad de los datos, incluyendo la recopilación de datos y la mitigación de sesgos perjudiciales. Se debe garantizar la transparencia de los conjuntos de datos de entrenamiento y cumplir con marcos legales aplicables.


Resumen:

Los países integrantes del G7, emitieron once principios en dos documentos, un Código de Conducta y unos Principios Rectores dirigidos a creadores de sistemas de IA por un lado y por el otro, a todos los “actores del ecosistema de IA” respectivamente. El objetivo del Proceso de Hiroshima es establecer los siguientes cuatro pilares de la política regulatoria de IA:

I. Análisis de los riesgos, retos y oportunidades prioritarios de la IA generativa,

II. Principios Rectores Internacionales del Proceso de Hiroshima para todos los actores del ecosistema de la IA,

III. Código de Conducta Internacional del Proceso de Hiroshima para las organizaciones que desarrollan sistemas avanzados de IA,

IV. Cooperación basada en proyectos en apoyo del desarrollo de herramientas y mejores prácticas responsables de IA.


Los principios esgrimidos tanto en el Código de Conducta como en los Principios Rectores son los siguientes:

“En concreto, pedimos a las organizaciones [creadoras de Inteligencia Artificial] que se atengan a las siguientes medidas, de manera proporcional a los riesgos”:

I. Adoptar las medidas necesarias para identificar, evaluar y mitigar los riesgos existentes a lo largo del ciclo de vida de la IA.

II. Identificar y mitigar las vulnerabilidades, y en su caso, los incidentes y patrones del uso indebido de IA tras el despliegue del sistema de IA, incluyendo su comercialización.

III. Informar públicamente sobre las capacidades, limitaciones y ámbitos de uso apropiado e inapropiado, para contribuir a garantizar una transparencia suficiente, contribuyendo así a la rendición de cuentas.

IV. Trabajar por un intercambio de información responsable y reportes de incidentes entre organizaciones que desarrollan sistemas avanzados de IA, incluyendo la industria, los gobiernos, la sociedad civil y el ámbito académico.

V. Desarrollar, aplicar y divulgar políticas de gobernanza y gestión de riesgos de la IA, que deberán fundamentarse en un enfoque basado en el riesgo, incluidas las políticas de privacidad y las medidas de mitigación.

VI. Invertir (en) y aplicar controles de seguridad sólidos, incluida la seguridad física, ciberseguridad y protección frente a amenazas internas en todo el ciclo de vida de IA.

VII. Desarrollar e implementar mecanismos fiables de autenticación y procedencia de contenidos, cuando sean técnicamente viables, como marcas de agua u otras técnicas que permitan a los usuarios identificar los contenidos generados por IA.

VIII. Dar prioridad a la investigación para mitigar los riesgos sociales, de seguridad y protección, y priorizar inversión en medidas de mitigación eficaces.

IX. Dar prioridad al desarrollo de sistemas avanzados de IA para abordar los mayores retos que afronta el mundo, exclusiva más no limitativamente, la crisis climática, la salud mundial y la educación.

X. Promover la elaboración y, en su caso, la adopción de estándares técnicos internacionales.

XI. Aplicar medidas adecuadas de introducción de datos y protección de los datos personales y la propiedad intelectual.

Es necesario recalcar que estos principios no son más que el producto de un esfuerzo colaborativo del G7, especialmente de Japón, Estados Unidos de Norteamérica y la Unión Europea, y que fueron concebidos para fungir como base de las legislaciones de los países del G7, mismas que serán promulgadas de forma discrecional y autónoma, por lo que incluso a pesar de la existencia del Proceso de Hiroshima, podría darse el caso de que las legislaciones finalmente promulgadas por estos países difieran en algunos aspectos.






Consulta el documento completo aquí:

Hiroshima_Process_International_Code_of_Conduct_M8CtFCUob4UmDz3UoB5zQuCT6FE_99641
.pdf
Download PDF • 217KB

.



51 views

Comments


bottom of page