Will Knight
29 ene 2024
La administración Biden está utilizando la Ley de Producción de Defensa para exigir a las empresas que informen al Departamento de Comercio cuando empiecen a entrenar algoritmos de IA de alta potencia.
Cuando ChatGPT, de OpenAI, arrasó en todo el mundo el año pasado, tomó por sorpresa a muchos poderosos, tanto en Silicon Valley como en Washington DC. Ahora, el gobierno de EE UU debería recibir un aviso previo de futuros avances en IA que impliquen grandes modelos de lenguaje, la tecnología que hay detrás del propio ChatGPT.
El gobierno de Biden está preparando el uso de la Ley de Producción de Defensapara obligar a las empresas tecnológicas a informar al gobierno cuando entrenen un modelo de IA utilizando una cantidad significativa de potencia de cálculo. La norma podría entrar en vigor esta misma semana.
El nuevo requisito dará al gobierno de EE UU acceso a información clave sobre algunos de los proyectos más sensibles de OpenAI, Google, Amazon y otras empresas tecnológicas que compiten en IA. Las compañías también tendrán que facilitar información sobre las pruebas de seguridad que se están realizando con sus nuevas creaciones de IA.
Trabajando con la vista encima
OpenAI se ha mostrado tímida a la hora de explicar cuánto se ha trabajado en el sucesor de GPT-4, su actual producto estrella. El gobierno de EE UU podría ser el primero en saber cuándo comienza realmente el trabajo o las pruebas de seguridad de GPT-5. OpenAI no respondió de inmediato a una solicitud de comentarios.
Gina Raimondo, Secretaria de Comercio de EE UU, anunció el viernes en un acto celebrado en la Institución Hoover de la Universidad de Stanford que "estamos utilizando la Ley de Producción de Defensa, que es una autoridad que tenemos gracias al presidente, para hacer un estudio que exija a las empresas que nos comuniquen cada vez que entrenen un nuevo modelo de lenguaje de gran tamaño y que compartan con nosotros los resultados, los datos de seguridad, para que podamos revisarlos". Raimondo no precisó cuándo entrará en vigor el requisito ni qué medidas podría adoptar el gobierno en relación con la información que reciba sobre los proyectos de IA. Se espera que la próxima semana se den a conocer más detalles.
Qué información deberán dar las grandes tecnológicas al gobierno de EE UU
Las nuevas normas se están aplicando en el marco de una amplia orden ejecutiva de la Casa Blanca emitida el pasado mes de octubre. La ordenejecutiva daba al Departamento de Comercio un plazo hasta el 28 de enero para elaborar un plan por el que las empresas estarían obligadas a informar a las autoridades estadounidenses de los detalles sobre los nuevos y potentes modelos de IA en desarrollo. Según la orden, esos datos deben incluir la potencia de cálculo utilizada, información sobre la propiedad de los datos que se introducen en el modelo y detalles sobre las pruebas de seguridad.
La orden de octubre pide que se empiece a trabajar para definir cuándo los modelos de IA deben informar al Departamento de Comercio, pero establece un límite inicial de 100 septillones (un millón de billones o 1026) de operaciones en coma flotante por segundo, o FLOPS, y un nivel 1,000 veces inferior para los grandes modelos de lenguaje que trabajan con datos de secuenciación de ADN. Ni OpenAI ni Google han revelado cuánta potencia de cálculo utilizaron para entrenar sus modelos más potentes, GPT-4 y Gemini, respectivamente, pero un informe del servicio de investigación del Congreso sobre la orden ejecutiva sugiere que 1026 FLOPS es ligeramente superior a lo que se utilizó para entrenar a GPT-4.
Raimondo también confirmó que el Departamento de Comercio aplicará en breve otro requisito de la orden ejecutiva de octubre que exige a los proveedores de computación en nube, como Amazon, Microsoft y Google, que informen al gobierno cuando una empresa extranjera utilice sus recursos para entrenar un gran modelo de lenguaje. Los proyectos extranjeros deberán ser informados cuando crucen el mismo umbral inicial de 100 octillones de fallos.
El anuncio de Raimondo se produjo el mismo día en que Google anunció la publicación de nuevos datos que ponen de relieve la destreza de su último modelo de inteligencia artificial, Gemini, que supera a GPT-4 de OpenAI en algunas pruebas de referencia del sector. Es posible que el Departamento de Comercio reciba un aviso anticipado del sucesor de Gemini, si el proyecto utiliza una cantidad suficiente de los amplios recursos de computación en nube de Google.
Los rápidos avances en el campo de la IA el año pasado llevaron a algunos expertos y ejecutivos a pedir una pausa temporal en el desarrollo de cualquier cosa más potente que GPT-4, el modelo utilizado actualmente para ChatGPT.
¿Modelos de lenguaje más pequeños?
Samuel Hammond, economista jefe de la Fundación para la Innovación Americana, un grupo de reflexión, asegura que un reto clave para el gobierno federal es que un modelo no tiene por qué superar necesariamente un umbral de cálculo en el entrenamiento para ser potencialmente peligroso.
Dan Hendrycks, director de la organización sin fines de lucro, Center for AI Safety, destaca que el requisito es proporcionado dados los recientes avances en IA y la preocupación por su poder. "Las empresas están gastando muchos miles de millones en entrenamiento de IA, y sus directores ejecutivos advierten de que la IA podría ser superinteligente en los próximos dos años", afirma. "Parece razonable que el gobierno esté al tanto de lo que traman las empresas de IA".
Anthony Aguirre, director ejecutivo del Future of Life Institute, una organización sin fines de lucro dedicada a garantizar que las tecnologías transformadoras beneficien a la humanidad, está de acuerdo. "Hasta ahora, se están llevando a cabo experimentos gigantescos con supervisión o regulación externa prácticamente nula", señala, y añade: "Informar sobre esos entrenamientos de IA y las medidas de seguridad relacionadas es un paso importante. Pero hace falta mucho más. Hay un fuerte acuerdo bipartidista sobre la necesidad de regular la IA, y esperemos que el Congreso pueda actuar pronto al respecto."
Raimondo apuntó en el evento de la Institución Hoover que los Institutos Nacionales de Estándares y Tecnología (NIST) están trabajando para definir estándares para probar la seguridad de los modelos de IA como parte de la creación de un nuevo Instituto de Seguridad de IA del gobierno estadounidense. Determinar el grado de riesgo de un modelo de IA suele implicar sondearlo para tratar de evocar comportamientos o resultados problemáticos, un proceso conocido como "red teaming".
Raimondo comentó que su departamento está trabajando en unas directrices que ayudarán a las empresas a comprender mejor los riesgos que pueden acechar a los modelos que están incubando. Estas directrices podrían incluir formas de garantizar que la IA no pueda utilizarse para cometer abusos contra los derechos humanos, sugirió.
La orden ejecutiva de octubre sobre IA da como plazo hasta el 26 de julio para que el NIST establezca esas normas, pero algunos de los que trabajan con la agencia opinan que carece de los fondos o los conocimientos necesarios para hacerlo adecuadamente.
Fuente: