Siete firmas líderes en inteligencia artificial presentarán nuevas salvaguardas voluntarias diseñadas para minimizar el abuso y el sesgo dentro de la tecnología emergente en un evento el viernes en la Casa Blanca.
Al presidente Biden se unirán ejecutivos de Amazon.com, Alphabet, Meta Platforms, Microsoft y OpenAI, que se encuentran entre las empresas que se comprometen con un compromiso de transparencia y seguridad.
Según el acuerdo, las empresas someterán los nuevos sistemas de inteligencia artificial a pruebas internas y externas antes de su lanzamiento y pedirán a equipos externos que investiguen sus sistemas en busca de fallas de seguridad, tendencias discriminatorias o riesgos para los derechos, la información de salud o la seguridad de los estadounidenses.
Las empresas, incluidas Anthropic e Inflection AI, también están asumiendo nuevos compromisos para compartir información para mejorar la mitigación de riesgos con los gobiernos, la sociedad civil y los académicos, e informar sobre las vulnerabilidades a medida que surgen. Y las principales empresas de inteligencia artificial incorporarán marcas de agua virtuales en el material que generan, ofreciendo una forma de ayudar a distinguir las imágenes y videos reales de los creados por computadoras.
El paquete formaliza y amplía algunos de los pasos que ya están en marcha en las principales empresas de IA, que han visto un inmenso interés público en su tecnología emergente, igualado solo por la preocupación por los riesgos sociales correspondientes.
Nick Clegg, presidente de asuntos globales de Meta, dijo que los compromisos voluntarios fueron un “primer paso importante para garantizar que se establezcan barandillas responsables para la IA y creen un modelo a seguir para otros gobiernos”.
“La IA debería beneficiar a toda la sociedad. Para que eso suceda, estas nuevas y poderosas tecnologías deben construirse e implementarse de manera responsable”, dijo en un comunicado publicado el viernes temprano.
Los asesores de la Casa Blanca dicen que el compromiso ayuda a equilibrar la promesa de la tecnología artificial con los riesgos, y es el resultado de meses de intenso cabildeo tras bambalinas. Muchos de los ejecutivos que se esperaban en la Casa Blanca el viernes asistieron a una reunión con Biden y la vicepresidenta Kamala Harris en mayo, donde la administración advirtió a la industria que era responsable de garantizar la seguridad de su tecnología.
“Tenemos que asegurarnos de que las empresas hagan pruebas de presión de sus productos a medida que los desarrollan y, ciertamente, antes de lanzarlos al mercado, para asegurarnos de que no tengan consecuencias no deseadas, como ser vulnerables a ciberataques o ser utilizados para discriminar a ciertas personas”, dijo en una entrevista el jefe de gabinete de la Casa Blanca, Jeff Zients. “Y lo importante, y verás esto a lo largo de todo el trabajo, es que no pueden calificar su propia tarea aquí”.
Salvaguardias voluntarias
Aún así, el hecho de que los compromisos sean voluntarios ilustra los límites de lo que la administración de Biden puede hacer para alejar los modelos de IA más avanzados de posibles usos indebidos.
Las pautas no prescriben la aprobación de expertos externos específicos para lanzar tecnologías, y las empresas solo están obligadas a informar, en lugar de eliminar, riesgos como un posible uso inapropiado o sesgo. El sistema de marcas de agua aún debe desarrollarse, y puede resultar difícil sellar el contenido de una manera que los actores malignos que buscan sembrar desinformación en Internet no puedan eliminar fácilmente.
Y existen pocos mecanismos más allá de la opinión pública para obligar a los compromisos a utilizar las tecnologías para prioridades sociales como la medicina y el cambio climático.
“Es un objetivo en movimiento”, dijo Zients. “Por lo tanto, no solo tenemos que ejecutar e implementar estos compromisos, sino que tenemos que descubrir la próxima ronda de compromisos a medida que cambian las tecnologías”.
Zients y otros funcionarios de la administración también dicen que será difícil seguir el ritmo de las tecnologías emergentes sin una legislación del Congreso que ayude al gobierno a imponer reglas más estrictas y a dedicar fondos que les permitan contratar expertos y reguladores.
Los asesores describen la preocupación por la inteligencia artificial como una de las principales prioridades del presidente en los últimos meses. Biden menciona con frecuencia el tema en reuniones con asesores económicos, de seguridad nacional y de salud, y ha tenido conversaciones con secretarios del gabinete diciéndoles que prioricen el examen de cómo la tecnología podría interactuar con sus agencias.
En conversaciones con expertos externos, se advirtió a Biden que las redes sociales algorítmicas, como Facebook e Instagram de Meta y TikTok de ByteDance Ltd., ya han ilustrado algunos de los riesgos que podría plantear la inteligencia artificial. Un asesor externo sugirió que el presidente debería considerar el tema similar a la clonación en la década de 1990, que necesita principios y barandillas claros.
La Casa Blanca dijo que consultó con los gobiernos de 20 países antes del anuncio del viernes.
“Creo que todas las partes estaban dispuestas o ansiosas por avanzar lo más rápido posible en esto porque así es como funciona la IA: no puedes dormir con esta tecnología”, dijo el subjefe de personal Bruce Reed.
Sin embargo, todos estos esfuerzos van a la zaga del ritmo de los desarrollos de IA impulsados por la intensa competencia entre los rivales corporativos y por el temor de que la innovación china pueda superar los avances occidentales.
Incluso en Europa, donde la Ley de IA de la UE está muy por delante de cualquier cosa aprobada por el Congreso de los EE. UU., los líderes han reconocido la necesidad de compromisos voluntarios de las empresas antes de que se establezca una ley vinculante. Un funcionario de la Casa Blanca estimó que podrían pasar al menos dos años antes de que las regulaciones europeas comenzaran a afectar a las empresas de inteligencia artificial.
Eso ha dejado a los funcionarios allí también pidiendo a las empresas que se controlen a sí mismas. En reuniones con ejecutivos de tecnología durante los últimos tres meses, Thierry Breton, el comisionado del mercado interno de la Unión Europea, pidió a los desarrolladores de IA que acuerden un “Pacto de IA” para establecer algunas medidas de seguridad no vinculantes.
escritor de Bloomberg jennifer jacobs contribuido a este informe.