Los miembros del Congreso quieren regular la inteligencia artificial, y Big Tech está observando y presionando.
El líder de la mayoría del Senado, Charles E. Schumer (DN.Y.), lanzó un gran impulso a la regulación de la IA a finales del mes pasado, prometiendo a sus colegas audiencias y una serie de “foros de información sobre la IA” que traerán a los mejores expertos en IA a Washington y eventualmente conducirán a la elaboración de un proyecto de ley.
Durante los próximos meses, los miembros del Congreso, de los cuales solo unos pocos tienen experiencia técnica, tendrán que elegir si adoptar un marco regulatorio estricto para la IA o un sistema que se dedique más a los intereses tecnológicos. Los legisladores demócratas y republicanos tendrán que lidiar con la abrumadora tarea de aprender sobre la tecnología en rápido desarrollo y con el hecho de que incluso los expertos no están de acuerdo sobre cómo deberían ser las regulaciones de IA.
Los miembros del Congreso del área de Silicon Valley de California, incluidos los representantes Zoe Lofgren (D-San José), Ro Khanna (D-Fremont) y Anna G. Eshoo (D-Menlo Park), están atrapados en un lío particular. Los tres son demócratas y apoyan la idea de regular las empresas tecnológicas.
Pero esas empresas son los motores económicos de los distritos del trío, y muchos de sus constituyentes trabajan en la industria. Si se mueven demasiado despacio, podrían alienar a la base nacional de su partido, especialmente a los sindicatos que se preocupan por la eliminación de puestos de trabajo por parte de la IA. Muévase demasiado rápido y podría dañar su posición en casa y crear enemigos poderosos en el proceso.
Los intereses tecnológicos, especialmente OpenAI, la organización sin fines de lucro (con una corporación subsidiaria con fines de lucro) que creó ChatGPT, han pasado a la ofensiva en Washington, abogando por regulaciones que eviten que la tecnología represente una amenaza existencial para la humanidad. Se han involucrado en una ola de cabildeo: según un análisis de OpenSecrets, que rastrea el dinero en la política, 123 empresas, universidades y asociaciones comerciales gastaron un total de $ 94 millones en cabildeo del gobierno federal en temas que incluyen la IA en el primer trimestre de 2023.
Sam Altman, el director ejecutivo de OpenAI de 38 años, se ha reunido recientemente con al menos 100 legisladores en Washington, y OpenAI está a la caza de un cabildero principal en el Congreso.
La oficina de medios de OpenAI no respondió a una solicitud de comentarios sobre la posición de la empresa sobre la regulación federal de la IA. Pero en un testimonio escrito ante el Comité Judicial del Senado, Altman escribió que la regulación de la IA “es esencial” y que OpenAI está “ansioso por ayudar a los legisladores a determinar cómo facilitar la regulación que equilibre el incentivo de la seguridad y garantice que las personas puedan acceder a los beneficios de la tecnología”.
Sugirió ideas generales: las empresas de IA deberían adherirse a “un conjunto apropiado de requisitos de seguridad”, lo que podría implicar un sistema de registro o licencia administrado por el gobierno. OpenAI está “comprometiendo activamente con los formuladores de políticas de todo el mundo para ayudarlos a comprender nuestras herramientas y discutir las opciones regulatorias”, testificó.
Los miembros del Congreso deberían cultivar un saludable escepticismo sobre lo que escuchan sobre la regulación de la IA por parte de los intereses tecnológicos, dijo Marietje Schaake, becaria de política internacional en el Instituto de Inteligencia Artificial centrada en el ser humano de Stanford y ex miembro del parlamento europeo. “Todas y cada una de las sugerencias que provienen de las partes interesadas clave, como las empresas, deben verse a través de la lente de: ¿Qué significará para sus ganancias?” ella dijo. “¿Qué significará para sus resultados finales? La forma en que se enmarcan las cosas revela el interés del mensajero”.
Schaake expresó su preocupación de que cuando Altman y otros advierten sobre las amenazas existenciales de la IA, están poniendo el enfoque regulatorio en el horizonte, en lugar del presente. Si a los legisladores les preocupa que la IA acabe con la humanidad, están pasando por alto las preocupaciones más inmediatas y menos dramáticas.
Los jugadores poderosos de Big Tech actualmente tienen “un fetiche por la regulación”, que “no puede evitar golpear a varias personas en Washington como un intento apenas velado de absolverse de las consecuencias sociales de lo que están haciendo”, una fuente familiarizada con el compromiso del Congreso de las empresas de inteligencia artificial, que solicitó el anonimato para hablar con franqueza sobre conversaciones privadas, dijo a The Times. “Desafortunadamente, existe una dinámica peligrosa en juego entre los miembros del Congreso que confiarán en expertos técnicos”.
Las conversaciones de la fuente con informantes de Washington revelaron una deferencia hacia Altman.
“He tenido varias personas de alto nivel en Washington, personas que escuchan a miembros del Congreso y dicen algo como: ‘Bueno, Sam parece un buen tipo. Y ciertamente salió bien en la audiencia, así que tal vez simplemente dejemos que se desarrolle’”.
Públicamente, los miembros del Congreso dicen que redactarán leyes independientemente de los intereses tecnológicos. En las salas de audiencias del Capitolio, los legisladores siguen siendo los interrogadores y los expertos de la industria son los interrogados. Lofgren, miembro de alto rango en el Comité de Ciencia, Espacio y Tecnología de la Cámara de Representantes, le dijo a The Times que los intereses tecnológicos no la han presionado sobre el alcance de las regulaciones de IA.
“Diré esto: ninguna empresa de tecnología me ha presionado sobre qué hacer”, dijo Lofgren. “Y no he oído hablar de ningún otro miembro del Congreso que haya sido presionado por eso”.
Robin Swanson, un defensor de la regulación tecnológica que ha gestionado campañas a favor de las leyes de privacidad en todo el estado, elogió a los representantes de Lofgren en Silicon Valley, Eshoo y Khanna, por sus posiciones políticas proactivas sobre el tema.
Schumer enfatizó que no quiere que las empresas tecnológicas redacten las reglas.
“Las personas del sector privado no pueden hacer el trabajo de proteger a nuestro país”, dijo Schumer en un discurso en el que anunció su visión del enfoque del Senado sobre la IA. “Aunque muchos desarrolladores tengan buenas intenciones, siempre habrá actores deshonestos, empresas sin escrúpulos, adversarios extranjeros que buscarán hacernos daño. Es posible que las empresas no estén dispuestas a insertar barandillas por su cuenta, ciertamente no si sus competidores no se ven obligados a hacerlo. Es por eso que estamos aquí hoy. Creo que el Congreso debe unirse a la revolución de la IA”.
Pero los intereses tecnológicos tienden a emplear cabilderos hábiles que pueden influir en los efectos de una política con modificaciones menores, dijo Swanson. Cuando trabajaba en nombre de la Ley de Privacidad del Consumidor de California, los intereses del sector tecnológico pidieron un cambio en solo siete palabras en la legislación larga y compleja.
Esa edición de siete palabras, dijo Swanson, habría frustrado el propósito del acto.
“Ciertamente tienen personas muy inteligentes y astutas de su lado que conocen la tecnología lo suficientemente bien como para saber dónde esconder los productos”, dijo a The Times. “Así que tenemos que tener personas igualmente expertas que realmente se preocupen por la privacidad y las barandillas de nuestro lado”.
Lofgren no parecía preocupado. Ella cree que sus colegas necesitan una comprensión más firme de la tecnología antes de sentarse a escribir políticas. Ella ha abogado por la paciencia en el proceso.
“No creo que estemos en condiciones de saber qué hacer”, dijo Lofgren. “Y creo que es importante tener una idea de qué hacer antes de hacerlo. Esta tecnología se está moviendo a un ritmo rápido. Así que no tenemos tiempo interminable. Pero tenemos suficiente tiempo para tratar de averiguar lo que estamos haciendo antes de salir corriendo y potencialmente hacer algo estúpido”.
El Congreso tomará la iniciativa en la regulación de la IA, insistió.
“Es nuestra responsabilidad escribir lo que sea que vayamos a escribir”, dijo Lofgren.
Las propias oficinas del Congreso parecen preocupadas por la tecnología de IA. La Cámara está imponiendo nuevas medidas de protección sobre cómo sus empleados usan modelos de lenguaje grandes como ChatGPT. Las oficinas solo pueden usar ChatGPT Plus, que es una versión premium paga que incluye funciones de privacidad adicionales. Axios informó sobre las nuevas pautas la semana pasada.
Khanna, quien se inclina hacia su personaje como “el congresista de Silicon Valley”, dijo a The Times en un comunicado que los legisladores deberían trabajar con especialistas en ética de IA en su distrito para garantizar que se produzca una legislación segura.
“Las nuevas empresas en mi distrito están a la vanguardia de la investigación y el desarrollo de IA innovadores, enfrentando desafíos complejos y logrando avances notables para mejorar vidas y preservar nuestro planeta”, dijo Khanna. “El Congreso debe elaborar una legislación inteligente para regular la ética y la seguridad de la IA que no sofoque la innovación”.
Al competir para regular la IA, los legisladores podrían perder la oportunidad de abordar algunos de los peligros menos obvios de la tecnología. Los algoritmos de aprendizaje automático a menudo están sesgados, explicó Eric Rice, quien fundó el Centro para la IA en la sociedad de la USC. Hace varios años, los investigadores descubrieron que un popular algoritmo de predicción de riesgos de atención médica tenía sesgos raciales, y los pacientes negros recibían puntajes de riesgo más bajos.
En sus conversaciones sobre IA, dijo Rice, los legisladores deberían considerar cómo la tecnología podría afectar la equidad y la justicia.
“Queremos asegurarnos de que no estamos utilizando sistemas de inteligencia artificial que perjudiquen a las personas negras o que perjudiquen a las mujeres o perjudiquen a las personas de las comunidades rurales”, agregó Rice. “Creo que esa es una pieza del rompecabezas de la regulación”.
A medida que las empresas de tecnología innovan rápidamente, el Congreso avanza lentamente en casi todo. El Senado está votando con menos frecuencia que en el pasado y está tardando mucho en hacerlo. En la Cámara, el Freedom Caucus de extrema derecha ha debilitado el control de los republicanos sobre el orden y la dirección del proceso legislativo.
Los analistas no están seguros de si la polarización política dentro del Congreso o entre los estadounidenses afectará el progreso de las discusiones sobre IA. El debate aún no parece particularmente partidista, en parte porque la mayoría de las personas no saben dónde se encuentran: una encuesta de Morning Consult dice que el 10% de los estadounidenses piensa que la producción de IA generativa es “muy confiable”, el 11% piensa que es ” nada de confianza”, y el 80% no se decide. Además, los legisladores parecen estar avanzando de manera bipartidista; El representante demócrata Ted Lieu de Torrance y el representante republicano Ken Buck de Colorado presentaron un proyecto de ley junto con Eshoo que establecería una Comisión Nacional de Inteligencia Artificial.
El presidente Biden tiene su propio interés en proteger a los estadounidenses de los daños potenciales de la IA. Como presidente prosindical autoproclamado, Biden debe responder a los sindicatos de todo el país que se preocupan de que la tecnología pueda eliminar los puestos de trabajo de los trabajadores. Los funcionarios de la Casa Blanca se reunieron el lunes con los líderes sindicales para discutir este tema y concluyeron que “el gobierno y los empleadores deben colaborar con los sindicatos para comprender completamente los riesgos para los trabajadores y cómo mitigar de manera efectiva los daños potenciales”, según un comunicado de prensa de la Casa Blanca.
Tanto los demócratas como los republicanos apoyan las regulaciones que obligarían a las empresas a etiquetar las creaciones de IA como tales, según las encuestas de Morning Consult. También acuerdan prohibir la IA en los anuncios políticos. En general, el 57 % de los demócratas y el 50 % de los republicanos piensan que el desarrollo de la tecnología de IA debería estar “fuertemente regulado” por el gobierno.
Pero “regulación” por sí sola es una palabra sin sentido, señaló Schaake. Algunas regulaciones intervienen en el mercado mientras que otras facilitan el mercado; algunas regulaciones benefician a las grandes empresas y otras las perjudican.
“Hablar de estar a favor o en contra de la regulación esencialmente no nos dice nada, porque la regulación, y esto es algo de lo que los senadores deben ser muy conscientes, puede llevarlo a cualquier parte”, dijo Schaake.
Ahora que están de acuerdo en la necesidad de una regulación, los legisladores tendrán que ponerse de acuerdo sobre los detalles. La mayoría de las propuestas que salen del Congreso son abstractas: los legisladores quieren establecer comisiones y pagar estudios. Cuando se trata de redactar una regulación, tendrán que ser más específicos: ¿Quieren, como sugiere Altman, establecer un régimen de licencias? ¿Reforzarán las leyes de privacidad de datos para restringir en qué se pueden entrenar los algoritmos?
“El Congreso es lento”, dijo Swanson. “Y el Congreso tiene el potencial de ser víctima del lobo con piel de cordero”. Debido a esto, agregó, los legisladores deben ser transparentes sobre su proceso de formulación de políticas.
Los paneles del Senado de Schumer están programados para comenzar a reunirse en septiembre, y no se aprobará un proyecto de ley en la cámara hasta después de eso. Incluso entonces, los desacuerdos políticos podrían obstaculizar el proceso legislativo.
Mientras tanto, se espera que el mercado de software de IA generativa se multiplique por diez enlos próximos cinco años.