PLUMA INVITADA
La Casa Blanca intenta encontrar el equilibrio entre el potencial y los peligros de la IA
¿Cómo se regula algo que puede ayudar, pero también dañar a las personas, algo que toca todos los sectores de la economía y cambia a un ritmo tan acelerado que ni siquiera los expertos pueden llevarle el paso?
' Si tardan mucho en regular la IA, podrían perder oportunidad de hacer algo para evitar posibles peligros.
Kevin Roose
Este ha sido el principal reto de los gobiernos en el tema de la inteligencia artificial.
Si tardan mucho en regular la IA, podrían perder la oportunidad de hacer algo para evitar los posibles peligros y malos usos de la tecnología que representan un gran riesgo.
Si reaccionan con demasiada rapidez, corren el riesgo de redactar normas nocivas o perjudiciales, reprimir la innovación o terminar en la misma posición que la Unión Europea. Esta unión de naciones dio a conocer su primera Ley de IA en 2021, justo antes del surgimiento de una ola de nuevas herramientas de IA generativa que volvió obsoleta a gran parte de esa legislación (aunque la propuesta, que todavía no se ha aprobado, se modificó posteriormente para incluir con calzador parte de la nueva tecnología, todavía es un poco extraña).
El 30 de octubre, la Casa Blanca anunció su propio proyecto para regir el acelerado mundo de la IA: una orden ejecutiva de amplia aplicación que les impone nuevas normas a las empresas e instruye a varias agencias federales que comiencen a establecer salvaguardas en torno a la tecnología.
El gobierno de Biden, al igual que otras administraciones, ha estado bajo gran presión para tomar medidas con respecto a la tecnología desde finales del año pasado, cuando ChatGPT y otras aplicaciones de IA generativa aparecieron intempestivamente en la conciencia pública. Las empresas de inteligencia artificial han enviado a sus ejecutivos a presentar testimonios frente al Congreso e informarles a los legisladores cuáles son las promesas y los inconvenientes de la tecnología, mientras que algunos grupos activistas han instado al gobierno federal a tomar medidas enérgicas para evitar los usos peligrosos de la IA, como la fabricación de nuevas ciberarmas y la generación de imágenes ultrafalsas engañosas por computadora.
Además, en Silicon Valley ha estallado una batalla cultural: algunos investigadores y expertos instan a la industria de la inteligencia artificial a bajar el ritmo, mientras que otros desean que aceleren a toda potencia.
La orden ejecutiva del presidente Joe Biden busca una ruta en el punto medio, que permita el desarrollo de la IA sin grandes perturbaciones, pero con algunas normas moderadas, y que además comunique que el gobierno federal está decidido a mantener bien vigilada a la industria de la IA en los próximos años. En contraste con las redes sociales, tecnología a la que se le permitió crecer sin restricciones durante más de una década antes de que los reguladores mostraran algún interés en ella, esta orden muestra que el gobierno de Biden no tiene la menor intención de dejar a la inteligencia artificial pasar desapercibida.
La orden ejecutiva íntegra, formada por más de 100 páginas, parece tener algo casi para todos.
Los interesados en la seguridad de la IA más inquietos, como aquellos que firmaron una carta abierta este año que aseveraba que la IA representa un “riesgo de extinción” semejante a una pandemia o a las armas nucleares, estarán satisfechos al saber que la orden les impone nuevos requisitos a las empresas que construyen sistemas potentes de inteligencia artificial.
En particular, las empresas que fabrican los mayores sistemas de IA le deberán notificar al gobierno sus pruebas de seguridad y compartir sus resultados antes de lanzar modelos al público.
Estos requisitos de información serán aplicables a los modelos que superen un nivel específico de potencia de computación (enteros superiores a los 100 cuatrillones u operaciones de coma flotante, por si tienen curiosidad) que muy probablemente incluirán modelos de siguiente generación desarrollados por OpenAI, Google y otras grandes empresas dedicadas a desarrollar tecnología de inteligencia artificial.
Estos requisitos se harán valer en virtud de la Ley de Producción para la Defensa, una legislación de 1950 que le otorga al presidente autoridad amplia para obligar a las empresas estadounidenses a apoyar acciones consideradas importantes en materia de seguridad nacional. Esto podría darles a estas instrucciones cierta fuerza que no tenían los compromisos voluntarios anteriores del gobierno relativos a la IA.
Además, la orden les exige a los proveedores de servicios en la nube que les rentan computadoras a los desarrolladores de IA (lista que incluye a Microsoft, Google y Amazon) darle información al gobierno sobre sus clientes extranjeros. No solo eso, también instruye al Instituto Nacional de Estándares y Tecnología preparar pruebas estandarizadas para medir el desempeño y la seguridad de los modelos de inteligencia artificial.
La orden ejecutiva también contiene algunas disposiciones que dejarán complacido al grupo que defiende la ética en la inteligencia artificial (integrado por activistas e investigadores preocupados por los daños a corto plazo de la IA, como sesgos y discriminación, y que piensan que los temores sobre una extinción a largo plazo debido a la IA son exagerados).
En particular, la orden indica que las agencias federales deben tomar medidas para evitar que se aprovechen los algoritmos de la inteligencia artificial para exacerbar la discriminación en programas de vivienda, prestaciones federales y el sistema de justicia penal. También le asigna al Departamento de Comercio la tarea de crear una guía para incluir una marca de agua digital en el contenido generado por IA, lo que podría ayudar a tomar medidas enérgicas contra la propagación de desinformación generada por inteligencia artificial.
¿Pero qué piensan al respecto las empresas de IA, a quienes van dirigidas estas normas? Varios ejecutivos con los que hablé el lunes parecían aliviados porque la orden de la Casa Blanca no les exige registrarse y obtener una licencia para entrenar modelos grandes de IA, una propuesta que algunos miembros de la industria habían criticado por considerarla draconiana. Tampoco les exigirá retirar del mercado ninguno de sus productos actuales ni los obligará a revelar el tipo de información que han tratado de mantener privada, como el tamaño de sus modelos y los métodos empleados para entrenarlos.
Tampoco intenta reducir el uso de datos protegidos por derechos de autor para entrenar a los modelos de IA, una práctica común que ha sido blanco de ataques por parte de artistas y otros trabajadores creativos en meses recientes y se encuentra en proceso de juicio ante los tribunales.
Es más, las empresas tecnológicas se verán beneficiadas, ya que la orden busca flexibilizar las restricciones migratorias y optimizar el proceso de solicitud de visa para los trabajadores con conocimientos especializados en IA como parte de un impulso nacional “de talento en IA”.
Por supuesto, no todos estarán encantados. Quizá a los activistas con posturas radicales en cuanto a la seguridad les gustaría que la Casa Blanca hubiera fijado límites más estrictos en torno al uso de los grandes modelos de IA o bloqueado el desarrollo de modelos de código abierto, cuyo código cualquiera puede descargar y usar libremente. Y a algunos entusiastas adeptos de la IA quizá les moleste que el gobierno haga siquiera algo para limitar el desarrollo de una tecnología que consideran buena en general.
Pero la orden ejecutiva parece lograr un equilibrio conveniente entre el pragmatismo y la cautela y, en vista de que el Congreso no ha aprobado normas integrales aplicables a la IA, parece que serán las salvaguardas más claras que tendremos en el futuro próximo.
*©2023 The New York Times Company