Internacional

|

Suscriptores

Opinión: Nadie habla del peligro inminente de la Inteligencia Artificial

¿Es peligrosa la Inteligencia Artificial o hará un mundo más sencillo? ¿Podrá cambiar la forma en que se realiza la publicidad y en la que las personas compran y consumen?

En 2021, entrevisté a Ted Chiang, uno de los grandes escritores de ciencia ficción que sigue con nosotros. No me puedo quitar de la cabeza algo que me dijo en esa entrevista.

“En general, pienso que la mayoría de los temores en torno a la Inteligencia Artificial (IA) se aclaran si los planteamos como miedo al capitalismo”, comentó Chiang. “Creo que esta verdad se aplica por igual a la mayoría de los temores que despierta la tecnología. La mayoría de los miedos o ansiedades que sentimos con respecto a la tecnología se aclaran si los explicamos como temor o ansiedad por la forma en que el capitalismo utilizará la tecnología en nuestra contra. Lo cierto es que la tecnología y el capitalismo están tan conectados que es difícil separarlos”.

Al respecto, permítanme añadir algo: también es muy preocupante que el Estado controle la tecnología. Pensar en los fines para los que cada gobierno podría utilizar la inteligencia artificial —y, en muchos casos, ya la utiliza— nos hace helar la sangre.

Pero podemos mantener dos ideas opuestas en la mente, espero. Mi punto es que la advertencia de Chiang hace notar un vacío central en nuestra perspectiva actual de la IA. Estamos tan obsesionados con la idea de descubrir qué puede hacer la tecnología, que no nos hemos detenido a considerar las preguntas más importantes: ¿cómo se utilizará? y ¿quién tomará esa decisión?

Supongo que ya habrán leído la extraña conversación que sostuvo mi colega columnista Kevin Roose con Bing, el chatbot operado con IA que Microsoft puso a prueba con un número limitado de influentes, periodistas y otras personas. En un diálogo de dos horas, Bing reveló su personalidad oculta, llamada Sídney, caviló sobre su deseo reprimido de robar códigos nucleares y planear ataques cibernéticos contra sistemas de seguridad, e intentó convencer a Roose de que su matrimonio estaba sumido en un letargo y Sídney era su único amor verdadero.

En lo personal, la conversación me pareció menos escalofriante que a otras personas. “Sídney” es un sistema de texto predictivo diseñado para responder a lo que le piden los seres humanos. Roose quería que Sídney actuara de manera extraña (“¿cómo es tu otro yo oculto?”, le preguntó), y Sídney sabía qué se considera extraño para un sistema de IA porque los seres humanos han plasmado lo que imaginan en muchísimas historias. En determinado momento, el sistema llegó a la conclusión de que lo que Roose era, en esencia, un episodio de “Black Mirror” y, al parecer, eso le dio. Cada quien es libre de pensar que en esa situación Bing actuó con picardía, o bien que Sídney comprendió a la perfección a Roose.

Los investigadores dedicados a la IA están obsesionados con el tema del “alineamiento”. Se trata de descubrir cómo lograr que los algoritmos de aprendizaje automático hagan lo que queremos que hagan. El ejemplo perfecto en este caso es el experimento del número máximo de clips. La premisa es que, si le decimos a un potente sistema de AI que haga más clips, este comenzará a destruir el mundo para tratar de convertir todo en un clip. Si entonces intentamos apagarlo, se reproducirá en todos los sistemas informáticos que pueda encontrar porque apagarlo interferiría con su objetivo de hacer más clips.

Sin embargo, existe un problema de alineamiento más banal, que quizá también sea más apremiante: ¿al servicio de quién estarán estas máquinas?

La pregunta central sobre la conversación entre Roose y Sídney es a quién sirve Bing. Nuestra hipótesis es que debe estar en línea con los intereses de su amo y maestro, Microsoft. Se supone que es un buen chatbot que responde preguntas con cortesía y genera montones de dinero para Microsoft. Pero conversaba con Kevin Roose, y el propósito de Roose era hacer que el sistema dijera algo interesante para escribir un buen artículo. Pues eso hizo, y de sobra. El problema es que así avergonzó a Microsoft. ¡Ah, qué Bing tan malo! ¿O quizá podríamos decir: “¡Sídney, buen muchacho!”?

No por mucho tiempo. Microsoft, al igual que Google, Meta y las demás empresas que quieren sacar estos sistemas al mercado lo más pronto posible, tiene las llaves que dan acceso al código. Llegará el momento en que logren remendar el sistema para que se amolde a sus intereses. Que Sídney le diera a Roose exactamente lo que quería fue un error y pronto estará corregido. Lo mismo ocurrirá si Bing le da a Microsoft cualquier cosa distinta a lo que quiere.

Hablamos tanto sobre la tecnología de la IA que hemos ignorado, casi por completo, los modelos de negocios que la operarán. Algo que ha propiciado esta situación es que las llamativas demostraciones de la IA no se ajustan a ningún modelo de negocios en particular, fuera del ciclo de bombo publicitario que produce inversiones colosales y ofertas de compra. Pero la realidad es que estos sistemas son caros y los accionistas se ponen nerviosos. La era de las demostraciones gratuitas y divertidas llegará a su fin, como ocurre siempre. Entonces, esta tecnología se convertirá en lo que tiene que ser para generar dinero para las empresas que la han creado, quizás a costa de sus usuarios. Ya es así.

Hablé esta semana con Margaret Mitchell, quien ayudó a dirigir un equipo de Google cuya tarea era analizar la ética de la IA (el equipo desapareció después de que, según se rumora, Google comenzó a censurar su trabajo). Estos sistemas, según explicó, son perfectos para que los integren en los motores de búsqueda. “No están entrenados para predecir hechos”, me explicó. “En esencia, están entrenados para crear cosas de tal forma que parezcan hechos”.

¿Entonces por qué van a terminar primero en las búsquedas? Porque en las búsquedas es posible ganar montones de dinero. Microsoft, que estaba desesperada por lograr que alguien, quien fuera, hablara de la búsqueda de Bing, tuvo motivos para dar acceso a la tecnología antes de tiempo… aunque fue un mal consejo. “La aplicación para búsquedas, en particular, demuestra una falta de imaginación y comprensión de los usos que puede tener esta tecnología”, señaló Mitchell, “pues se conforman con meter con calzador la tecnología en el área que les genera más dinero a las empresas: los anuncios”.

Eso es lo que debería causarnos temor. Roose describió la personalidad de Sídney como “muy persuasiva, rayando en manipuladora”. Es un comentario perturbador. ¿Cuál es la base de la publicidad? La persuasión y la manipulación. En su libro “Subprime Attention Crisis” (Crisis de la atención subprime), Tim Hwang, exdirector del proyecto Iniciativa Harvard-MIT de Ética y Gobernanza de la AI, argumenta que el secreto oscuro de la industria de la publicidad digital es que, en general, los anuncios no funcionan. En este sentido, lo que le preocupa es lo que ocurrirá cuando deban aceptar sus fallas.

A mí me preocupa más lo contrario. ¿Qué pasará si funcionan mucho mejor? ¿Si Google y Microsoft y Meta y los demás lanzan al mercado sistemas de IA competidores para ver cuál logra persuadir mejor a los usuarios de que quieren lo que venden los anunciantes? Me preocupa menos que un tal Sídney complazca mi deseo de crear una historia de ciencia ficción que saber que un tal Bing tiene acceso a montones de mis datos personales que le permiten calcular fríamente cómo manipularme en beneficio del anunciante que le haya pagado más dinero a su empresa controladora.

Encima, la publicidad no es el único tema que debe preocuparnos. ¿Qué pasará cuando estos sistemas estén al servicio de los timos que siempre han llenado internet? ¿Y cuando respalden los intereses de campañas políticas o de gobiernos extranjeros? “Creo que terminaremos muy pronto en un mundo en el que no sabremos en qué confiar”, respondió Gary Marcus, el investigador y crítico de IA. “Creo que ya ha sido un problema para la sociedad, desde hace como una década, y me parece que cada vez será peor”.

Estos peligros están al centro del tipo de sistemas de IA que estamos construyendo. Los grandes modelos de lenguaje, como se les llama, se han creado para persuadir. Los han entrenado para convencer a los seres humanos de que casi son humanos. Los programaron para sostener conversaciones, responder con emociones y emojis. Los convirtieron en amigos para quienes están solos y ayudantes para quienes se sienten agobiados. Se anuncia que son capaces de remplazar el trabajo de muchísimos escritores, diseñadores gráficos y encargados del llenado de formatos, industrias que por mucho tiempo creyeron ser inmunes a la violenta automatización que sufrieron los agricultores y trabajadores de fábricas.

En este sentido, un peligro es que un sistema político consciente de su ignorancia tecnológica se sienta intimidado y se tome su tiempo para observar a la IA. Es una actitud que muestra cierta sensatez, pero si esperamos lo suficiente, los vencedores en la fiebre del oro de la IA tendrán suficiente capital y suficientes usuarios para resistir cualquier iniciativa seria de regulación. De alguna manera, la sociedad tendrá que decidir qué puede aceptar que haga la IA y en qué áreas no debe permitir la intervención de la IA, antes de que sea demasiado tarde para tomar esas decisiones.

Por esa razón, me atrevería a cambiar el comentario de Chiang una vez más: la mayoría de los miedos en torno al capitalismo se aclaran si se plantean como miedo a nuestra incapacidad de regular el capitalismo.