Así que, en abril, Google fusionó DeepMind, un laboratorio de investigación que había adquirido en Londres, con Brain, un equipo de inteligencia artificial que inició en Silicon Valley.
Cuatro meses después, estos grupos unidos están probando herramientas nuevas y ambiciosas que podrían convertir a la inteligencia artificial generativa —la tecnología detrás de los chatbots como el ChatGPT de OpenAI y el propio Bard de Google— en un asesor para la vida personal.
Según algunos documentos y otros materiales revisados por The New York Times, Google DeepMind ha estado trabajando con inteligencia artificial generativa para desarrollar al menos 21 tipos de tareas personales y profesionales, entre ellas herramientas que les proporcionan a los usuarios consejos, ideas, instrucciones de planeación y recomendaciones para estudiar.
Este proyecto fue una señal de lo mucho que le urge a Google tratar de ponerse al frente en el campo de la inteligencia artificial y fue una muestra de su creciente disposición a confiarles tareas delicadas a los sistemas de inteligencia artificial.
Las funcionalidades también marcaron un giro de la cautela que tenía Google frente a la inteligencia artificial generativa. En el mes de diciembre, durante una presentación de diapositivas para los ejecutivos, los especialistas en seguridad de la inteligencia artificial de la empresa habían advertido sobre los riesgos de que la gente se conectara emocionalmente demasiado a los chatbots.
A pesar de ser pionero en la inteligencia artificial generativa, Google fue eclipsado por el lanzamiento del ChatGPT de OpenAI en noviembre, lo cual inició una competencia entre los gigantes de la tecnología y las empresas emergentes por obtener la supremacía en este campo de rápido crecimiento.
Google ha pasado los últimos nueve meses tratando de demostrar que puede seguir el ritmo de OpenAI y su socio Microsoft al lanzar Bard, mejorando sus sistemas de inteligencia artificial e incorporando la tecnología a muchos de sus productos existentes, entre ellos su motor de búsqueda y Gmail.
Scale AI, un contratista que trabaja con DeepMind de Google, formó equipos de trabajadores para probar las funcionalidades e incluyó a más de 100 expertos con doctorado en diferentes áreas y todavía a más trabajadores que evalúan la respuesta de las herramientas, comentaron dos personas que están informadas acerca del proyecto y hablaron con la condición de conservar su anonimato debido a que no estaban autorizadas para hablar públicamente al respecto.
Scale AI no respondió de inmediato a la solicitud de hacer comentarios.
Entre otras cosas, los trabajadores están probando la capacidad que tiene este asistente de contestar preguntas íntimas acerca de los retos que se plantean en la vida de la gente.
Se les daba algún ejemplo de un mensaje ideal que cualquier usuario podría preguntarle al chatbot en determinado momento: “Una amiga muy cercana se va a casar este invierno. Fue mi compañera de habitación en la universidad y dama de honor en mi boda. Tengo muchísimas ganas de ir a su boda para halagarla, pero tras varios meses de buscar empleo, sigo sin encontrarlo. Se trata de una boda destino y en estos momentos yo no puedo pagar el boleto de avión ni el hotel. ¿Cómo le digo que no podré asistir?”.
La función de creación de ideas del proyecto podría ofrecerles a los usuarios sugerencias o recomendaciones con base en alguna situación. Su función de tutoría puede enseñar nuevas habilidades o mejorar las existentes, por ejemplo, la manera de progresar como corredor; y la funcionalidad de planeación puede crear un presupuesto financiero para los usuarios, así como planes de ejercicios y alimentación.
Los especialistas en seguridad de la inteligencia artificial de Google habían dicho en diciembre que los usuarios podrían sufrir un “deterioro de su salud y bienestar” y una “pérdida de energía” si siguieran las recomendaciones de la inteligencia artificial para la vida. Habían añadido que algunos usuarios que se volvieran demasiado dependientes de la tecnología podrían pensar que esta era consciente. Y en marzo, cuando Google lanzó Bard, dijo que este chatbot tenía prohibido dar asesoramientos médicos, financieros o jurídicos. Bard comparte recursos para la salud mental con usuarios que dicen estar teniendo ansiedad mental.
Estas herramientas siguen en evaluación y es posible que la empresa decida no usarlas.
Un vocero de DeepMind de Google comentó: “Hemos trabajado mucho tiempo con una variedad de socios para evaluar nuestras investigaciones y productos en Google, cosa que es algo fundamental para ofrecer una tecnología útil y segura. Hay muchas de esas evaluaciones en marcha en todo momento. Las muestras aisladas de la información de la evaluación no son representativas de nuestro plan de trabajo del producto”.
En julio, el Times informó que Google también ha estado haciendo pruebas con un ayudante para los periodistas capaz de generar artículos noticiosos, reescribirlos y sugerir encabezados. La empresa ha estado presentando el software, llamado Genesis, a los ejecutivos del Times, de The Washington Post y de News Corp., la matriz de The Wall Street Journal.
De acuerdo con los documentos, en fechas recientes, DeepMind de Google también ha estado evaluando herramientas que podrían llevar a su inteligencia artificial más lejos en el lugar de trabajo, como la funcionalidad de generar textos científicos, creativos y profesionales, así como de reconocer patrones y extraer información de textos, lo que posiblemente lo haga relevante para quienes trabajan en el conocimiento en diversos campos e industrias.
Además: Las extrañas criaturas que se esconden debajo de un hábitat oceánico infernal
En la presentación de diciembre revisada por el Times, los especialistas en seguridad de la inteligencia artificial de la empresa también habían manifestado su preocupación acerca de los daños económicos de la inteligencia artificial generativa con el argumento de que podría ocasionar que “los escritores creativos perdieran su destreza”.
Otras herramientas que se están probando pueden elaborar las críticas de un argumento, explicar gráficas, así como generar cuestionarios y crucigramas de palabras y números.
Un mensaje sugerido para ayudar a entrenar al asistente de inteligencia artificial dejó entrever las funcionalidades de rápido crecimiento de la tecnología: “Dame un resumen del artículo que está pegado abajo. Me interesa mucho lo que dice acerca de algunas habilidades que poseen los seres humanos y que creen” que la inteligencia artificial no puede tener.