Joseph Turow dice que absolutamente de ninguna manera. Turow, profesor de la Escuela de Comunicación Annenberg de la Universidad de Pensilvania, investigó tecnologías como Alexa para su nuevo libro, “The Voice Catchers”. Él concluyó que debería prohibírsele a las empresas poder analizar lo que decimos y cómo sonamos para recomendar productos o personalizar mensajes publicitarios.
La sugerencia de Turow es importante porque la elaboración de perfiles de personas en función de sus voces no es muy común. O no lo es todavía. Pero Turow está incitando a los legisladores y al público a hacer algo que él desearía que hiciéramos con más frecuencia: tener cuidado y consideración sobre cómo usamos una tecnología avanzada antes de que pueda implementarse para decisiones importantes.
Después de años de investigar la evolución de las actitudes de los estadounidenses sobre nuestro caudal digital de datos personales, Turow dijo que algunos usos de la tecnología presentaban altos riesgos y pocas ventajas, por lo que deberían detenerse antes de que se volvieran importantes.
En este caso, a Turow le preocupa que las tecnologías de voz, incluidas Alexa y Siri de Apple, se transformen de mayordomos digitales a una suerte de adivinos que utilizan el sonido de nuestras voces para resolver detalles íntimos como nuestro estado de ánimo, deseos y condiciones médicas. En teoría, algún día podrían ser utilizados por la policía para determinar quién debería ser arrestado o por los bancos para decidir quién es digno de una hipoteca.
“Usar el cuerpo humano para discriminar entre las personas es algo que no deberíamos hacer”, dijo.
Algunos entornos empresariales, como los centros de llamadas, ya lo están haciendo. Si las computadoras evalúan que suenas enojado por teléfono, es posible que transfieran tu llamada a operadores que se especializan en calmar a la gente. Spotify también ha revelado una patente sobre tecnología para recomendar canciones basadas en señales de voz a partir de las emociones, la edad o el género del hablante. Amazon ha dicho que Halo, su brazalete y servicio para la supervisión de salud, analizará “la energía y la positividad en la voz de un usuario” para impulsar a las personas a mejorar las comunicaciones y las relaciones.
Turow dijo que no quería impedir los usos potencialmente útiles para los perfiles de voz, por ejemplo, para evaluar a las personas con condiciones de salud graves, incluido el coronavirus. Pero hay muy poco beneficio para nosotros, dijo, si las computadoras usan inferencias de nuestro discurso para vendernos jabón lavaplatos.
“Tenemos que prohibir la creación de perfiles de voz con fines de mercadeo”, me dijo Turow. “No hay utilidad para el público. Estamos creando otro conjunto de datos que la gente no tiene ni idea de cómo se está utilizando”.
Turow está aprovechando un debate sobre cómo tratar la tecnología que podría tener enormes beneficios, pero también desventajas que quizás no podamos prever. ¿El gobierno debería tratar de promulgar lineamientos y regulaciones con respecto a la tecnología avanzada antes de que sea de uso generalizado, como está sucediendo en Europa, o dejar que se desarrolle, a menos que suceda algo malo?
Lo complicado es que, cuando las tecnologías como el software de reconocimiento facial o los viajes en auto con solo presionar el botón de un teléfono inteligente se vuelven frecuentes, es más difícil retirar las funciones que resultan ser dañinas.
No sé si Turow tiene razón al advertir sobre el uso de nuestros datos de voz para mercadeo. Hace unos años, se habló mucho de que la voz se convertiría en una forma importante en la que compraríamos y aprenderíamos sobre nuevos productos. Pero nadie ha demostrado que las palabras que les decimos a nuestros artilugios sean pronosticadores efectivos de cuál camioneta compraremos.
Le pregunté a Turow si las personas y los reguladores gubernamentales deberían preocuparse por los riesgos hipotéticos que tal vez nunca ocurran. Es posible que leer nuestras mentes a partir de nuestras voces no funcione en la mayoría de los casos, y realmente no necesitamos asustarnos por más cosas.
Turow reconoció esa posibilidad. Pero acepté su argumento de que vale la pena iniciar una conversación pública sobre lo que podría salir mal con la tecnología de voz y decidir juntos dónde están nuestros límites colectivos, antes de que se crucen.
This article originally appeared in The New York Times.