A esto debemos agregar el despunte tecnológico que hemos ido evidenciando de forma avasalladora con el auge de bots conversacionales de Inteligencia Artificial (IA) como ChatGPT que han sorprendido por su capacidad de respuesta a cualquier tipo de pregunta.
Aunque parece que la data universal está más cerca de las personas, este avance encuentra cada vez más cuestionamientos por el poder que ha llegado a ceder frente a la creación de contenidos que pueden ser perjudiciales contra las personas, como ha sido el caso de las imágenes “falsas” que se elaboran con la misma IA.
Mediante la información que reciben varios sistemas de Inteligencia Artificial, las personas pueden generar archivos de imágenes estáticas y en movimiento. No obstante, hay una línea delgada entre lo existente y lo novedoso dentro del panorama virtual ya que, a través de las plataformas se pueden crear archivos “falsos” basados en datos e insumos que ya existen.
En 2017, un caso de esta índole saltó al radar internacional cuando se filtró un vídeo engañoso donde el ex mandatario estadounidense Barack Obama hablaba sobre varios de sus supuestos logros presidenciables. Recientemente un grupo de menores residentes en Extremadura, España, fueron vulnerados con imágenes falsas suyas.
Si bien las herramientas que se valen de la IA, han sido desarrolladas bajo la consigna de la estimulación creativa y la apertura a la información, así como a la sistematización de tareas, estas pueden atentar contra la imagen y reputación de las personas cuando se trata de contenidos visuales falsos.
“La tecnología busca habilitar un montón de posibilidades, pero no hay que perder de vista que también implica un riesgo dependiendo de su uso. Podemos encontrar usos inadecuados como esta generación de imágenes”, reflexiona Camilo Gutiérrez Amaya, Jefe de la unidad de investigación en ciberseguridad Awarness & Research de ESET Latinoamérica.
El especialista explica que dinámicas como la creación de archivos falsificados ocurren por los algoritmos de aprendizaje automático que tienen “una capacidad muy importante” para encontrar patrones en inmensos volúmenes de datos. Estos patrones son entrenados para hacer tareas muy puntuales y eficientes.
El riesgo por sextorsión con imágenes falsas
Según apunta Camilo Gutiérrez Amaya, estos hechos se vinculan en la actualidad con la sobre-exposición que hay en el uso de la imagen personal en redes sociales, dado que constantemente se suben fotografías y vídeos a la red social. “El estar rodeados de estos medios hace que haya muchísima más información”, subraya el investigador de ESET.
En ese sentido, Marco Antonio To, director de la maestría en Ciberseguridad de la Universidad Galileo, agrega que el problema de generación de contenido a través de IA es complejo dado a que “al mismo tiempo están abriendo la puerta para que cualquiera pueda tomarlo y modificarlas”.
To remarca que esto no es nuevo. La única distinción, comenta, es que en la actualidad la Inteligencia Artificial hace las modificaciones más creíbles, y por ende, más peligrosas.
Uno de los más grandes peligros a los cuales se puede llegar con esta dinámica tiene que ver con la llamada “sextorsión”, que consiste en una forma de chantaje por la cual una persona -por lo general, un ciberdelincuente-, amenaza a otra en aras de compartir archivos con contenido sexual que le vinculan.
En términos de los avances tecnológicos, la sextorsión puede ocurrir de la mano de la Inteligencia Artificial, ya que los delincuentes generan vídeos o fotografías utilizando material sexual que ya existe y lo modifican con el rostro de sus víctimas.
Recomendaciones para evitar la sextorsión
Por razones como estas es importante reconocer que toda plataforma digital que utilizamos con datos sensibles, incluidas fotografías o piezas de vídeo, pueden llegar a tener un destino perjudicial.
“Cuando las personas se graban o toman fotografías están dando su imagen a la aplicación para que la procese. El hecho de tener acceso a la tecnología es algo buenísimo, pero quizá debemos detenernos a pensar más cuál es el riesgo que estamos afrontando al momento de dar nuestra imagen. Detrás de una plataforma social siempre hay un negocio. No es necesariamente gratuito”, reflexiona Camilo Gutiérrez Amaya.
Más allá de las fotografías o vídeos, las extorsiones en la virtualidad pueden ser más amenazantes si las personas comparten gustos, preferencias, o elementos de su vida, ya que los delincuentes pueden utilizar estos datos para hacer más “creíble” la narrativa de los contenidos falsos.
¿Quiénes están en mayor riesgo en cuanto a las posibles vulneraciones por medio de creación falsa de imágenes? Según apunta Camilo Gutiérrez Amaya, esto irá de la mano de la manera en que se maneje la privacidad desde cada persona.
Por otro lado, el especialista Marco Antonio To recuerda: “Cualquier persona puede ser vulnerada si tiene fotografías o vídeos personales en redes sociales de manera pública, ya que pueden ser tomadas y modificadas por medio de la IA”.
Algunas pautas para evitar la sextorsión recomendadas por los especialistas son las siguientes:
- Revisar las políticas de uso de plataformas de IA: Es importante saber cómo se utilizarán los archivos multimedia que se suben a los sistemas y que son destinados para la generación de contenido. Esto aplica también con las redes sociales.
- Reconocer los permisos que son cedidos: En paralelo se debe reconocer qué implican los permisos que se otorgan a los dispositivos una vez son actualizados. Se debe considerar que eventualmente se podrían ceder datos como ubicación, fotografías, contactos, entre otros.
- Preguntarnos sobre las cosas que compartimos: Previo a difundir contenido es importante saber a quiénes se están compartiendo y la delicadeza o sensibilidad que puedan tener los archivos.
- Limitar eventualmente la presencia en línea: Limitar la cantidad de información personal e imágenes que se comparten en línea, así como tener cuidado con el tipo y la cantidad de datos que comparten en las redes sociales, sitios web u otras plataformas en línea.
- Utilizar la configuración de privacidad: Esto ayudaría a controlar quién puede acceder y utilizar las imágenes. Es importante revisar y ajustar su configuración de privacidad para que los datos personales sean solamente visibles para la audiencia prevista.
- Considerar sellos de agua: En algunos casos se pueden considerar sellos de agua u otras formas de atribución a las imágenes para indicar la propiedad y disuadir el uso no autorizado. Esto puede hacer que sea más difícil que el contenido generado por IA se haga pasar por la persona en cuestión.