Los así llamados “deepfakes” se crean con la ayuda de la inteligencia artificial (IA) y, cuando se miran o escuchan normalmente, apenas pueden distinguirse de los vídeos o de las grabaciones de voz reales, advierte la Oficina Federal de Seguridad en las Tecnologías de la Información (BSI) de Alemania, que ofrece una nueva página temática en la que explica la tecnología, los procedimientos, los peligros y cómo protegerse.
Las falsificaciones se denominan “deepfakes”, porque los métodos utilizados para crearlas se basan en redes neuronales profundas.
Le puede interesar
¿Cómo protegerse de estos archivos manipulados? El mero hecho de conocer su existencia y las posibilidades de la IA lleva a dejar de confiar ciegamente en la autenticidad de cualquier vídeo o grabación de audio en sí. Siempre es importante cuestionar críticamente ciertas afirmaciones y su plausibilidad.
También puede haber indicios técnicos que permitan desenmascarar las falsificaciones. Según la BSI, puede tratarse de artefactos en las transiciones faciales, contornos borrosos, falta de expresiones faciales o una exposición inconsistente en los vídeos. Un sonido metálico o monótono, una pronunciación incorrecta o una forma de hablar artificial, así como ruidos o retrasos poco naturales, son errores típicos de las falsificaciones de voz.
Según la BSE, en el futuro también podría haber procedimientos criptográficos que vinculen claramente la fuente del material de vídeo o audio con una identidad y permitan de este modo evitar las falsificaciones. Estos incluyen también numerosos métodos para la detección automática de datos manipulados que son actualmente objeto de estudios por parte de la comunidad de científicos, puntualizan los expertos de la entidad.