Hace un par de meses, pudimos ver cómo se viralizó una foto del papa Francisco vistiendo un abrigo blanco de Balenciaga, esta foto dio pie a todo tipo de comentarios y memes en redes. Horas después, los medios empezaron a advertir de que esta imagen no era real, sino que había sido generada por IA.
Las aplicaciones basadas en la Inteligencia Artificial vienen siendo una gran herramienta de apoyo a la comunicación desde hace tiempo. Por ejemplo, el filtro AI manga, capaz de convertir una foto de cualquier persona en un personaje de anime, tuvo una enorme acogida por los usuarios de TikTok en 2022. Por su parte, Midjourney también ya lleva un tiempo utilizándose para recrear situaciones y puntos de vista imposibles o caras de personas que nunca han existido (¿alguna vez te has preguntado cómo serían los países del mundo en versión humana?), al igual que apps como Musicfy, capaces de emular la voz de prácticamente todos los artistas y hacerles cantar cualquier canción que se nos ocurra.
Este tipo de contenidos no dejan de ser deepfakes, es decir, archivos de video, imagen o voz manipulados mediante un software de Inteligencia Artificial. Aunque existían desde hace tiempo, hay algo que ha cambiado: ya no son algo “de hackers”. Cualquier persona desde la comodidad de su casa puede acceder y “trastear” con ellos.
A priori podríamos pensar que estas aplicaciones son inocentes, pero todo depende del uso que les dé. El caso del papa solo es la punta del iceberg: hace unas semanas, un rapero manipuló unas fotos de la cantante Rosalía para promocionar su último single y conseguir visitas. Algo que ha sido muy criticado por gran cantidad de artistas y personajes públicos y que, además de las implicaciones morales, deja claro que la IA es una herramienta muy poderosa que debe usarse con responsabilidad.
A la hora de llevar la comunicación digital de una marca, empresa o persona, la IA puede ser el apoyo perfecto para crear contenido audiovisual original o mejorar la calidad de imágenes y vídeos, pero debemos saber dónde está el límite. Imagina, por ejemplo, que una compañía utilizase la imagen de un personaje público y le hiciera creer a sus seguidores que esta persona en cuestión es embajadora de su marca. Esto no solo podría generar todo tipo de reacciones adversas, sino también derivar en una crisis reputacional y e incluso conflictos legales.
¿Qué se está haciendo para regular esto? TikTok, una de las redes en las que más triunfa el contenido generado por este tipo de aplicaciones, ya ha anunciado que prohibirá cualquier medio sintético “que contenga la imagen de una figura privada real” o que enseñe una figura pública que respalde un producto o quebrante otras políticas de la aplicación. Esto significa que no se podrán compartir anuncios con deepfakes famosos o en los que aparezcan supuestamente reproduciendo un discurso de odio, contenido sexual o violencia gráfica.
De momento, es una solución válida para contrarrestar la propagación de bulos y publicidad engañosa, sin que esto repercuta en la enorme posibilidad que la IA ofrece para la creación de contenido en redes. Pero todavía es cuestión de tiempo. Por lo general, todavía es fácil saber cuándo un audio o vídeo es falso, pero según la tecnología avance, es muy probable que cada vez sean más y más difíciles de identificar. Esto podría llevar o bien a la limitación del acceso a la IA o al desarrollo de softwares más sofisticados que sí puedan detectarlos.
El quid de la cuestión es que estas herramientas son cada día más rápidas y sencillas de usar, lo que las ha hecho muy accesibles para el usuario medio de Internet. Y esto tiene sus pros y sus contras. Aunque la Inteligencia Artificial sea una gran aliada para la comunicación digital, debemos tener en cuenta que contribuir a la propagación de fake news y dañar la imagen de cualquier persona o entidad está al alcance de todos. De momento, en nuestra mano queda hacer un uso responsable.