Seguro que habéis visto a Jim Carrey imitando a Jack Nicholson en El Resplandor, o a la demócrata estadounidense Nancy Pelosi dando un discurso completamente borracha. Es muy probable que también sepáis que se trata de vídeos fake, pero puede que no tengáis muy claro cómo se hace o el riesgo que conlleva.

Se trata de vídeos generados por inteligencia artificial, en los que se generan sombras y texturas que se acoplan al rostro y mueven los labios al ritmo de una voz que también puede imitar la del personaje real.

Es decir, que gracias a la tecnología podríamos poner a cualquier persona haciendo cualquier cosa y que los usuarios que vieran el vídeo no pudieran notar que se trata de un montaje. Imaginad las consecuencias hasta que se demuestre (y se difunda) que lo que se vio era mentira.

El término deepfake fue recogido en el reciente informe de Tendencias 2020 de la firma de ciberseguridad Eset. Desde la perspectiva de Jake Moore, especialista de seguridad de Eset en el Reino Unido, «es necesario crear algo que actúe como antídoto y sea capaz de detectarlos sin depender únicamente de la intuición humana”.

En opinión del abogado forense Endrick van Axel: “Vamos a ver consecuencias en personas que resultan ser suplantadas porque es una tecnología que llega de forma fácil a las manos de los usuarios, pero también podría llegar a derivar en daños a infraestructura crítica. Si sale un video de engaño de una cuenta influyente en redes sociales, podrían difundirse falsos comunicados y generar pánico en una ciudad”.

Otra firma que augura que la desinformación no va a la baja es Kaspersky. Según Claudio Martinelli, director para America Latina, en 2020 se espera que las redes sociales sean usadas para intentos de manipulación de la opinión pública. “Los Deepfakes son una amenaza que pueden agravar las fake news”, dijo.

De hecho, en China ya se han prohibido los deepfakes en los que se haga burla al régimen o a sus figuras políticas.

¿No podremos fiarnos de ningún material audiovisual que nos llegue? La respuesta dependerá de si se consigue una tecnología capaz de contrarrestar este nuevo método de engaño, de forma que solo se pueda usar con fines de ocio y siempre dejando claro que no se trata de algo real.