Twitter ha emprendido una auténtica batalla contra los 'deepfakes', 'shallowfakes' o contenidos audiovisuales manipulados. Lejos de una predicción distópica propia de Black Mirror, lo cierto es que la tecnología actual ya permite la creación de contenidos hiperrealistas gracias al 'machine learning'. Simplificando, se recaban grandes volúmenes de datos para entrenar al algoritmo que aprenderá a recrear virtualmente la voz, la imagen e incluso los gestos de una persona. Se crea así una suerte de 'alter ego' virtual cuya voluntad queda al antojo de un tercero que, en ocasiones, puede no tener buenas intenciones.
En la actualidad la precisión de esta tecnología depende en gran medida de la existencia de datos suficientes para entrenar el software que debe crear el contenido manipulado, siendo especialmente apta cuando el objetivo es un personaje público. ¿Por qué? Porque existen multitud de vídeos públicos que permiten alimentar a los sistemas de inteligencia artificial. No es casualidad que los primeros contenidos manipulados hayan tenido como objetivo a políticos como Barak Obama o Donald Trump. La versión nacional la tenemos en el video viral en el que los principales candidatos a las elecciones generales aparecían caracterizados como los miembros del memorable “Equipo A”. En este ámbito los deepfakes pueden resultar molestos, pero no son peligrosos. La audiencia sabe perfectamente que se trata de un contenido manipulado. En general, estas conductas encajan en el ámbito de la parodia, bien tolerado en nuestra tradición jurídica desde el reconocimiento del animus iocandi por el Derecho Romano.
Distinta es la situación cuando la finalidad del deepfake sirve a fines más turbios. Por ejemplo, el uso de deepfakes de personajes con relevancia pública (e.g. políticos, empresarios…) con el objetivo de lanzar información falsa o engañosa susceptible de manipular a la opinión pública. En España no contamos con una normativa específica para combatir los deepfakes, pero sí cabe acudir al marco jurídico aplicable a los procesos de comunicación tradicionales. En el ámbito penal contamos con los delitos de calumnias e injurias, así como con los delitos contra la intimidad y el derecho a la propia imagen, la coacción, las amenazas y/o la integridad moral. En la vía civil cabe acudir a la Ley Orgánica 1/1982 de 5 de mayo de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen, a la normativa de protección de datos de carácter personal y a la normativa de competencia desleal. La posibilidad de acudir a los tribunales debe analizarse caso por caso, aunque la vía judicial puede no ser recomendable en aquellos supuestos en los que no pueda identificarse al autor o el componente internacional sea excesivamente complejo.
Consciente de lo anterior, la Comisión Europea ha puesto el foco en las redes sociales (Plan de acción contra la desinformación), exigiendo su colaboración para combatir la proliferación de la manipulación informativa. En este contexto, Twitter ha impulsado medidas voluntarias para frenar la publicación y difusión de deepfakes. El primer paso fue lanzar una consulta a sus usuarios en octubre de 2019, consulta que ha tenido como resultado la implementación de la Política relativa a los contenidos multimedia falsos y alterados, que comenzará a aplicarse el 5 de marzo de 2020. La regla básica para los usuarios de Twitter es la siguiente:
“Está prohibido compartir, con la intención de engañar, contenido multimedia falso o alterado que pueda dar lugar a daños graves. Asimismo, es posible que etiquetemos los Tweets que incluyen contenido multimedia falso y alterado para ayudar a los usuarios a comprender su autenticidad y para ofrecer más contexto”.
En resumen, bajo su nueva política Twitter se reserva el derecho de:
Junto con el etiquetado de los deepfakes detectados, Twitter se reserva el uso de otras medidas, como mostrar advertencias a los usuarios antes de que compartan el tuit o den un “Me gusta” al contenido, reducir la visibilidad del tuit, prevenir recomendaciones o proporcionar explicaciones adicionales sobre el contenido, llegando incluso a redireccionar a los usuarios a otras páginas que les proporcionen más contexto.
No es una tarea sencilla, y la interpretación de conceptos abiertos a la hora de determinar la existencia de manipulación o la intencionalidad de los autores puede resultar especialmente problemática. No obstante, la implementación de esta nueva política responde a las preocupaciones de la Comisión Europea y de los propios usuarios de Twitter.
Cristina Mesa, asociada principal del Departamento de Propiedad Industrial e Intelectual de Garrigues.