Togas.biz

Twitter ha emprendido una auténtica batalla contra los 'deepfakes', 'shallowfakes' o contenidos audiovisuales manipulados. Lejos de una predicción distópica propia de Black Mirror, lo cierto es que la tecnología actual ya permite la creación de contenidos hiperrealistas gracias al 'machine learning'. Simplificando, se recaban grandes volúmenes de datos para entrenar al algoritmo que aprenderá a recrear virtualmente la voz, la imagen e incluso los gestos de una persona. Se crea así una suerte de 'alter ego' virtual cuya voluntad queda al antojo de un tercero que, en ocasiones, puede no tener buenas intenciones.

En la actualidad la precisión de esta tecnología depende en gran medida de la existencia de datos suficientes para entrenar el software que debe crear el contenido manipulado, siendo especialmente apta cuando el objetivo es un personaje público. ¿Por qué? Porque existen multitud de vídeos públicos que permiten alimentar a los sistemas de inteligencia artificial. No es casualidad que los primeros contenidos manipulados hayan tenido como objetivo a políticos como Barak Obama o Donald Trump. La versión nacional la tenemos en el video viral en el que los principales candidatos a las elecciones generales aparecían caracterizados como los miembros del memorable “Equipo A”. En este ámbito los deepfakes pueden resultar molestos, pero no son peligrosos. La audiencia sabe perfectamente que se trata de un contenido manipulado. En general, estas conductas encajan en el ámbito de la parodia, bien tolerado en nuestra tradición jurídica desde el reconocimiento del animus iocandi por el Derecho Romano.

Distinta es la situación cuando la finalidad del deepfake sirve a fines más turbios. Por ejemplo, el uso de deepfakes de personajes con relevancia pública (e.g. políticos, empresarios…) con el objetivo de lanzar información falsa o engañosa susceptible de manipular a la opinión pública. En España no contamos con una normativa específica para combatir los deepfakes, pero sí cabe acudir al marco jurídico aplicable a los procesos de comunicación tradicionales. En el ámbito penal contamos con los delitos de calumnias e injurias, así como con los delitos contra la intimidad y el derecho a la propia imagen, la coacción, las amenazas y/o la integridad moral. En la vía civil cabe acudir a la Ley Orgánica 1/1982 de 5 de mayo de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen, a la normativa de protección de datos de carácter personal y a la normativa de competencia desleal. La posibilidad de acudir a los tribunales debe analizarse caso por caso, aunque la vía judicial puede no ser recomendable en aquellos supuestos en los que no pueda identificarse al autor o el componente internacional sea excesivamente complejo.

Consciente de lo anterior, la Comisión Europea ha puesto el foco en las redes sociales (Plan de acción contra la desinformación), exigiendo su colaboración para combatir la proliferación de la manipulación informativa. En este contexto, Twitter ha impulsado medidas voluntarias para frenar la publicación y difusión de deepfakes. El primer paso fue lanzar una consulta a sus usuarios en octubre de 2019, consulta que ha tenido como resultado la implementación de la Política relativa a los contenidos multimedia falsos y alterados, que comenzará a aplicarse el 5 de marzo de 2020. La regla básica para los usuarios de Twitter es la siguiente:

“Está prohibido compartir, con la intención de engañar, contenido multimedia falso o alterado que pueda dar lugar a daños graves. Asimismo, es posible que etiquetemos los Tweets que incluyen contenido multimedia falso y alterado para ayudar a los usuarios a comprender su autenticidad y para ofrecer más contexto”.

En resumen, bajo su nueva política Twitter se reserva el derecho de:

  1. Etiquetar los contenidos que hayan sido significativamente alterados. Entre los factores que Twitter aplicará para determinar si un contenido ha sido manipulado se atenderá a indicios que muestren: (i) si el contenido está visiblemente editado de forma que afecte a su composición, secuencia, tiempo o encuadre; (ii) si se ha agregado o eliminado información audiovisual (frames, audio sobredimensionado, subtítulos modificados…); o (iii) si se ha recreado a la persona que aparece en el vídeo.
  2. Etiquetar los contenidos que se compartan de forma engañosa. En este caso se atiende al contexto en el que se ha publicado el tuit. Se atenderá a factores como el texto que acompaña al tuit, los metadatos asociados con el contenido o la existencia de webs enlazadas y la forma en la que impactan en el posible engaño.
  3. Eliminar los contenidos que habiendo siendo alterados y/o compartidos de forma engañosa, afecten a la seguridad pública o causen daños serios. No es tarea sencilla determinar qué contenidos son susceptibles de causar daño. Por ello, Twitter mantiene reglas abiertas para llevar a cabo este análisis, considerando a título ejemplificativo que las siguientes conductas sí son susceptibles de causar daño: (i) amenazas a la seguridad física de una persona o colectivo; (ii) riesgo de violencia masiva o de disturbios generalizados; o (iii) amenazas a la privacidad, a la habilidad de una persona o grupo de expresarse libremente o a participar en un evento o acto determinado, así como contenidos destinados a silenciar a una persona o grupo o a intimidar a los votantes.

Junto con el etiquetado de los deepfakes detectados, Twitter se reserva el uso de otras medidas, como mostrar advertencias a los usuarios antes de que compartan el tuit o den un “Me gusta” al contenido, reducir la visibilidad del tuit, prevenir recomendaciones o proporcionar explicaciones adicionales sobre el contenido, llegando incluso a redireccionar a los usuarios a otras páginas que les proporcionen más contexto.

No es una tarea sencilla, y la interpretación de conceptos abiertos a la hora de determinar la existencia de manipulación o la intencionalidad de los autores puede resultar especialmente problemática. No obstante, la implementación de esta nueva política responde a las preocupaciones de la Comisión Europea y de los propios usuarios de Twitter.

Cristina Mesa, asociada principal del Departamento de Propiedad Industrial e Intelectual de Garrigues.