Explicado: ¿Por qué es cada vez más difícil detectar videos deepfake y cuáles son las implicaciones?
El peligro potencial de los deepfakes radica en el hecho de que el nivel de manipulación es tan perfecto que a veces puede parecer imposible distinguirlos de los videos reales. Y cuanto más difícil se vuelve detectar la falsedad, mayor es la amenaza que posee de hacerse pasar por real y causar el caos que pretende.

Los videos manipulados o deepfakes han sido una de las armas clave utilizadas en las batallas de propaganda desde hace bastante tiempo. Donald Trump burlándose de Bélgica por permanecer en el acuerdo climático de París, David Beckham hablando con fluidez en nueve idiomas, Mao Zedong cantando 'I will survival' o Jeff Bezos y Elon Musk en un episodio piloto de Star Trek ... todos estos videos se han vuelto virales a pesar de ser falsos, o porque eran deepfakes.
Este deepfake inquietantemente realista pone a Jeff Bezos y Elon Musk en un episodio de Star Trek https://t.co/5KxmHpo1WM pic.twitter.com/CpWe91Qil0
- The Verge (@verge) 23 de febrero de 2020
El año pasado, Marco Rubio, el senador republicano de Florida, dijo que los deepfakes son tan potentes como las armas nucleares para librar guerras en una democracia. En los viejos tiempos, si querías amenazar a los Estados Unidos, necesitabas 10 portaaviones, armas nucleares y misiles de largo alcance. Hoy en día, solo necesita acceso a nuestro sistema de Internet, a nuestro sistema bancario, a nuestra red eléctrica e infraestructura, y cada vez más, todo lo que necesita es la capacidad de producir un video falso muy realista que podría socavar nuestras elecciones, que podría arruinar nuestro país. en tremenda crisis interna y nos debilita profundamente, Forbes lo citó diciendo.
El peligro potencial de los deepfakes radica en el hecho de que el nivel de manipulación es tan perfecto que a veces puede parecer imposible distinguirlos de los videos reales. Y cuanto más difícil se vuelve detectar la falsedad, mayor es la amenaza que posee de hacerse pasar por real y causar el caos que pretende. Pero con herramientas más sofisticadas impulsadas por inteligencia artificial disponibles ahora para producir estos videos, ¿se está volviendo más difícil detectar deepfakes?
¿Qué son los deepfakes y cómo se crean?
Los deepfakes constituyen contenido falso, a menudo en forma de videos, pero también en otros formatos de medios, como imágenes o audio, creado con poderosas herramientas de inteligencia artificial. Se denominan deepfakes porque utilizan tecnología de aprendizaje profundo, una rama del aprendizaje automático que aplica la simulación de redes neuronales a conjuntos de datos masivos para crear contenido falso.
cobie smulders patrimonio neto
Emplea una rama de la inteligencia artificial en la que si una computadora recibe suficientes datos, puede generar falsificaciones que se comportan como una persona real. Por ejemplo, la IA puede aprender cómo se ve una cara de origen y luego trasladarla a otro objetivo para realizar un intercambio de caras.
La aplicación de una tecnología llamada Generative Adversarial Networks (GAN), que utiliza dos algoritmos de IA, donde uno genera el contenido falso y el otro califica sus esfuerzos, enseñando al sistema a ser mejor, ha ayudado a generar deepfakes más precisos.
GAN también puede generar imágenes generadas por computadora de seres humanos falsos, que ha sido utilizado por un sitio web llamado 'Esta persona no existe'. Esto hace que sea prácticamente imposible detectar si los videos o imágenes que vemos en Internet son reales o falsos.
Los deepfakes pueden ser realmente difíciles de detectar. Por ejemplo, muchas personas se habían enamorado de los videos de Tiktok de Tom Cruise jugando al golf que luego se revelaron como deepfakes.
¿Se está volviendo más difícil detectar deepfakes?
Un artículo presentado en la Conferencia de invierno sobre aplicaciones de la visión por computadora 2021 describe una nueva técnica que hace que los deepfakes sean más infalibles, lo que dificulta que las herramientas tradicionales los detecten.
El estudio, dirigido por Paarth Neekhara y Shehzeen Samarah Hussain, ambos estudiantes de doctorado en la Universidad de California en San Diego, encontró que las herramientas de detección pueden engañarse insertando entradas ligeramente manipuladas llamadas ejemplos adversarios en cada cuadro de video.

Los métodos actuales de vanguardia para la detección de deepfake se pueden eludir fácilmente si el adversario tiene un conocimiento completo o incluso parcial del detector, afirma el artículo titulado 'Deepfakes adversarios: evaluación de la vulnerabilidad de los detectores de deepfake a ejemplos de adversarios'.
En declaraciones a indianexpress.com, Neekhara y Hussain dijeron que los métodos de detección estándar pueden estar lejos de ser infalibles porque no están garantizados para detectar videos deepfake más recientes sintetizados usando nuevas técnicas que no están en el conjunto de datos y son vulnerables a entradas adversas.
ÚNETE AHORA :El canal de Telegram Explicado ExpressLas entradas adversas son entradas ligeramente modificadas de modo que hacen que las redes neuronales profundas cometan un error. Se ha demostrado que las redes neuronales profundas son vulnerables a tales entradas que pueden hacer que cambie la salida del clasificador. En nuestro trabajo, mostramos que un atacante puede modificar ligeramente cada fotograma de un video deepfake de modo que pueda pasar por alto un detector deepfake y ser clasificado como real, dijeron.
altura del pescador de rayas

Agregaron: El atacante puede crear una pequeña perturbación adversaria imperceptible para cada fotograma de un video deepfake, agregarlo al fotograma y luego combinar todos los fotogramas de video para hacer el video adversario. En nuestros experimentos que utilizaron estas técnicas, pudimos lograr una tasa de éxito (de engañar al detector) superior al 90%.
¿Cuáles son las amenazas que plantean los videos deepfake?
Con la proliferación de videos deepfake, existe una creciente preocupación de que se utilicen como armas para realizar campañas políticas y puedan ser explotados por regímenes autoritarios.
En 2019, una organización de investigación llamada Future Advocacy y el artista británico Bill Posters crearon un video del primer ministro británico Boris Johnson y el líder del Partido Laborista Jeremy Corbyn apoyándose mutuamente para el puesto de primer ministro. El grupo dijo que el video fue creado para mostrar el potencial de los deepfakes para socavar la democracia.
Además, el año pasado, antes de las elecciones de la Asamblea de Delhi, los videos del presidente del BJP de Delhi, Manoj Tiwari, hablando en inglés y Haryanvi, se volvieron virales. En estos videos, se vio a Tiwari criticando a Arvind Kejriwal y pidiendo a la gente que votara por BJP. Los videos, que se compartieron en más de 5,000 grupos de WhatsApp, luego se reveló que eran deepfake, informó la firma de medios digitales Vice.
Los deepfakes también son motivo de preocupación en un momento en que la OMS ha declarado que la crisis de Covid-19 ha desencadenado una infodemia y ha habido intentos deliberados de difundir información incorrecta para socavar la respuesta de salud pública y promover agendas alternativas de grupos o individuos.
Además, los videos manipulados, que incluyen manipular el contenido mediante el uso de un sello de fecha o ubicación incorrectos, recortar el contenido para cambiar el contexto, la omisión, el empalme y la fabricación, se utilizan cada vez más en las redes sociales para tergiversar deliberadamente los hechos con fines políticos. La mayoría de estos videos no son ejemplos de deepfakes, pero muestran lo fácil que puede ser ofuscar hechos y difundir mentiras basadas en contenido manipulado disfrazado de evidencia contundente.
Wombo AI es salvaje pic.twitter.com/YIaFcRreGG
- Jack Posobiec (@JackPosobiec) 10 de marzo de 2021
La otra gran preocupación sobre los videos deepfake es la generación de contenido pornográfico no consensuado. En 2017, un usuario implementó un algoritmo de intercambio de rostros para crear videos pornográficos deepfake de celebridades como Scarlett Johansson, Gal Gadot, Kristen Bell y Michelle Obama, y los compartió en una amenaza de Reddit llamada r / deepfake. La cuenta tenía casi 90.000 suscriptores cuando se eliminó en febrero del próximo año.
De los miles de videos deepfake en Internet, más del 90% son pornografía no consensuada. Uno de los experimentos de inteligencia artificial más horribles del año pasado fue una aplicación llamada DeepNude que desnudaba fotos de mujeres; podía tomar fotografías y luego cambiar la ropa de las mujeres por cuerpos desnudos altamente realistas. La aplicación fue eliminada después de una fuerte reacción violenta.
Además, como se informa ampliamente, los videos deepfake se utilizan cada vez más para generar pornografía de venganza por parte de amantes despreciados para acosar a las mujeres.
La amenaza que representan los videos de Deepfake ya es evidente, dijeron Neekhara y Hussain a indianexpress.com. Hay usuarios malintencionados que utilizan estos videos para difamar a personalidades famosas, difundir desinformación, influir en las elecciones y polarizar a la gente. Con técnicas de síntesis de video deepfake más convincentes y accesibles, esta amenaza se ha vuelto aún mayor en magnitud, agregaron.
¿Hay una ofensiva a la vista?
La mayoría de las empresas de redes sociales como Facebook y Twitter han prohibido los videos deepfake. Han dicho que tan pronto como detecten cualquier video como un deepfake, será eliminado.
keanu reeves caridades
Facebook ha reclutado a investigadores de Berkeley, Oxford y otras instituciones para construir un detector deepfake. En 2019, llevó a cabo un Desafío de detección de falsificaciones profundas en asociación con líderes de la industria y expertos académicos durante el cual se creó y compartió un conjunto de datos único que consta de más de 100,000 videos.
Sin embargo, no todos los deepfakes se pueden detectar con precisión y también puede llevar un tiempo considerable encontrarlos y eliminarlos. Además, muchos sitios pornográficos no ejercen el mismo nivel de restricciones.
Neekhara y Hussain dijeron: Para detectar videos de deepfake con mayor precisión, necesitamos modelos resistentes al adversario incorporando un atacante mientras entrenamos tales modelos de detección de deepfake. Una solución a largo plazo es la marca de agua o la firma digital de las imágenes y videos desde el dispositivo en el que se capturan. La marca de agua o la firma digital deberían verse interrumpidas si se aplican las técnicas deepfake como los intercambios faciales. Un detector deepfake puede simplemente verificar la firma o la marca de agua. Sin embargo, esto requeriría establecer un estándar de marca de agua en todas las cámaras y teléfonos móviles. Por lo tanto, puede pasar un tiempo hasta que esto se convierta en realidad.
Compartir Con Tus Amigos: