Connect with us

DATOS CIBERDELINCUENCIA

Intel presenta un detector de Deep fakes con un 96% de precisión

Published

on

Políticos, cantantes y deportistas entre los más fakeados por esta nueva ciberamenaza

Los deep fakes son imágenes y videos falsos altamente sofisticados. Se generan con ayuda de inteligencia artificial (IA) y permiten codificar voz, rostros y movimientos del cuerpo. Consiguen crear una realidad ficticia y logran que cualquier persona haga o diga lo que el programador quiera.

Se han convertido en una seria amenaza ya que representan una evolución de las fake news. Su verosimilitud hace que sean compartidas por millones de usuarios en todo el mundo. Se trata de falsificaciones profundas, en una práctica en la que el público confunde la verdad con la ficción.

Para elaborarlos se necesita un gran número de fotos realizadas desde distintos ángulos. El ordenador las procesa y crea un conjunto final pensado para falsificar imágenes de figuras públicas. Se usan como herramienta de comunicación política, alimentan fake news y crean estados negativos entre la opinión pública.

La activista Greta Thunberg sufrió esta práctica con un video enviado a periodistas y en el que aparecía bailando. Otro deepfake de alto impacto fue el del expresidente Barack Obama quien mediante un video falso llamaba idiota a Donald Trump. El deportista David Beckham fue otro afectado cuando un deep fake le presentaba opinando sobre la erradicación de la malaria.

La empresa Intel ha desarrollado FaceCatcher, se trata de una herramienta que permite detectar los deep fakes. Su algoritmo detecta si un video es falso o verdadero gracias al flujo de sangre en la piel, la proyección de micro sombras o la frecuencia de pestañeo. También escanea puntos de referencia, clasifica tipologías de rostro y utiliza la fotopletismografía (PPG) que permite medir la cantidad de luz que absorben los vasos sanguíneos en la piel de un ser humano.

Las deepfakes ya son una de las armas preferidas por los ciberdelincuentes, algunos lo usan en el caso de imágenes pornográficas. Según la empresa Sensity un 93% de los deepfakes están producidos para pornografía no consentida.

Estos videos pueden suponer una forma de ciberacoso, buscan ridiculizar y erosionar la imagen pública de una persona. Dañan la reputación online y offline y se han convertido en la peor pesadilla para los responsables de comunicación de famosos en todo el mundo.

Europol afirma que “la tecnología deepfake podría convertirse en una herramienta básica para el crimen organizado”. En su informe “Hacer frente a la realidad, el desafío de los deepfakes” apunta a que las fuerzas del orden se enfrentan a este nuevo desafío. Entre los nuevos delitos destacan los fraudes del CEO y la manipulación de evidencias.

Comentar noticia

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Advertisement
Advertisement