Deepfakes Are Evolving. This Company Wants to Catch Them All

Algunas compañías de Fortune 500 han comenzado a probar un software que puede detectar una falsificación profunda de una persona real en una videollamada en vivo, luego de una serie de estafas que involucran a solicitantes de empleo fraudulentos que aceptan un bono por firmar y se van.

La tecnología de detección es cortesía de GetReal Labs, una nueva empresa fundada por solo faridprofesor de UC-Berkeley y reconocida autoridad en deepfakes y manipulación de imágenes y vídeos.

GetReal Labs ha desarrollado un conjunto de herramientas para detectar imágenes, audio y videos generados o manipulados con inteligencia artificial o métodos manuales. El software de la compañía puede analizar el rostro en una videollamada y detectar pistas que puedan indicar que ha sido generado artificialmente e intercambiado con el cuerpo de una persona real.

“No se trata de ataques hipotéticos, cada vez oímos más hablar de ellos”, afirma Farid. “En algunos casos, parece que están intentando hacerse con la propiedad intelectual, infiltrándose en la empresa. En otros casos, parece que se trata de un asunto puramente financiero, simplemente se quedan con la prima por firmar”.

El FBI emitió una advertencia En 2022, se trata de buscadores de empleo que asumen la identidad de una persona real durante las videollamadas. La empresa de diseño e ingeniería Arup, con sede en el Reino Unido perdido 25 millones de dólares para un estafador falso que se hace pasar por el director financiero de la empresa. Los estafadores románticos también han adoptado la tecnología, estafando a víctimas desprevenidas con sus ahorros.

Suplantar a una persona real en una transmisión de video en vivo es solo un ejemplo del tipo de trucos que derriten la realidad que ahora son posibles gracias a la IA. Los modelos de lenguaje grandes pueden imitar de manera convincente a una persona real en un chat en línea, mientras que los videos cortos pueden generarse con herramientas como Sora de OpenAI. Los impresionantes avances de la IA en los últimos años han hecho que la deepfakering sea más convincente y más accesible. El software gratuito facilita el perfeccionamiento de las habilidades de deepfakering, y las herramientas de IA de fácil acceso pueden convertir los mensajes de texto en fotografías y videos de apariencia realista.

Pero hacerse pasar por una persona en un vídeo en directo es una frontera relativamente nueva. La creación de este tipo de deepfake generalmente implica el uso de una combinación de aprendizaje automático y algoritmos de seguimiento facial para unir sin problemas una cara falsa a una real, lo que permite a un intruso controlar lo que una imagen ilícita parece decir y hacer en la pantalla.

Farid le mostró a WIRED una demostración de la tecnología de GetReal Labs. Cuando se muestra una fotografía de una sala de juntas corporativa, el software analiza los metadatos asociados con la imagen en busca de señales de que ha sido modificada. Varias de las principales empresas de inteligencia artificial, incluidas OpenAI, Google y Meta, ahora agregan firmas digitales a las imágenes generadas por inteligencia artificial, lo que proporciona una forma sólida de confirmar su falta de autenticidad. Sin embargo, no todas las herramientas proporcionan dichos sellos y los generadores de imágenes de código abierto pueden configurarse para que no lo hagan. Los metadatos también se pueden manipular fácilmente.

GIF: Caballero de la voluntad

Fuente