Publi


Si cree en lo que ve en Internet, podría pensar que el presidente Biden ha convocado un reclutamiento nacional y que se seleccionarán tanto hombres como mujeres para luchar en la guerra en Ucrania. Pero en realidad es una mentira perpetrada por un creador malicioso de videos falsos. Actores mal intencionados utilizan inteligencia artificial para crear videos que se hacen pasar por políticos, celebridades y figuras notables. En el caso menos dañino, obtenemos imágenes ridículas y obviamente falsas de lo que parecen presidentes estadounidenses jugando Minecraft juntos, pero en el peor de los casos, la tecnología podría ser una amenaza genuina a la seguridad nacional.

En 2018, el comediante convertido en director ganador del Oscar Jordan Peele lanzó una advertencia al público en forma de uno de los primeros deepfakes que se volvió viral. El video mostraba a Barack Obama pronunciando frases que iban mucho más allá de su discurso típico, incluido el inesperado «¡Estad despiertos, perras!», Rijul Gupta, graduado de la Universidad de Yale, se topó con el video y quedó instantáneamente impactado por el poder de la IA. Infinitas posibilidades comenzaron a correr por su cabeza, tanto positivas como negativas, recordó en una entrevista reciente con Decrypt, y se dio cuenta de que el mundo necesitaba una empresa con una «columna vertebral ética» que prestara atención al espacio. Como resultado, y Emma Brown, graduada de Yale y experta en lingüística, cofundó DeepMedia, una empresa que se dedica a desenmascarar la tecnología deepfake. DeepMedia tiene dos productos: DubSync, un servicio de traducción y doblaje mediante IA, y DeepIdentify.AI, un servicio de detección de deepfake. su oferta principal, que dio lugar a un reciente contrato de tres años por valor de 25 millones de dólares con el Departamento de Defensa de EE. UU. (DoD), así como a otros contratos no revelados con fuerzas aliadas. «Sabíamos desde el primer día que queríamos trabajar con los gobiernos, tanto nacionales como y extranjero, [as well as] Instituciones grandes y confiables como las Naciones Unidas, de las que ahora somos socios”, dijo Gupta a Decrypt. “[We wanted] para ayudar a garantizar que, de arriba hacia abajo y de abajo hacia arriba, la ética se integre en la columna vertebral de la IA”. Inicialmente, el Departamento de Defensa contrató a DeepMedia para educar al departamento sobre cómo se podría utilizar la tecnología para cometer fraude y crear desinformación política, dijo Gupta. Desde entonces, DeepMedia ha firmado más contratos, como con la Fuerza Aérea de los Estados Unidos, para incorporar su tecnología para ayudar a «mantener seguros a los ciudadanos estadounidenses e internacionales».

Publicidad

¿Como funciona?

DeepIdentity.AI analiza una foto o un vídeo en busca de inconsistencias o imprecisiones que indiquen que la imagen o el metraje es un deepfake. Los signos reveladores comunes incluyen cosas como una boca que tiembla de forma antinatural o sombras que serían físicamente imposibles. «Podemos rastrear cómo debería verse y moverse una cara, y luego la mapeamos», dijo a Decrypt la directora de operaciones de DeepMedia, Emma Brown. «Somos capaces de identificar cuál es el movimiento normal de un rostro». Una foto se puede procesar en cinco segundos, mientras que un vídeo de dos minutos sería «completamente procesado de principio a fin con análisis detallados de rostros, voces, [and] acentos” en menos de cinco minutos, explicó. Luego se le informará al usuario final cuánta manipulación se detectó y dónde se encuentra en el video o imagen. «¿Recuerdas el Papa falso que se volvió viral? Pudimos verificar qué partes eran el Papa real y cuáles eran falso», dijo Brown. «Había ciertas cosas que nunca podrían haber sucedido en la vida real. Y esas fueron las que realmente señalaron a nuestros detectores, en términos de sombras y ángulos». El modelo es capaz de detectar con «más del 95%» de precisión debido a su gran cantidad de datos de entrenamiento. , Ella reclamó. Por supuesto, DeepMedia examina los deepfakes de IA que se encuentran en línea, pero donde su conjunto de datos realmente sobresale es en su sinergia con DubSync, el servicio de traducción y doblaje. «Nuestra plataforma DubSync es esencialmente un generador de deepfake. Tenemos que construir un generador para saber qué buen deepfake es», explicó Brown. «Y eso es lo que alimenta nuestra detección de deepfake». Brown afirma que la generación de deepfake de DubSync se mantiene «entre seis y 12 meses por delante de cualquier otra persona», para garantizar que la empresa tenga los datos más avanzados para entrenar. con el objetivo de evitar que los malos actores creen deepfakes que son más avanzados de lo que su IA puede detectar, pero es una batalla constante mantener ese liderazgo.»Es un juego del gato y el ratón, sin duda. Cualquiera que finja que no lo es, no está en el espacio, en el verdadero sentido», dijo Brown. «Confiamos en que podremos continuar detectando, especialmente con nuestra investigación continua y nuestra parte de generación». Si bien DeepIdentify está disponible a través de la API de DeepMedia y otros paquetes, cuando los gobiernos y las instituciones financieras firman con la empresa, requieren una funcionalidad más avanzada. «Tenemos herramientas de detección de defectos existentes, pero el gobierno de los Estados Unidos, el Departamento de Defensa, son las mejores personas en el mundo en lo que hacen. Exigen no sólo lo mejor del mundo, sino más allá de lo mejor del mundo», explicó Gupta. «[We are] De hecho, estamos realizando nuevas investigaciones y descubriendo nuevas herramientas y nuevas soluciones».

¿Por qué debería importarnos?

En su estado actual, la tecnología deepfake es mejor conocida por videos de parodias tontas, imitaciones presidenciales poco realistas y pornografía falsa dañina. Pero la tecnología también podría usarse para causar tensión real entre estados, lo que podría resultar en víctimas, ataques terroristas y otras reacciones dañinas o perturbadoras». Los deepfakes podrían usarse como parte de operaciones de información para impactar el curso de las guerras, como «El incidente de marzo de 2022 de un deepfake publicado en el que el presidente de Ucrania, Zelensky, pareció ordenar a sus tropas que se rindieran», dijo a Decrypt la abogada de seguridad nacional y analista geopolítica estadounidense Irina Tsukerman. «Él negó la autenticidad de ese video y proporcionó evidencia, y ese video no estaba particularmente bien hecho, pero los futuros podrían estarlo». Con las elecciones de 2024 en Estados Unidos en el horizonte, la tecnología deepfake es la última preocupación que podría influir en la votación. similar al escándalo de Cambridge Analytica de 2018. «Los adversarios del Estado o personas con motivaciones políticas podrían publicar vídeos falsificados de funcionarios electos u otras figuras públicas haciendo comentarios incendiarios o comportándose de forma inapropiada», explicó Tsukerman. «Estos incidentes corroen la confianza pública, impactan negativamente el discurso público, crean divisiones y podrían usarse para influir en las elecciones u otros procesos críticos de toma de decisiones». La interferencia tampoco podría ser tan sencilla. De hecho, los deepfakes podrían usarse para negar la realidad y tratar de contrarrestar información y eventos fácticos. «También existe la cuestión del posible ‘dividendo del mentiroso’, una forma de desinformación mediante la cual los deepfakes pueden usarse para negar la autenticidad del contenido original. , creando una mayor confusión en detrimento de las preocupaciones de seguridad y desacreditando fuentes y activos estadounidenses amigos, analistas, gobiernos aliados o incluso funcionarios», dijo Tsukerman. Esta amenaza a la seguridad nacional es la razón por la que la compañía dice que está trabajando con el ecosistema del Departamento de Defensa de los Estados Unidos. , naciones aliadas y asociadas en Europa y Asia, así como una «gran empresa de redes sociales» anónima para ayudar a detectar deepfakes circulantes. Ha habido una rápida evolución de la tecnología y las herramientas de inteligencia artificial generativa solo en el último año. evoluciona, seguramente será aún más difícil identificar clips fraudulentos a simple vista, que es precisamente donde las empresas de detección como DeepMedia pretenden ayudar a mantener a las personas seguras e informadas. Editado por Ryan Ozawa y Andrew Hayward.

Manténgase al tanto de las noticias sobre criptomonedas y reciba actualizaciones diarias en su bandeja de entrada.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.