Autor Tema: Microsoft crea una herramienta para detectar ‘deepfakes’ y videos alterados  (Leído 2321 veces)

0 Usuarios y 1 Visitante están viendo este tema.

Desconectado Aitor

  • Amigo Xper-sat
  • Experto
  • *****
  • Panel de agradecimientos
  • -Tu has dado: 344
  • -Tu has recibido: 185
  • Mensajes: 535
Microsoft anunció una nueva herramienta para detectar 'deepfakes' y contenido alterado como parte de su iniciativa contra la desinformación.

Microsoft anunció una campaña contra la desinformación en la que incluye una herramienta para detectar deepfakes. Conocida como Microsoft Video Authenticator, el software puede analizar una foto o video para decirte qué tan probable es que el contenido sea falso.

La herramienta fue desarrollada en conjunto por Microsoft Research, el equipo de IA y el Comité de IA, Ética y Efectos en Ingeniería e Investigación. Microsoft Video Authenticator otorga un porcentaje de probabilidad de que el contenido que visualizas sea falso. En el caso de los videos puede hacerlo en tiempo real a medida que se reproduce.

Los usuarios podrán analizar cada cuadro del video para conocer si fue alterado. La herramienta detecta el límite de fusión de los elementos que conforman el deepfake y el desvanecimiento que puede no ser detectable para el ojo humano.

Para su creación, Microsoft echó mano de FaceForensics++, un conjunto de datos forenses que consta de 1.000 secuencias de video que han sido manipuladas con cuatro métodos automatizados para generar deepfakes. El Video Authenticator se probó en el Desafío de Detección de Deepfake, un conjunto de datos que permite el entrenamiento de modelos de detección y que cuenta con más de 100.000 videos.

Actualmente hay pocas herramientas para detectar videos alterados, según Microsoft
De acuerdo con la tecnológica, actualmente existen pocas herramientas que nos ayuden a asegurarnos que el contenido que visualizamos proviene de una fuente confiable y que no fue alterado. A medida que los procesos para crear videos falsos cambian, los métodos de detección tienen que evolucionar para estar preparados y certificar la autenticidad en los medios.

Microsoft también anunció una segunda herramienta que se integra en Microsoft Azure y con la ayuda de una extensión del navegador puede verificar si el contenido que ven las personas es auténtico.

Esta tecnología permite al productor de contenido agregar certificados y hashes digitales a un contenido. El lector, que puede ser una extensión de navegador u otra aplicación, verificará los certificados y hará coincidir los hashes para determinar si el contenido es auténtico, así como su origen.

La herramienta es la base de una iniciativa de la BBC llamada Project Origin, la cual busca luchar contra la desinformación etiquetando el contenido que sea manipulado. Project Origin es parte de la Iniciativa de Noticias de Confianza (TNI), una colaboración de las principales organizaciones de noticias y tecnología que buscan combatir la propagación de desinformación.

La TNI fue creada con miras a las próximas elecciones de Estados Unidos, en donde Donald Trump busca la reelección. Recientemente el equipo de campaña de Trump y el Partido Republicano fueron señalados por publicar videos alterados en Twitter, lo que obligó a la red social a etiquetarlos como modificados.

Anteriormente Twitter anunció su postura ante los deepfakes diciendo que colocaría un aviso y advertiría a las personas antes de compartirlos, aunque no se comprometió a eliminarlos.