Meta se encuentra desarrollando un sistema para evitar que los audios generados por Inteligencia Artificial causen desinformación en la internet. Es por ello por lo que los desarrolladores están trabajando en AudioSeal. La nueva herramienta supone un plus para aquellas instituciones o expertos de un área en específico.
Esta medida se da en respuesta de los constantes audios ficticios que son generados por miles de personas en internet. De esta manera, el nuevo sistema promete detectar, mediante fragmentos de audio, aquellos que sean artificiales y los que son auténticos.
El método actual que es conocido en el mundo de la IA es el WavMark. Sin embargo, este trae consigo unas fisuras ya que no puede operar de buena manera en audios de corta duración. Se centra en los que tienen una duración de más de 10 minutos. Además, no permite hacerlo en tiempo real, como sí puede presentar AudioSeal.
Las redes neuronales como punto de partida de AudioSeal
AudioSeal va a trabajar mediante dos redes neuronales, que van a ser el centro del sistema de detección. La primera va a poder generar marcas de agua entre los fragmentos de segundos de los audios, de forma aleatoria. Luego, la otra red se va a encargar de detectar cuando existan estas marcas de agua en el audio.
Otro de los puntos más importantes es que va a poder trabajar con audios cortos y largos. Su sistema de detección de audio sintético promete ser muy innovador dentro del mercado. Incluso, va a poder hacer el trabajo como herramienta para aquellos audios que sean editados.
El punto débil que no evita Meta
A pesar de que la primera versión de AudioSeal va a ser gratis, cuenta con algunos detalles que la hacen muy vulnerables. Los desarrolladores de Meta aseguran que cuanto más se sepa sobre el sistema de datos, más permeable se va a convertir el sistema. Si un atacante tiene mucha información sobre el funcionamiento será fatal.
Por otra parte, Meta va a otorgar licencias para aquellas instituciones o entes gubernamentales que deseen emplear el sistema. Los lideres del proyecto aseguran que se va a ver mejores resultados si son aplicados en un nivel profesional mucho mayor. De esta forma, van a poder atacar mejor sus debilidades.
AudioSeal promete ser una prueba de algo mucho mayor que se viene en los siguientes años. El tema de los audios falsos generados con Inteligencia Artificial es un punto fuerte para los atacantes en internet.
With the release of Llama 2, the Meta Llama team developed a training technique called Ghost Attention (GAtt) which uses RLHF to fine-tune model responses keeping the initial instructions in mind — resulting in in AI models that are much better at retaining initial instructions… pic.twitter.com/Y29AuVyMRb
— AI at Meta (@AIatMeta) June 20, 2024