¿Todo lo que escuchas es real? ¡Deep fakes de audios!

Desde hace tiempo atrás, los Deep fakes de audios han circulado por todas las redes, causando grandes preocupaciones a los usuarios. Todos sin importar empresas, académicos y autoridades se han visto con grandes inquietudes por el enorme potencial de los Deep fakes y su inmenso potencial para divulgar falsas noticias.

En nuestro sitio podrás encontrar gran variedad de tecnología de calidad. Si te encuentras en busca de un celular, nuestros profesionales te ayudarán en tu búsqueda sugiriendo aquel que mejor se adapte a tus requerimientos.

De acuerdo a las palabras de Siwey Lyu encargado de machine learning del laboratorio de la Universidad de Albany, confesó que dentro de pocos años contarán con voces sintéticas con capacidad de imitar a sujetos en particular, pronunciando las frases que se requieran.

De hecho, en días pasados Facebook Al Research exhibió un nuevo método para traducir la voz de un cantante a la de otra estrella distinta, sin descomponer la canción y/o la letra de la misma.

Para Siwey estamos en tiempos de crear una única oportunidad para conseguir que la tecnología de creación de los famosos Deep faker de audios se desarrolle al mismo tiempo que la “tecnología forense”.

Sólo de esta manera será más sencillo detectar estos astutos métodos de alteración de voces que con frecuencia se vayan creando.

A principios de año, en enero, Google puso a servicio de los investigadores un gran “dataset” con datos de entrenamiento capaces de ayudar a los sistemas de IA a localizar las especificaciones de voces creadas. Esto para ayudar a contribuir con las paralizaciones de falsas noticias.

Por otra parte, otra de las grandes marcas que ha estado trabajando para el avance en contra de las falsificaciones de audio es Pindrop. Han trabajado a diario para entrenar su propio sistema de descubrimiento.

El sistema que usa esta empresa no difiere demasiado de las “redes generativas antagónicas”, las mismas que son usadas para la producción de imágenes.

El mismo Balasubramaniyan da la razón que, el sistema sin duda alguna hace un buen trabajo en la síntesis de voz, pero todavía no logran afinar ciertos puntos como la cadencia o la transmisión de emociones.

Definitivamente, la voz sintética de la compañía de Google desarrollada por la inteligencia artificial es muy parecida a la humana. A continuación, especificaremos sus categorías principales:

Variación

Esta característica logra hacer que los aspectos de una voz grabada cambien, haciendo que sea escuchada como la voz de otra persona. Esto implica poder distorsionar el acento o el género de la persona.

Síntesis

Esto permite fijar una voz predefinida sin importar el texto que le ofrezcamos a la computadora. En otras palabras, esta característica nos permite editar las declaraciones reales de una persona. Lastimosamente, el software “VoCo” de Adobe todavía no está disponible en el mercado, pues está especializado en esta clase de métodos tecnológicos.

Por suerte, hasta ahora, las creaciones de Deep fakes de audios casi reales únicamente está disponible o al alcance de empresas importantes. A diferencia de los videos.

El tema de los videos es clase aparte, pues en Internet hay grandes oleadas de videos falsos de grandes artistas creados por usuarios que pueden crearlo fácilmente con material real que encuentran en sus redes.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *