-TECNOLOGÍA-
Meta advierte que su inteligencia artificial que genera voces es peligrosa

La compañía de Mark Zuckerberg anunció su nuevo modelo Voicebox, que en esta instancia no se lanza a nivel general sino para un grupo reducido de desarrolladores. ¿A qué le teme?

San Juan 10:47 21/6/2023
elinformadordecuyo@gmail.com 

Meta anunció un nuevo sistema de inteligencia artificial denominado Voicebox, cuya habilidad es la generación de voces. El ingenio es prometedor, intrigante y potencialmente riesgoso. 

Desde el conglomerado que reúne a Facebook, Instagram y WhatsApp señalaron que es un programa avanzado y versátil, pero que ahora no será lanzado a nivel general por ser “demasiado peligroso”. 

Meta Voicebox: ¿qué es y para qué sirve? 

Es un software de síntesis de voz. En criollo, se emplea para crear voces que simulan ser auténticas pero que, amén de resultar naturales al oído, son artificiales. Igual que muchos otros programas que este año han conseguido grandísima popularidad, entre ellos ChatGPT de OpenAI, este sistema de basa en inteligencia artificial (IA). 

Los creadores del sistema señalan que es el primer modelo de su especie que puede crear voces sin recibir entrenamiento específico previo. Es capaz de generar audios de gran calidad, partiendo de texto. Su uso más evidente es el doblaje; también puede eliminar sonidos de pistas de audio y hacer ediciones sobre el discurso de una persona. 

Para su desarrollo, recibió más de 50.000 horas de discursos y audiolibros en inglés, español, francés, portugués y polaco. De acuerdo a Meta, puede imitar voces a partir de muestras de apenas 2 segundos. Voicebox, una inteligencia artificial con riesgos asociados.


“Hay muchos casos de uso emocionantes para los modelos de habla generativa”, señalaron desde la empresa que dirige Mark Zuckerberg en el comunicado de presentación de Voicebox. Luego manifestaron sus preocupaciones: “Debido a los posibles riesgos de uso indebido, no pondremos a disposición del público el código o el modelo de Voicebox de momento”. 

"Debido a los posibles riesgos de uso indebido, no pondremos a disposición del público el código o el modelo de Voicebox", dijeron desde Meta. 

El problema es concreto: este invento puede ser empleado para suplantar a otras personas con una alta dosis de realismo. Por eso, en vista de los riesgos vinculados a las deepfakes y a las noticias falsas, Meta prefiere un lanzamiento acotado. 

Siguiendo el repaso del sitio Gizmodo, ¿podrías reconocer si una voz es auténtica, por ejemplo al recibir una llamada telefónica de una voz que asegura ser un familiar en el marco de una estafa? 

“Si bien creemos que es importante ser abiertos con la comunidad de IA y compartir nuestra investigación (…), también es necesario lograr el equilibrio adecuado entre la apertura y la responsabilidad”, observaron al respecto en el mencionado comunicado. 

La decisión no es trivial, especialmente ahora que los avances en el terreno de la IA conmueven al mundo. Sistemas como el mencionado ChatGPT, Google Bard y generadores de imágenes como DALL-E y Midjourney, entre otros, seducen con sus habilidades para realizar tareas antes exclusivas del ser humano, incluso creativas. 

Pero en paralelo, encienden las alarmas por una serie de riesgos potenciales, desde la poca transparencia de sus fuentes, pasando por la compleja distinción de las obras mecanizadas, hasta la divulgación de contenido que, aunque artificial, puede ser confundido con hechos reales. 

En tal contexto, especialistas, empresarios y autoridades avanzan para regular los desarrollos de IA. En la veredad opuesta están aquellos que sostienen que los marcos normativos afectarán el avance de estas tecnologías y que, en tanto, los estatutos serán nocivos en términos de innovación.