Investigadores británicos alertan: las voces creadas con IA son casi imposibles de distinguir
Un estudio británico reveló que las voces creadas por inteligencia artificial resultan indistinguibles de las reales y alertó sobre los riesgos de seguridad y confianza social.
Lo que hace pocos años parecía ciencia ficción hoy es una realidad: investigadores de la Queen Mary University of London demostraron que los audios generados con inteligencia artificial pueden sonar tan reales como una voz humana. El estudio, publicado en la revista científica PLOS One, evidenció que la mayoría de las personas no logra diferenciarlos.
Los científicos compararon grabaciones de voces reales con audios creados por dos sistemas: uno capaz de clonar voces específicas a partir de pocos minutos de grabación y otro que genera locuciones artificiales sin imitar a nadie en particular. El resultado fue claro: los audios sintéticos resultaron prácticamente indistinguibles.
Fácil, barato y peligroso
Uno de los hallazgos más inquietantes es la facilidad con la que se puede clonar una voz. Según explicó la psicóloga Nadine Lavan, coautora del estudio, bastan apenas unos minutos de audio y programas comerciales disponibles en internet, incluso gratuitos, para replicar con gran fidelidad la voz de cualquier persona.
Este nivel de accesibilidad abre la puerta a estafas telefónicas, suplantación de identidad, manipulación política o campañas de desinformación. Las voces clonadas no solo suenan auténticas, también transmiten confianza, lo que las convierte en una herramienta peligrosa para el engaño.
Qué son y por qué preocupan los deepfakes de voz
Los deepfakes de voz son audios generados con IA que imitan el tono, ritmo y características vocales de una persona real. Basta con grabaciones de redes sociales o fragmentos de videos para crear un clon convincente.
Los riesgos son múltiples:
-Estafas en las que delincuentes se hacen pasar por familiares o jefes para pedir dinero o datos sensibles.
-Manipulación de discursos políticos o declaraciones públicas.
-Dificultad para verificar información, ya que la voz siempre fue un símbolo de confianza.
El desafío a futuro
Los especialistas coinciden en que esta tecnología marca un punto de inflexión. "Era solo cuestión de tiempo hasta que la IA lograra producir un habla naturalista y humana", advirtió Lavan, quien pidió desarrollar estrategias de detección de fraudes antes de que la práctica se masifique.
La clonación de voz es solo una parte del ecosistema de los deepfakes, que también incluye imágenes y videos hiperrealistas. La gran pregunta es cómo adaptarse a esta era sin poner en riesgo la confianza en la comunicación.