Inteligencia Artificial y ciberseguridad
La clonación de voz con IA hace más creíbles las estafas telefónicas
- Los ciberdelincuentes están utilizando la inteligencia artificial y el aprendizaje automático para clonar casi a la perfección la voz de las personas, imitando su tono y ritmo de habla a partir de videos y audios extraídos de redes sociales.
Estos métodos de fraude basados en IA, conocidos como deepfake-deepvoice, permiten a los delincuentes crear voces falsas prácticamente idénticas han dado origen a estafas a familiares y a amigos e incluso a suplantaciones de jefes para solicitar dinero o aprobar transacciones y transferencias de dinero.
Fuentes de información
Los ciberdelincuentes extraen voces de publicaciones en redes sociales, de audios de WhatsApp o llamadas que hacen previamente a las personas que quieren clonar. Les basta con una pequeña muestra de voz para crear una simulación convincente.
Audio-jacking
Otra técnicas más avanzadas es audio-jacking que consiste en interceptar una conversación en tiempo real e intervenirla, sin que los participantes se den cuenta, reemplazando palabras específicas para obtener información financiera que les permita desviar dinero hacia sus cuentas.
Prevención
A nivel personal, los expertos recomiendan:
- Evitar compartir audios o grabaciones de voz en redes sociales.
- Prestar atención a la calidad de la llamada y sospechar de voces monótonas o antinaturales.
- Establecer palabras clave entre familiares para verificar la identidad.
- No compartir información sensible, incluso si la voz suena familiar.
- Utilizar aplicaciones que identifiquen llamadas fraudulentas o spam.
- Denunciar el fraude para prevenir futuros casos.
A nivel empresarial en entornos corporativos:
- Es crucial establecer protocolos para asegurar que las órdenes o solicitudes de depósitos sean legítimas.