Inteligencia Artificial y ciberseguridad

La clonación de voz con IA hace más creíbles las estafas telefónicas

  • Los ciberdelincuentes están utilizando la inteligencia artificial y el aprendizaje automático para clonar casi a la perfección la voz de las personas, imitando su tono y ritmo de habla a partir de videos y audios extraídos de redes sociales.

Estos métodos de fraude basados en IA, conocidos como deepfake-deepvoice, permiten a los delincuentes crear voces falsas prácticamente idénticas han dado origen a estafas a familiares y a amigos e incluso a suplantaciones de jefes para solicitar dinero o aprobar transacciones y transferencias de dinero.

Fuentes de información

Los ciberdelincuentes extraen voces de publicaciones en redes sociales, de audios de WhatsApp o llamadas que hacen previamente a las personas que quieren clonar. Les basta con una pequeña muestra de voz para crear una simulación convincente.

Audio-jacking

Otra técnicas más avanzadas es audio-jacking que consiste en interceptar una conversación en tiempo real e intervenirla, sin que los participantes se den cuenta, reemplazando palabras específicas para obtener información financiera que les permita desviar dinero hacia sus cuentas.

Prevención

A nivel personal, los expertos recomiendan:

  • Evitar compartir audios o grabaciones de voz en redes sociales.
  • Prestar atención a la calidad de la llamada y sospechar de voces monótonas o antinaturales.
  • Establecer palabras clave entre familiares para verificar la identidad.
  • No compartir información sensible, incluso si la voz suena familiar.
  • Utilizar aplicaciones que identifiquen llamadas fraudulentas o spam.
  • Denunciar el fraude para prevenir futuros casos.

A nivel empresarial en entornos corporativos:

  • Es crucial establecer protocolos para asegurar que las órdenes o solicitudes de depósitos sean legítimas.
Compartir artículo:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *