Alertan sobre fraudes telefónicos con clonación de voz por inteligencia artificial

5

Playa del Carmen, Quintana Roo, 28 de octubre de 2025.— Autoridades y especialistas en seguridad digital alertan sobre el aumento de fraudes telefónicos en el país mediante el uso de inteligencia artificial (IA) capaz de clonar la voz de las personas para cometer engaños, extorsiones o suplantaciones de identidad.

De acuerdo con expertos, los delincuentes utilizan llamadas silenciosas, grabaciones breves o mensajes de voz interceptados para captar segundos suficientes del timbre y tono natural de una persona. Con apenas tres a cinco segundos de audio claro, los sistemas de inteligencia artificial pueden replicar con alta precisión la voz y utilizarla para simular conversaciones reales, pedir dinero o engañar a familiares y compañeros de trabajo.

Las llamadas más comunes provienen de números desconocidos, nacionales o internacionales, en las que nadie responde. El objetivo de este tipo de contactos es grabar al usuario cuando responde con frases simples como “sí”, “bueno” o “habla [nombre]”, expresiones que permiten generar imitaciones digitales casi perfectas.

Especialistas en ciberseguridad recomiendan adoptar medidas sencillas pero efectivas para evitar ser víctima de este tipo de fraudes:

  1. No iniciar conversación con números desconocidos. Si alguien llama, espera a que la persona se identifique antes de responder.
  2. Evita decir tu nombre completo o confirmar tu identidad. Frases como “sí, soy yo” pueden ser usadas para entrenar sistemas de clonación de voz.
  3. Si la llamada permanece en silencio, cuelga de inmediato. No respondas con frases de confirmación ni repitas palabras.
  4. Bloquea y reporta el número en caso de cualquier intento de fraude o comportamiento sospechoso.
  5. No envíes notas de voz a contactos desconocidos en aplicaciones como WhatsApp, Telegram o Messenger, ya que los audios son una fuente directa para clonar voces.
  6. Si necesitas comprobar quién llama, usa frases irrelevantes o distorsiona tu voz. Hablar con ruido de fondo o de forma entrecortada reduce la calidad del audio que puedan grabar.
  7. Reporta cualquier intento de extorsión al número de emergencia 911 o a las autoridades competentes.

Los expertos advierten que los avances en inteligencia artificial permiten generar imitaciones casi idénticas en cuestión de segundos, por lo que la prevención y el manejo responsable de la voz son esenciales para evitar riesgos.

Además, recomiendan tener precaución al compartir audios o grabaciones en redes sociales y mantener actualizados los filtros de seguridad en aplicaciones de mensajería. La mejor defensa, señalaron, es desconfiar de llamadas desconocidas y evitar entregar muestras de voz que puedan ser usadas con fines ilícitos.

Alertan sobre fraudes telefónicos con clonación de voz por inteligencia artificial

TE PUEDE INTERESAR: Inaugura Estefanía Mercado el Congreso Nacional de Bomberos, Playa del Carmen 2025 https://www.deluna.com.mx/playa-del-carmen/inaugura-estefania-mercado-el-congreso-nacional-de-bomberos-playa-del-carmen-2025/

¡SÍGUENOS EN REDES!