
Asturias impulsa 600 empleos con €48 millones en energía eólica terrestre y marina
Asturias destina 48 millones de euros a proyectos eólicos que generarán 600 empleos y reactivarán la industria regional con enfoque sostenible
El 'voice hacking' también conocido como 'deepfake de voz', permite a los estafadores hacerse pasar por alguien de confianza, ya sea un familiar, un amigo o incluso un ejecutivo de empresa, para engañar a las víctimas
Actualidad AgenciasLa Policía Nacional ha advertido sobre el 'voice hacking', una forma de estafa que emplea Inteligencia Artificial (IA) para imitar voces.
En un vídeo compartido en la red social 'TikTok', una portavoz del cuerpo explica cómo los ciberdelincuentes obtienen grabaciones de voz de sus víctimas y las utilizan para crear audios falsos con el objetivo de pedir dinero o realizar otras acciones fraudulentas a su círculo más cercano.
"Los ciberdelincuentes obtienen tu voz mediante una grabación y, con Inteligencia Artificial, consiguen un audio en el que pueden engañar a tus familiares y amigos fingiendo que eres tú y solicitándoles dinero", explica la portavoz en el vídeo.
Ante esta amenaza, la Policía Nacional sugiere una medida preventiva simple pero eficaz: acordar con los contactos cercanos una clave secreta, como el nombre de una mascota o una fecha significativa, para verificar la autenticidad de las llamadas.
Según el Instituto Nacional de Ciberseguridad (INCIBE), el 'voice hacking' o clonación de voz es una técnica que utiliza IA para replicar la voz de una persona y crear grabaciones que parecen auténticas.
Este método, también conocido como 'deepfake de voz', permite a los estafadores hacerse pasar por alguien de confianza, ya sea un familiar, un amigo o incluso un ejecutivo de empresa, para engañar a las víctimas.
Entre las modalidades más comunes destacan el 'vishing', en el que los delincuentes se hacen pasar por instituciones confiables para obtener datos confidenciales, y la suplantación de identidad por voz, en la que se utilizan grabaciones manipuladas para solicitar dinero o información personal.
El INCIBE se ha hecho eco de varios casos reales de estafas relacionadas con esta técnica para resaltar "la importancia de ser cauteloso con las llamadas telefónicas y dispositivos de voz".
Uno de los más destacados es el de Jennifer DeStefano, quien en 2023 recibió una llamada en la que la voz de su hija, clonada mediante Inteligencia Artificial, aseguraba haber sido secuestrada. Los estafadores exigieron un rescate de 50.000 dólares, aunque más tarde se descubrió que su hija estaba a salvo.
Otro caso ocurrió en Canadá, donde una pareja de ancianos retiró 3.000 dólares tras recibir una llamada de alguien que sonaba como su nieto, alegando estar detenido y necesitar dinero para la fianza. Finalmente, se dieron cuenta de que habían sido víctimas de una estafa antes de entregar el dinero.
La Policía Nacional y el INCIBE recomiendan varias medidas para prevenir este tipo de estafas:
1. Desconfiar de llamadas sospechosas: Verificar la identidad del interlocutor antes de actuar, especialmente si se solicitan transferencias de dinero o datos sensibles.
2. Acordar una clave de seguridad: Tal y como sugiere la Policía Nacional, establecer una palabra o frase secreta con familiares y amigos puede ser útil para verificar la autenticidad de una llamada.
3. Mantener actualizados los dispositivos: Instala las actualizaciones de seguridad para protegerte de vulnerabilidades que puedan ser explotadas.
4. Evitar usar asistentes de voz en público: Los asistentes virtuales (Siri, Alexa, etc.) tienen la capacidad de registrar conversaciones y comandos, lo que podría facilitar a los estafadores recopilar información para realizar ataques de ingeniería social o construir un perfil detallado de tu voz.
Además, en entornos públicos, existe el riesgo de que otras personas graben tu voz, lo que podría ser utilizado posteriormente para crear una clonación mediante Inteligencia Artificial.
5. Configurar la autenticación de voz: configura esta función en dispositivos compatibles para que respondan solo a tu voz o a voces previamente registradas. Esta medida añade una capa adicional de seguridad.
6. Cambiar contraseñas regularmente: Utiliza contraseñas seguras que sean difíciles de adivinar, combinando letras mayúsculas y minúsculas, números y caracteres especiales. Además, evita usar la misma contraseña en múltiples cuentas.
Con información de Europa Press
Asturias destina 48 millones de euros a proyectos eólicos que generarán 600 empleos y reactivarán la industria regional con enfoque sostenible
El “estafador de Tinder”, Simon Leviev, famoso por el documental de Netflix, fue detenido en Georgia por fraude amoroso tras alerta de Interpol
El Gobierno impulsa una ley que reduce las horas lectivas del docente, 23 en Primaria y 18 en ESO y Bachillerato, y lanza ayudas escolares para familias vulnerables
Italia enfrenta más de 20 huelgas en septiembre que afectarán aeropuertos y trenes. Descubre las fechas clave, regiones impactadas y cómo planificar tu viaje para evitar contratiempos
La reina Letizia cumple 53 años sin actos públicos y viajará a Egipto con el rey Felipe VI este martes
El Gobierno activa ayudas de hasta €30.000 para jóvenes, zonas rurales y alquiler con opción a compra, dentro del nuevo Plan Nacional de Vivienda
Robert Redford falleció a los 89 años en Utah. Actor, director y fundador del Festival de Sundance, deja un legado imborrable en el cine
RTVE aprueba la salida de España del Festival de Eurovisión 2026 si Israel forma parte del concurso. La medida responde a la ofensiva en Gaza y convierte a España en el primer país del 'Big Five' en adoptar esta postura
Trump confirma tres ataques a embarcaciones venezolanas por narcotráfico. Maduro denuncia agresión militar y riesgo de guerra en el Caribe
El empresario González Amador retira la fianza contra García Ortiz tras la rebaja del Supremo a 75.000 euros en el caso por presunta revelación de secretos
Donald Trump aplaza la prohibición de TikTok en EEUU hasta el 16 de diciembre de 2025 tras un acuerdo comercial con China