null: nullpx
Estafa y Fraude

Cuidado con esos estafadores que imitan la voz de tu hijo usando inteligencia artificial

Este lunes, la Comisión Federal de Comercio (FTC) emitió una alerta al público en la cual se refiere específicamente a este nuevo método que usan los delincuentes para sacar miles de dólares.
Publicado 20 Mar 2023 – 02:43 PM EDT | Actualizado 20 Mar 2023 – 02:43 PM EDT
Comparte
Cargando Video...

Un audio publicado en TikTok, Facebook, Instagram o YouTube es suficiente para que estafadores imiten la voz de una persona usando inteligencia artificial y pidan dinero a sus familiares fingiendo una emergencia. Parecería la escena de una película de ciencia ficción, pero ya está sucediendo.

De hecho, la Comisión Federal de Comercio (FTC), que recibe las quejas de fraude en este país, emitió este lunes una alerta en la cual se refiere específicamente sobre este nuevo método de engaño.

“Un estafador podría usar inteligencia artificial para clonar la voz de su ser querido. Todo lo que necesita es un breve audio de la voz de su familiar que podría obtener de contenido publicado en internet y un programa computacional de clonación de voz. Cuando el estafador lo llame, sonará como su ser querido”, advierte la FTC.


Esta dependencia, que el año pasado recibió un récord de denuncias por estafas de impostores que significaron pérdidas de 2,600 millones de dólares, describe en su alerta un caso hipotético en el cual un anciano recibe la llamada de quien cree es su nieto y este le dice que está en la cárcel por chocar su auto. No sería un delincuente haciendo una voz neutral esperando que no lo descubran, sino un software que efectivamente hace el timbre característico de ese nieto.

“La inteligencia artificial ya no es una idea descabellada de una película de ciencia ficción. Estamos viviendo con eso aquí y ahora”, subraya la FTC.

Así funciona la inteligencia artificial

Gracias a los avances tecnológicos, ahora un simple archivo de audio, incluso de unos cuantos segundos, le permite a un software imitar la voz de una persona casi de manera idéntica.

Lo logra tomando todo lo que hace que la voz de una persona sea única, como su edad, género y acento. También se apoya de una base de datos para encontrar voces de tras personas que sean similares.

El resultado es aterrador: el software puede recrear el tono, la cadencia, el timbre y hasta los sonidos individuales que emite una persona.

Algo que también les facilita el trabajo a los impostores es que pueden conseguir audios de sus víctimas en cualquier lado: en videos publicados en TikTok o en Instagram, en transmisiones en vivo de Facebook, o de los mensajes de voz enviados por WhatsApp.

Algunas empresas ni siquiera cobran por usar este programa que imita voces, mientras que otras piden un pago mensual de hasta 330 dólares.

“Hace un año necesitabas mucho audio para clonar la voz de una persona”, dijo Hany Farid, profesor de análisis forense digital en la Universidad de California en Berkeley, al diario Washington Post. “Ahora… si tienes una página de Facebook… o si grabaste un video de TikTok y tu voz está allí durante 30 segundos, la gente puede clonar tu voz”.

Cuatro víctimas de la imitación de voz

El Post publicó a principios de este mes un reportaje en el que cuenta los casos de cuatro ancianos que fueron estafadas a través de la clonación de voz.

En un incidente, las víctimas pensaban que su nieto les llamaba porque necesitaba dinero para pagar una fianza y le depositaron más de 2,000 dólares.

A los otros ancianos les hicieron creer que su hijo les habló por teléfono porque estaba preso por haber matado a un diplomático estadounidense en un accidente vehicular y le enviaron más 15,000 dólares.

La voz sonaba "lo suficientemente parecida para que mis padres realmente creyeran que hablaron conmigo", dijo al Post Benjamin Perkin, quien es hijo de la segunda pareja de estafados. Se cree que quizás copiaron su voz de un video de YouTube en el que habla sobre las motos de nieve.

Expertos temen que estemos en el inicio de un método delictivo que podría vaciar los bolsillos de muchas personas en este país. Hasta ahora no hay estadísticas específicas de este problema.

Otros anticipan que el siguiente paso serían las estafas por videollamadas usando la clonación de rostros, una tecnología cuyo avance se puede palmar en los filtros disponibles en las redes sociales.

"Pronto, si recibo una llamada de FaceTime, ¿cómo voy a saber que es alguien que conozco legítimamente? Tal vez es alguien que finge ser esa persona", dijo Marie Haynes, experta en inteligencia artificial, en una reciente entrevista con el medio CTV NEWS.

En 2022, la Comisión Federal de Comercio recibió más de 36,000 denuncias de personas defraudadas por quienes fingieron ser familiares y amigos, lo que se conoce como “estafa del impostor”. Los engañaron a través de llamadas telefónicas, mensajes de texto y comunicaciones en las redes sociales. Fue el segundo tipo de fraude más popular en todo el país.

El primer consejo de la FTC para evitar caer en la trampa de la clonación de voz es: “no confíes en la voz”.

El organismo recomienda llamar directamente a la persona que supuestamente pide ayuda para verificar si en realidad está pasando por una emergencia.

“Si no puede comunicarse con su ser querido, intente comunicarse con él a través de otro familiar o sus amigos”, aconseja la FTC.

Otra señal de que están tratando de tomarle el pelo es cuando piden transferir dinero inmediatamente, que envíe criptomonedas o compre tarjetas de regalo para proporcionar los números y la clave de estas.

Usted puede denunciar fraudes en este portal de la FTC en español: https://reportefraude.ftc.gov/#/

Loading
Cargando galería
Comparte
RELACIONADOS:Gobierno