El avance de la Inteligencia Artificial (IA) no escapa al uso humano para el mal y los oportunistas del delito están a la orden del día. Una nueva modalidad de estafa por WhatsApp se conoció en el último tiempo, clonan voces con la IA y la usan para enviar mensajes pidiendo dinero u algún otro tipo de maniobra fraudulenta.
Dicha acción es conocida como “vishing” y en todo el país se están registrando casos, con situaciones que son muy complicadas de detener. El término anteriormente mencionado deriva de la unión de dos palabras: ‘voice’ y ‘phishing’ y se refiere al tipo de amenaza que combina una llamada telefónica fraudulenta con información previamente obtenida desde internet.
Las estafas con voces clonadas por inteligencia artificial (IA) representan un tipo de ciberataque que utiliza esta tecnología para clonar voces, suplantando la identidad de familiares o amigos para engañar a sus víctimas.
“Debemos empezar a descreer de todo lo que vemos y escuchamos”, manifestó el especialista en prevención de ciberdelitos, Rodrigo Bionda, quien dio recomendaciones para estar atentos a las maniobras sofisticadas vinculadas a la inteligencia artificial. “No hay que atender llamados provenientes de la India, sobre todo”, agregó.
El abogado explicó que “si la grabación ronda el medio minuto ya sería imposible darse cuenta si es real o no”. “Hice una prueba de videollamada con una versión paga de inteligencia artificial y es imposible darse cuenta si estamos frente a la persona original”, comentó.
La encuesta realizada recietemente por McAfee, indicó que el 77% de las víctimas de esta modalidad de fraude terminaron enviando dinero.