El fiscal general Fernando Rivarola, jefe de la Unidad Fiscal Especializada en Cibercrimen y Ciberdelito del Ministerio Público Fiscal del Chubut, lanzó una alerta sobre el uso de la inteligencia artificial para clonar voces e imágenes con fines delictivos. Aunque este fenómeno aún no es generalizado debido al alto costo de los softwares necesarios, Rivarola advierte que su uso en estafas virtuales está en aumento.
La inteligencia artificial generativa, capaz de imitar voces e imágenes, se utiliza para crear audios y videos falsos con una precisión asombrosa. Esto permite a los estafadores suplantar la identidad de familiares y amigos, pidiendo dinero a cambio.
Rivarola destaca que las redes sociales son el principal reservorio de información para los ciberdelincuentes. La facilidad con la que se puede acceder a fotos, videos y audios de las personas en plataformas como Facebook, Instagram o Twitter convierte a estas en un terreno fértil para la clonación.
Si bien las estafas virtuales se realizan generalmente a través de WhatsApp, con mensajes de texto que ya son objeto de desconfianza, ahora es necesario estar alerta también ante imágenes y audios recibidos.
Recomendaciones para detectar estafas con inteligencia artificial
Prestar atención a la sincronización de labios con la voz en videos: Un desajuste en la sincronización puede ser una señal de alerta.
Escuchar la calidad del sonido y la pronunciación de algunas palabras en audios: La inteligencia artificial aún no es perfecta, por lo que puede haber falencias en la pronunciación o la calidad del audio.
Minimizar la información pública online: Cuanto menos información pública haya de una persona en internet, más difícil será para los ciberdelincuentes clonar su voz o imagen.
Es importante recordar que la inteligencia artificial generativa requiere de una gran cantidad de datos para funcionar. Para clonar una voz, se necesitan varios segundos de grabación de audio, mientras que para crear una imagen falsa se requieren varias fotos.
Aunque en Argentina la inteligencia artificial aún no es un recurso utilizado de forma masiva por los ciberdelincuentes, es esencial estar alerta para no caer en este tipo de engaños. La constante evolución de la tecnología exige una mayor conciencia y precaución por parte de los usuarios.
