Connect with us

Hi, what are you looking for?

RTNRTN

Tecnología

Con clonación de voz utilizan la inteligencia artificial al servicio del cibercrimen

El fiscal general Fernando Rivarola, jefe de la Unidad Fiscal Especializada en Cibercrimen y Ciberdelito del Ministerio Público Fiscal del Chubut, lanzó una alerta sobre el uso de la inteligencia artificial para clonar voces e imágenes con fines delictivos. Aunque este fenómeno aún no es generalizado debido al alto costo de los softwares necesarios, Rivarola advierte que su uso en estafas virtuales está en aumento.

La inteligencia artificial generativa, capaz de imitar voces e imágenes, se utiliza para crear audios y videos falsos con una precisión asombrosa. Esto permite a los estafadores suplantar la identidad de familiares y amigos, pidiendo dinero a cambio.

Rivarola destaca que las redes sociales son el principal reservorio de información para los ciberdelincuentes. La facilidad con la que se puede acceder a fotos, videos y audios de las personas en plataformas como Facebook, Instagram o Twitter convierte a estas en un terreno fértil para la clonación.

Si bien las estafas virtuales se realizan generalmente a través de WhatsApp, con mensajes de texto que ya son objeto de desconfianza, ahora es necesario estar alerta también ante imágenes y audios recibidos.

Recomendaciones para detectar estafas con inteligencia artificial

Prestar atención a la sincronización de labios con la voz en videos: Un desajuste en la sincronización puede ser una señal de alerta.

Escuchar la calidad del sonido y la pronunciación de algunas palabras en audios: La inteligencia artificial aún no es perfecta, por lo que puede haber falencias en la pronunciación o la calidad del audio.

Minimizar la información pública online: Cuanto menos información pública haya de una persona en internet, más difícil será para los ciberdelincuentes clonar su voz o imagen.

Es importante recordar que la inteligencia artificial generativa requiere de una gran cantidad de datos para funcionar. Para clonar una voz, se necesitan varios segundos de grabación de audio, mientras que para crear una imagen falsa se requieren varias fotos.

Aunque en Argentina la inteligencia artificial aún no es un recurso utilizado de forma masiva por los ciberdelincuentes, es esencial estar alerta para no caer en este tipo de engaños. La constante evolución de la tecnología exige una mayor conciencia y precaución por parte de los usuarios.

Rada Tilly

La presencia de un puma en los barrios Arenales y Atardecer de Comodoro Rivadavia, que se encuentran a escasos kilómetros de la villa balnearia,...

Rada Tilly

Dos gatas, Pipi y Rubi, de 4 y 6 años respectivamente, buscan un nuevo hogar tras el fallecimiento de su dueña en Rada Tilly....

Patagonia

Un hombre en situación de calle fue encontrado sin vida este jueves sobre la acera, al norte de la ciudad rionegrina de General Roca,...

Sociedad

La sala ‘D’ de la Cámara Nacional de Apelaciones en lo Civil condenó a la firma inmobiliaria Adrián Mercado S.A. a indemnizar a una...

WP Twitter Auto Publish Powered By : XYZScripts.com