Connect with us

Hi, what are you looking for?

RTNRTN

Tecnología

Con clonación de voz utilizan la inteligencia artificial al servicio del cibercrimen

El fiscal general Fernando Rivarola, jefe de la Unidad Fiscal Especializada en Cibercrimen y Ciberdelito del Ministerio Público Fiscal del Chubut, lanzó una alerta sobre el uso de la inteligencia artificial para clonar voces e imágenes con fines delictivos. Aunque este fenómeno aún no es generalizado debido al alto costo de los softwares necesarios, Rivarola advierte que su uso en estafas virtuales está en aumento.

La inteligencia artificial generativa, capaz de imitar voces e imágenes, se utiliza para crear audios y videos falsos con una precisión asombrosa. Esto permite a los estafadores suplantar la identidad de familiares y amigos, pidiendo dinero a cambio.

Rivarola destaca que las redes sociales son el principal reservorio de información para los ciberdelincuentes. La facilidad con la que se puede acceder a fotos, videos y audios de las personas en plataformas como Facebook, Instagram o Twitter convierte a estas en un terreno fértil para la clonación.

Si bien las estafas virtuales se realizan generalmente a través de WhatsApp, con mensajes de texto que ya son objeto de desconfianza, ahora es necesario estar alerta también ante imágenes y audios recibidos.

Recomendaciones para detectar estafas con inteligencia artificial

Prestar atención a la sincronización de labios con la voz en videos: Un desajuste en la sincronización puede ser una señal de alerta.

Escuchar la calidad del sonido y la pronunciación de algunas palabras en audios: La inteligencia artificial aún no es perfecta, por lo que puede haber falencias en la pronunciación o la calidad del audio.

Minimizar la información pública online: Cuanto menos información pública haya de una persona en internet, más difícil será para los ciberdelincuentes clonar su voz o imagen.

Es importante recordar que la inteligencia artificial generativa requiere de una gran cantidad de datos para funcionar. Para clonar una voz, se necesitan varios segundos de grabación de audio, mientras que para crear una imagen falsa se requieren varias fotos.

Aunque en Argentina la inteligencia artificial aún no es un recurso utilizado de forma masiva por los ciberdelincuentes, es esencial estar alerta para no caer en este tipo de engaños. La constante evolución de la tecnología exige una mayor conciencia y precaución por parte de los usuarios.

Rada Tilly

El último domingo, en plena tarde sofocante con más de 30 grados y la playa concurrida, un episodio inesperado alteró la tranquilidad de Rada...

Rada Tilly

Durante este fin de semana largo, Prefectura Naval intervino de urgencia en Rada Tilly para asistir a dos personas que quedaron atrapadas en los...

Rada Tilly

El Municipio de Rada Tilly difundió una nueva campaña informativa para recordar a la comunidad la importancia de respetar los espacios de estacionamiento destinados...

Comodoro

El hecho ocurrió a las 0:40 horas de este lunes, en un comercio ubicado en barrio Roca. Tras recibir denuncias por parte de los...

Verificado por MonsterInsights