Los deepfakes son el uso más preocupante de la inteligencia artificial para el crimen y el terrorismo, según un nuevo informe del University College London.
El equipo de investigación identificó por primera vez 20 formas diferentes en que los delincuentes podrían utilizar la inteligencia artificial durante los próximos 15 años. Luego pidieron a 31 expertos en inteligencia artificial que los clasificaran por riesgo, según su potencial de daño, el dinero que podrían ganar, su facilidad de uso y qué tan difícil es detenerlos.
Deepfakes, videos generados por IA de personas reales que hacen y dicen cosas ficticias, obtuvieron el primer lugar por dos razones principales. En primer lugar, son difíciles de identificar y prevenir. Los métodos de detección automatizados siguen siendo poco fiables y los deepfakes también están mejorando para engañar a los ojos humanos. Una competencia reciente en Facebook para detectarlos con algoritmos llevó a los investigadores a admitir que es “un problema sin resolver”.
En segundo lugar, Deepfakes se puede utilizar en una variedad de delitos y fechorías, desde desacreditar a figuras públicas hasta estafar dinero en efectivo al público haciéndose pasar por personas. Esta misma semana, un video manipulado de una Nancy Pelosi aparentemente borracha se volvió viral por segunda vez, mientras que el audio deepfake ha ayudado a los criminales a robar millones de dólares.
Además, los investigadores temen que los deepfakes hagan que las personas desconfíen de las pruebas de audio y video, un daño social en sí mismo.
El autor del estudio, el Dr. Matthew Caldwell, dijo que cuanto más se muevan nuestras vidas en línea, mayores serán los peligros:
A diferencia de muchos crímenes tradicionales, los crímenes en el ámbito digital pueden compartirse, repetirse e incluso venderse fácilmente, lo que permite que se comercialicen técnicas criminales y que los delitos se presten como un servicio. Esto significa que los delincuentes pueden externalizar los aspectos más desafiantes de su crimen basado en IA.
El estudio también identificó otras cinco amenazas importantes de delitos de IA: vehículos sin conductor como armas, spear phishing impulsado por IA, recolección de datos en línea para chantaje, ataques a sistemas controlados por IA y noticias falsas.
Pero los investigadores no se alarmaron demasiado por los “robots ladrones” que ingresan a las casas a través de buzones y gateras, ya que son fáciles de detectar. También clasificaron el acoso asistido por IA como un delito de baja preocupación, a pesar de ser extremadamente dañino para las víctimas, porque no puede operar a gran escala.
Estaban mucho más preocupados por los peligros de los deepfakes. La tecnología ha estado acaparando titulares alarmantes desde que surgió el término en Reddit en 2017, pero pocos de los temores se han hecho realidad hasta ahora. Sin embargo, los investigadores creen claramente que eso cambiará a medida que la tecnología se desarrolle y se vuelva más accesible.