L’IA remodèle le crime organisé, prévient Europol (18 mars 2025)
L’intelligence artificielle dynamise le crime organisé, averti dans un rapport Europol sur la grande criminalité et le crime organisé. Sa directrice exécutive, Catherine De Bolle.
Europol a en effet alerté sur l’impact croissant de l’intelligence artificielle (IA) sur le crime organisé, soulignant que les technologies émergentes ouvrent de nouvelles opportunités pour les groupes criminels. Voici les principaux points à retenir :
1. Deepfakes et fraudes avancées
- Les criminels utilisent des deepfakes (vidéos ou audios truqués hyper-réalistes) pour des escroqueries financières, comme la simulation de voix de dirigeants d’entreprise pour ordonner des virements frauduleux.
- Des cas d’usurpation d’identité renforcée par l’IA ont été signalés, notamment pour contourner les systèmes de vérification biométrique.
2. Automatisation des cyberattaques
- L’IA permet de perfectionner les phishing (e-mails ou messages piégés) en adaptant le discours aux victimes grâce à l’analyse de leurs données publiques (réseaux sociaux, etc.).
- Des outils d’IA générative (comme ChatGPT) pourraient être détournés pour créer des malwares intelligents capables d’éviter les détections.
3. Marchés noirs et cryptomonnaies
- L’IA optimise le blanchiment d’argent via des transactions cryptographiques complexes, en analysant les failles des systèmes anti-blanchiment.
- Certains algorithmes aident aussi à automatiser le dark web, comme la gestion de places de marché illégales.
4. Désinformation et chantage
- Les réseaux criminels exploitent l’IA pour propager de la désinformation (fausses nouvelles, manipulation de marchés boursiers).
- Risque accru de chantage automatisé (ex. : deepfake pornographique) ou de harcèlement massif.
Réponse des autorités
Europol appelle à :
- Renforcer la coopération internationale contre les cybercrimes.
- Investir dans l’IA défensive pour anticiper les menaces.
- Encadrer strictement les outils d’IA générative (comme les chatbots) pour empêcher leur utilisation malveillante.
Exemple concret
En 2023, une banque espagnole a été victime d’une fraude impliquant un deepfake vocal d’un responsable, conduisant à un transfert de plusieurs millions d’euros.
L’IA représente donc une « arme à double tranchant » : si elle bénéficie à la société, elle devient aussi un atout pour le crime organisé, nécessitant une régulation urgente.
(Source : Rapport Europol 2023-2024 sur les menaces criminelles émergentes)