>> Diffuser l'esprit d'entrepreneuriat et d'innovation à l'échelle nationale
>> Le système de caméras à IA de Hanoï affiche des résultats initiaux positifs
>> L'Alliance de la confiance numérique affirme son rôle dans la construction d’un "cyberespace sûr"
![]() |
| La Loi sur l’IA aborde la question de la fraude sous l’angle de la gestion des risques. |
| Photo : CTV/CVN |
Récemment, les organes compétents ont mis en garde à plusieurs repri-ses contre la recrudescence des escroqueries utilisant l’intelligence artificielle (IA). La plus courante est l’usurpation d’identité vocale, visuelle et vidéo (deepfake).
À partir de quelques secondes de données collectées sur les réseaux sociaux, ces outils peuvent imiter presque parfaitement la voix de proches, d’amis, de chefs ou de partenaires commerciaux, et ainsi passer des appels demandant des virements d’argent urgents, des autorisations de transaction ou des informations confidentielles.
Les arnaques de plus en plus sophistiquées
De plus, l’IA est également utilisée pour créer de faux courriels, messages et sites web au contenu soigné et “personnalisé” pour chaque victime. Les notifications concernant la vérification de compte, les alertes de sécurité, les remboursements ou les gains sont présentées de manière professionnelle, redirigeant les utilisateurs vers de faux sites web dont l’interface est presque identique à celle des sites authentiques, afin de leur voler leurs mots de passe, codes de vérification à usage unique (OTP) ou informations bancaires.
Les escroqueries financières et d’investissement pullulent sur les réseaux sociaux. Les fraudeurs exploitent ces technologies pour générer de fausses images et vidéos d’experts financiers et de célébrités promouvant des projets “ultra-rentables” et “sans risque garanti”. Même les chatbots sont programmés pour fournir des conseils et dialoguer en continu, 24 heures sur 24 et 7 jours sur 7, créant ainsi une impression de professionnalisme et de fiabilité, et incitant progressivement les victimes à investir.
Ces tactiques ont un point commun : elles exploitent la confiance des utilisateurs, leur sentiment d’urgence et leur tendance à négliger la vérification des informations. Dans ce contexte, il est nécessaire non seulement de sensibiliser davantage le public, mais aussi de mettre en place un cadre juridique solide pour réguler ces outils.
![]() |
| L’usurpation d’identité vocale, visuelle et vidéo, forme la plus courante de la recrudescence des escroqueries. |
| Photo : CTV/CVN |
Pour juguler les risques de mauvaise utilisation, la Loi sur l’intelligence artificielle de 2025, applicable à partir du 1er mars 2026, instaure une régulation stricte, direct et indirect, contre les fraudes qu’ils engendrent.
Premièrement, la loi définit clairement les actes prohibés. Selon l’article 7, l’utilisation de l’IA pour usurper une identité, tromper ou manipuler est interdite. Plus précisément, elle bannit strictement les fausses personnes ou événements simulés afin de tromper ou de manipuler intentionnellement la perception et le comportement des individus. Cette disposition constitue un fondement juridique direct pour poursuivre les auteurs d’actes impliquant des voix et des vidéos truquées usurpant l’identité de dirigeants, de proches ou de partenaires afin de solliciter des transferts d’argent ou de s’emparer de biens.
Par ailleurs, elle proscrit également la création ou la diffusion de faux contenus susceptibles de nuire gravement à l’ordre et à la sécurité sociaux, notamment les fausses vidéos, images et informations générées par ces moyens pour tromper la population.
Outre ces interdictions, la loi exige la transparence concernant le contenu et les systèmes d’IA. Conformément à l’article 11 de la loi, les utilisateurs doivent être clairement informés lorsqu’ils interagissent avec des systèmes d’IA, notamment dans le cas des chatbots, des assistants virtuels ou des systèmes automatisés de service client.
Une intervention précoce
De même, la loi stipule que les contenus audio, images et vidéos créés par l’IA doivent être facilement identifiables et étiquetés, notamment lorsqu’ils imitent l’apparence ou la voix d’une personne réelle ou recréent un événement réel. Cette réglementation est considérée comme essentielle pour réduire le risque d’escroquerie par de faux appels, appels vidéo ou contenus falsifiés très réalistes.
![]() |
| La Loi sur l’intelligence artificielle facilite non seulement le développement et l’application sûrs et responsables de l’IA. |
| Photo : TN/CVN |
La loi aborde également la question de la fraude sous l’angle de la gestion des risques. Conformément à l’article 9, les systèmes d’IA susceptibles d’induire les utilisateurs en erreur ou de les manipuler, du fait de leur incapacité à distinguer les contenus générés par l’IA de ceux générés par les humains, sont classés comme présentant un risque moyen. Ces systèmes ne peuvent fonctionner librement et sont soumis à des obligations de notification, de surveillance et d’inspection de la part des autorités compétentes.
Lorsqu’un système d’IA cause ou menace de causer un dommage, la loi habilite les autorités de régulation à demander la suspension ou le retrait du système, et à contraindre le développeur, le fournisseur et l’exploitant à coopérer pour remédier aux conséquences et en informer l’organe compétent. Ce mécanisme permet une intervention précoce et limite l’étendue des dommages lorsque ces outils sont utilisés à des fins de fraude à grande échelle.
Enfin, la loi prévoit inspections, sanctions et indemnisations. Les autorités de régulation sont habilitées à demander des documents techniques, des journaux système et des données connexes afin d’établir les responsabilités. Les usages frauduleux entraînent amendes administratives, poursuites pénales et compensations aux victimes.
Grâce à ces garde-fous, la Loi sur l’intelligence artificielle facilite non seulement le développement et l’application sûrs et responsables de l’IA, mais établit également un cadre juridique important pour prévenir la vague croissante de fraudes de haute technologie à l’ère numérique.
Thuy Hà/CVN






