La liste des cybercrimes facilités par ChatGPT

(SénéPlus) – L’intelligence artificielle générative est devenue l’outil de prédilection des fraudeurs et des manipulateurs étatiques. C’est le constat alarmant dressé par OpenAI dans un rapport publié mercredi 25 février 2026. L’entreprise créatrice de ChatGPT a annoncé avoir banni une série de comptes impliqués dans des opérations cybercriminelles sophistiquées, allant des arnaques aux sentiments jusqu’à des campagnes de déstabilisation politique orchestrées depuis la Chine, rapport l’agence de presse Reuters.
Dans ce document détaillant les mésusages de sa technologie, OpenAI souligne que plusieurs utilisateurs ont exploité son chatbot, couplé à d’autres outils numériques et réseaux sociaux, pour masquer leurs activités illicites. Les usurpations d’identité y sont monnaie courante : les escrocs se sont notamment faits passer pour des agences matrimoniales, des cabinets d’avocats ou encore des officiels du gouvernement américain.
Parmi les découvertes les plus sensibles du rapport figure l’implication présumée d’agents liés à l’appareil d’État chinois. Selon ReutersOpenAI a banni un compte directement relié à « un individu associé aux forces de l’ordre chinois », dont l’activité consistait à « orchestrer une opération d’influence secrète ciblant la Première ministre japonaise Sanae Takaichi ». Une campagne de diffamation visant la première femme à diriger le gouvernement nippon, qui illustre la dimension géopolitique du détournement de l’IA.
Dans la même veine, un groupe de comptes vraisemblablement basé en Chine a utilisé les modèles d’OpenAI pour mener des missions de renseignement aux États-Unis. Ils cherchaient des informations sur des citoyens américains, des forums en ligne, ainsi que sur l’emplacement de bâtiments fédéraux, tout en réclamant des conseils sur les logiciels de « échange de visage » (échange de visages). Pire encore, ces mêmes comptes ont généré de faux e-mails en anglais, ciblant des responsables officiels américains ou des analystes financiers, dans le but de les piéger en les invitant à participer à de fausses consultations rémunérées.
L’utilisation malveillante de ChatGPT frappe également les citoyens ordinaires à grande échelle. OpenAI révèle le démantèlement d’un vaste réseau d’escroquerie aux sentiments, qui ciblait spécifiquement des hommes indonésiens. Cette grappe de comptes frauduleux aurait « probablement escroqué des centaines de victimes par mois ».
Pour faire tomber ses cibles dans le panneau, ce réseau a utilisé ChatGPT afin de générer des textes promotionnels et des publicités vantant les mérites d’un faux service de rencontres. Le but de l’opération : attirer les utilisateurs sur la plateforme puis exercer une pression psychologique pour les contraindre à « accomplir plusieurs tâches nécessitant des paiements importants ».
Enfin, le rapport met en lumière une méthode d’extorsion particulièrement perverse. De multiples comptes ont manipulé l’intelligence artificielle pour se faire passer pour de véritables avocats et même pour des agents des forces de l’ordre américain. Leur cible ? Des personnes ayant déjà été victimes de fraudes, exploitant ainsi leur vulnérabilité et leur besoin de justice pour les escroquer une seconde fois.


