En parallèle, les cybercriminels recourent également à l’IA pour affiner leurs tactiques, concevoir des courriels d’hameçonnage (phishing) plus crédibles, automatiser l’ingénierie sociale et générer des malwares capables de s’adapter pour échapper à la détection. Il en résulte une course à l’armement IA contre IA, dans laquelle chaque camp perfectionne continuellement ses outils.
Cette course se manifeste notamment à travers des problématiques bien connues telles que le spear phishing (hameçonnage ciblé) et l’ingénierie sociale automatisée, que nous détaillerons ci-après. Il est crucial que les organisations comprennent que l’IA, comme toute technologie, n’est pas une solution infaillible : elle doit être gérée, surveillée et continuellement évaluée. La même technologie qui renforce la sécurité peut également être utilisée pour la compromettre. Le véritable défi ne consiste pas uniquement à suivre le rythme des attaques pilotées par IA, mais à les anticiper par des mesures de sécurité avancées, une formation continue et une mise en œuvre responsable.
Plusieurs exemples concrets illustrent le conflit entre automatisation par IA et dépendance excessive à ces systèmes.
Contrats intelligents : l’IA qui conclut des accords
Les contrats intelligents (smart contracts) constituent l’un des meilleurs exemples du potentiel de l’IA. Ils permettent à deux parties de conclure un accord et de réaliser des transactions de manière fluide, sans intervention notariale. Dès que certaines conditions sont réunies, le contrat s’exécute automatiquement.On retrouve les contrats intelligents dans des secteurs tels que la musique ou l’immobilier. Lorsqu’un artiste publie une nouvelle chanson sur une plateforme de streaming, les royalties peuvent être automatiquement redistribuées grâce à ces contrats. Ces accords numériques sont capables de calculer et de distribuer des redevances selon des paramètres prédéfinis, éliminant ainsi les intermédiaires.
On observe également des initiatives de propriété fractionnée dans l’immobilier. Par exemple, il devient possible d’acquérir un jeton numérique représentant une part d’un bien. C’est une forme d’investissement immobilier rendue possible par des algorithmes performants.
Cependant, malgré leurs promesses, les contrats intelligents ne sont pas exempts de défis. Des erreurs dans le code peuvent entraîner une mauvaise exécution du contrat et occasionner des pertes. Comme pour tout système « intelligent », la règle du garbage in, garbage out s’applique : des données erronées en entrée mèneront inexorablement à des conséquences désastreuses.
Recrutement : l’IA derrière les CV
L’IA peut optimiser les processus de recrutement en automatisant certaines tâches chronophages, au bénéfice des recruteurs comme des candidats. Mais une mise en œuvre rigoureuse est nécessaire pour éviter les écueils. Certaines agences de recrutement utilisent déjà l’IA pour trier des volumes importants de CV, rejetant parfois des profils pertinents simplement parce qu’un mot-clé manque.Une récente étude*, menée auprès de 1001 professionnels RH au Royaume-Uni, révèle que 66 % d’entre eux avaient identifié des CV générés par IA, dont une part importante était frauduleuse. Par ailleurs, 36 % des équipes RH utilisent déjà l’IA pour présélectionner les candidatures, tandis que 29 % s’en servent pour rédiger des offres d’emploi.
En réaction, certains candidats ont eux aussi recours à des modèles de langage (LLM) pour générer des CV parfaitement calibrés, dans l’objectif de tromper les systèmes d’évaluation automatisés. Le paradoxe ? Le meilleur CV généré par IA ne correspond pas forcément au candidat le plus compétent, mais à celui qui maîtrise le mieux les outils pour créer un profil convaincant. Le processus d’évaluation bascule ainsi de l’analyse des compétences vers la capacité à manipuler l’IA, uniformisant la qualité perçue des candidats. Une absurdité révélatrice.
Ce phénomène alimente une boucle infernale. Tout comme les chercheurs d’emploi aguerris à l’IA, les cybercriminels utilisent également les LLM… mais à des fins bien plus malveillantes, comme la conception de campagnes d’hameçonnage toujours plus sophistiquées.
Les organisations légitimes ne restent pas en retrait. Elles aussi exploitent ces mêmes outils pour contrer la prolifération des contenus générés de manière malveillante. Le duel IA contre IA prend ainsi des allures de guerre numérique à la fois fascinante et inquiétante.
IA et spear phishing
Le spear phishing constitue l’un des exemples les plus flagrants de cette course à l’armement algorithmique. Les modèles génératifs de type LLM permettent aux attaquants de rédiger des courriels d’hameçonnage sans les signes révélateurs habituels : fautes d’orthographe, syntaxe bancale, formulations maladroites. Cela facilite l’usurpation d’identité (notamment celle d’un dirigeant), la récupération d’identifiants ou la redirection de la victime vers des liens malveillants.Côté défense, les outils de sécurité dopés à l’IA analysent les flux de messagerie, les comportements réseau et croisent les données issues d’autres systèmes pour identifier les anomalies et alerter en amont d’une compromission. Ces capacités ont considérablement renforcé la défense, dans un contexte où les attaques ont progressé de près de 30 % depuis 2023.
Les attaques de spear phishing nécessitent un travail préparatoire précis : analyse des cibles, collecte d’informations par OSINT (open source intelligence), création de profils psychologiques. Une IA mal utilisée peut rendre ces attaques redoutablement efficaces.
Considérations éthiques dans les interactions entre IA
Que se passe-t-il lorsqu’une IA opère sans intervention humaine ? C’est comparable à accorder les droits administrateur à tous les utilisateurs d’un réseau… et espérer que tout se passe bien. Lorsque des algorithmes prennent des décisions ayant des impacts concrets, la notion de responsabilité devient floue. Qui doit assumer les conséquences d’un dysfonctionnement : le développeur, le fournisseur de l’IA, ou l’algorithme lui-même ?La frontière entre automatisation utile et dérive technologique est ténue. Où situer les limites d’un déploiement responsable de l’IA lorsqu’il en va de vies humaines ou de moyens de subsistance ? L’essor de l’IA dans tous les secteurs exige la mise en place de cadres éthiques stricts.
Téléverser des contenus protégés par le droit d’auteur (diapositives de cours, dossiers médicaux, documents stratégiques ou codes propriétaires) sur des plateformes comme ChatGPT ou Gemini soulève des préoccupations juridiques majeures. Cette pratique contribue à des pertes économiques importantes : l’économie américaine perd chaque année au moins 29,2 milliards de dollars du fait du piratage en ligne.
De plus, une étude a révélé que 26 % des consommateurs de contenu en ligne avaient accédé à un fichier illégal au moins une fois en trois mois. Ces chiffres démontrent la nécessité impérieuse de respecter la propriété intellectuelle et d’encadrer l’usage des outils IA pour éviter les abus.
Dans le domaine éducatif, le European Network for Academic Integrity (ENAI) insiste sur l’importance d’un usage éthique de l’IA pour garantir l’intégrité académique. Les établissements doivent établir des lignes directrices claires et sensibiliser étudiants comme enseignants aux implications de l’utilisation non autorisée de contenus.
Par ailleurs, à mesure que les productions générées par IA deviennent plus sophistiquées, les risques de biais et de discrimination s’accentuent. Dans le recrutement, par exemple, si l’IA évalue les candidats à partir de données historiques biaisées, elle risque de reproduire voire d’amplifier les inégalités existantes.
La transparence, l’explicabilité des algorithmes et la responsabilité doivent être les piliers du développement de l’IA. Il nous appartient de veiller à ce que ces technologies ne perpétuent pas les préjugés à travers des programmations défectueuses. Comme le rappellent souvent les professionnels de la cybersécurité : faire confiance, mais vérifier. Car il est facile de se laisser aller à une confiance aveugle dans un monde d’interactions automatisées.
Vers un futur collaboratif
La multiplication des interactions IA contre IA dessine une nouvelle configuration, faite à la fois d’opportunités et de menaces. Des contrats intelligents aux mécanismes défensifs contre le phishing, c’est toute la structure de notre vie numérique qui est en transformation. Nous assistons à l’émergence d’une ère où les machines intelligentes ne se contentent plus d’exécuter des tâches : elles transforment les industries et nous poussent à repenser nos choix éthiques. Si l’avenir est porteur d’espoirs, il impose aussi des responsabilités.Veillons à ce que notre transition vers un monde dominé par l’IA ne se transforme pas en accumulation d’erreurs. Construisons plutôt un cadre dans lequel humains et IA coexistent harmonieusement. En plaçant la transparence, la responsabilité et l’engagement continu au cœur de nos pratiques, nous pouvons redéfinir les termes du débat et faire en sorte que les conversations les plus importantes ne se tiennent pas seulement entre machines, mais bien entre les machines et nous.
Par James McQuiggan, Expert en sensibilisation à la sécurité chez KnowBe4