La puissance du cerveau humain n’est pas à la hauteur des pirates enhardis par des attaques numériques par smash-and-grab alimentées par l’intelligence artificielle utilisant des tromperies par e-mail. Par conséquent, les défenses de cybersécurité doivent être guidées par des solutions d’IA qui connaissent mieux qu’eux les stratégies des pirates.

Cette approche consistant à combattre l’IA avec une meilleure IA est apparue comme une stratégie idéale dans les recherches menées en mars par la cyberentreprise Darktrace pour dénicher des informations sur le comportement humain autour des e-mails. L’enquête a confirmé le besoin de nouveaux cyber-outils pour contrer les menaces de piratage basées sur l’IA ciblant les entreprises.

L’étude visait à mieux comprendre comment les employés réagissent globalement aux menaces de sécurité potentielles. Il a également dressé un tableau de leur connaissance croissante de la nécessité d’une meilleure sécurité des e-mails.

L’enquête mondiale de Darktrace auprès de 6 711 employés aux États-Unis, au Royaume-Uni, en France, en Allemagne, en Australie et aux Pays-Bas a révélé que les répondants ont connu une augmentation de 135 % des « nouvelles attaques d’ingénierie sociale » sur des milliers de clients de messagerie actifs de Darktrace de janvier à février 2023. les résultats correspondaient à l’adoption généralisée de ChatGPT.

Ces nouvelles attaques d’ingénierie sociale utilisent des techniques linguistiques sophistiquées, notamment une augmentation du volume de texte, de la ponctuation et de la longueur des phrases sans liens ni pièces jointes. La tendance suggère que l’IA générative, telle que ChatGPT, offre aux acteurs de la menace un moyen de concevoir des attaques sophistiquées et ciblées à la vitesse et à l’échelle, selon les chercheurs.

L’un des trois enseignements les plus importants de la recherche est que la plupart des employés sont préoccupés par la menace des e-mails générés par l’IA, selon Max Heinemeyer, directeur des produits pour Darktrace.

« Ce n’est pas surprenant, car ces e-mails sont souvent impossibles à distinguer des communications légitimes et certains des signes que les employés recherchent généralement pour repérer un » faux « incluent des signaux comme une mauvaise orthographe et une mauvaise grammaire, que les chatbots s’avèrent très efficaces pour contourner », a-t-il déclaré. dit TechNewsWorld.

Faits saillants de la recherche

Darktrace a demandé aux entreprises de vente au détail, de restauration et de loisirs à quel point elles craignaient, le cas échéant, que les pirates puissent utiliser l’IA générative pour créer des e-mails frauduleux indiscernables d’une communication authentique. Quatre-vingt-deux pour cent se disent inquiets.

Plus de la moitié de tous les répondants ont indiqué qu’ils étaient conscients de ce qui fait croire aux employés qu’un e-mail est une attaque de phishing. Les trois premiers sont les invitations à cliquer sur un lien ou à ouvrir une pièce jointe (68 %), l’expéditeur inconnu ou le contenu inattendu (61 %), et une mauvaise utilisation de l’orthographe et de la grammaire (61 %).


C’est significatif et troublant, car 45% des Américains interrogés ont déclaré avoir été la proie d’un e-mail frauduleux, selon Heinemeyer.

« Il n’est pas surprenant que les employés s’inquiètent de leur capacité à vérifier la légitimité des communications par e-mail dans un monde où les chatbots IA sont de plus en plus capables d’imiter les conversations du monde réel et de générer des e-mails dépourvus de tous les signes courants d’une attaque de phishing, tels que liens ou pièces jointes malveillants », a-t-il déclaré.

Parmi les autres résultats clés de l’enquête, mentionnons les suivants :

  • 70 % des employés dans le monde ont remarqué une augmentation de la fréquence des e-mails et SMS frauduleux au cours des six derniers mois
  • 87 % des employés dans le monde s’inquiètent de la quantité d’informations personnelles disponibles à leur sujet en ligne qui pourraient être utilisées dans le phishing et d’autres escroqueries par e-mail
  • 35 % des répondants ont essayé ChatGPT ou d’autres chatbots d’IA de génération

Garde-fous contre les erreurs humaines

L’accessibilité généralisée aux outils d’IA génératifs tels que ChatGPT et la sophistication croissante des acteurs des États-nations signifient que les escroqueries par e-mail sont plus convaincantes que jamais, a noté Heinemeyer.

Les erreurs humaines innocentes et les menaces internes restent un problème. La mauvaise direction d’un e-mail est un risque pour chaque employé et chaque organisation. Près de deux personnes sur cinq ont envoyé un e-mail important au mauvais destinataire avec un alias similaire par erreur ou en raison de la saisie semi-automatique. Cette erreur s’élève à plus de la moitié (51 %) dans le secteur des services financiers et à 41 % dans le secteur juridique.

Indépendamment de la faute, de telles erreurs humaines ajoutent une autre couche de risque de sécurité qui n’est pas malveillante. Un système d’auto-apprentissage peut détecter cette erreur avant que les informations sensibles ne soient partagées de manière incorrecte.

En réponse, Darktrace a dévoilé une mise à jour importante de sa solution de messagerie déployée à l’échelle mondiale. Il aide à renforcer les outils de sécurité des e-mails alors que les organisations continuent de s’appuyer sur l’e-mail comme principal outil de collaboration et de communication.

« Les outils de sécurité des e-mails qui s’appuient sur la connaissance des menaces passées ne parviennent pas à assurer la pérennité des organisations et de leurs employés face à l’évolution des menaces par e-mail », a-t-il déclaré.

Selon Heinemeyer, la dernière fonctionnalité de messagerie de Darktrace inclut des détections comportementales pour les e-mails mal acheminés qui empêchent la propriété intellectuelle ou les informations confidentielles d’être envoyées au mauvais destinataire.

Initiative de cybersécurité de l’IA

En comprenant ce qui est normal, les défenses de l’IA peuvent déterminer ce qui n’appartient pas à la boîte de réception d’un individu particulier. Les systèmes de sécurité des e-mails se trompent trop souvent, 79 % des personnes interrogées affirmant que les filtres anti-spam/de sécurité de leur entreprise empêchent à tort les e-mails légitimes importants d’atteindre leur boîte de réception.

Grâce à une compréhension approfondie de l’organisation et de la manière dont les individus qui la composent interagissent avec leur boîte de réception, l’IA peut déterminer pour chaque e-mail s’il est suspect et doit être traité ou s’il est légitime et doit rester intact.

« Les outils qui fonctionnent à partir d’une connaissance des attaques historiques ne seront pas à la hauteur des attaques générées par l’IA », a déclaré Heinemeyer.


L’analyse des attaques montre une déviation linguistique notable – sémantiquement et syntaxiquement – par rapport aux autres e-mails de phishing. Cela laisse peu de doute sur le fait que les outils de sécurité de messagerie traditionnels, qui fonctionnent à partir d’une connaissance des menaces historiques, ne parviendront pas à détecter les indicateurs subtils de ces attaques, a-t-il expliqué.

Pour renforcer cela, les recherches de Darktrace ont révélé que les solutions de sécurité des e-mails, y compris les outils d’IA natifs, cloud et statiques, prennent en moyenne 13 jours après le lancement d’une attaque contre une victime jusqu’à ce que la violation soit détectée.

« Cela laisse les défenseurs vulnérables pendant près de deux semaines s’ils comptent uniquement sur ces outils. Les défenses de l’IA qui comprennent l’entreprise seront cruciales pour repérer ces attaques », a-t-il déclaré.

Partenariats IA-humains nécessaires

Heinemeyer pense que l’avenir de la sécurité des e-mails réside dans un partenariat entre l’IA et les humains. Dans cet agencement, les algorithmes sont chargés de déterminer si la communication est malveillante ou bénigne, éliminant ainsi le fardeau de la responsabilité de l’humain.

« La formation sur les bonnes pratiques de sécurité des e-mails est importante, mais elle ne suffira pas à arrêter les menaces générées par l’IA qui ressemblent exactement à des communications bénignes », a-t-il averti.

L’une des révolutions vitales que l’IA permet dans l’espace de messagerie est une compréhension approfondie de « vous ». Au lieu d’essayer de prédire les attaques, une compréhension des comportements de vos employés doit être déterminée en fonction de leur boîte de réception, de leurs relations, de leur ton, de leurs sentiments et de centaines d’autres points de données, a-t-il expliqué.

« En tirant parti de l’IA pour lutter contre les menaces de sécurité des e-mails, non seulement nous réduisons les risques, mais nous revitalisons la confiance organisationnelle et contribuons aux résultats commerciaux. Dans ce scénario, les humains sont libérés pour travailler à un niveau supérieur, des pratiques plus stratégiques », a-t-il déclaré.

Pas un problème de cybersécurité complètement insoluble

La menace de l’IA offensive fait l’objet de recherches du côté défensif depuis une décennie. Les attaquants utiliseront inévitablement l’IA pour améliorer leurs opérations et maximiser le retour sur investissement, a noté Heinemeyer.

« Mais ce n’est pas quelque chose que nous considérerions comme insoluble du point de vue de la défense. Ironiquement, l’IA générative aggrave peut-être le défi de l’ingénierie sociale, mais l’IA qui sait que vous pourriez être la parade », a-t-il prédit.

Darktrace a testé des prototypes d’IA offensifs contre la technologie de l’entreprise pour tester en permanence l’efficacité de ses défenses avant cette évolution inévitable du paysage des attaquants. L’entreprise est convaincue que l’IA, armée d’une compréhension approfondie de l’entreprise, sera le moyen le plus puissant de se défendre contre ces menaces à mesure qu’elles évoluent.

A lire également