Comment l'IA change la donne en matière de cybersecurité et de cybercriminalité

La popularité croissante des outils d'IA peut représenter une menace pour la cybersécurité

Comment l’IA change la donne en matière de cybersecurité et de cybercriminalité

L'intelligence artificielle fait partie des technologies les plus révolutionnaires de notre époque, et elle change complètement notre façon de concevoir la cybersécurité et la cybercriminalité. En deux mois seulement, le chatbot développé par OpenAI a franchi la barre des 100 millions d'utilisateurs actifs et s'est imposé comme l'application grand public affichant la croissance la plus rapide de l'histoire. Les utilisateurs cherchant à utiliser l'IA pour créer des logiciels malveillants et des courriers électroniques à des fins d'espionnage, d'attaques par rançongiciel, de spam malveillant et d'autres activités néfastes dominent actuellement les discussions dans les forums sur la cybercriminalité.

Un cybercriminel a partagé le code d'un voleur d'informations qu'il avait conçu via ChatGPT pour illustrer ses capacités. Le logiciel malveillant, développé en Python, était capable de localiser, copier et extraire 12 formats de fichier standard d'un système compromis, notamment des documents Office, des PDF et des images.

De récentes études ont même révélé comment les criminels apprennent aux robots et assistants d'intelligence artificielle à injecter du code malveillant dans leur code programmé pour propager des menaces. L'attaque Trojan Puzzle prouve que les cybercriminels se servent de la popularité de l'IA et de la technologie à leur profit.

Ces dernières années, on a assisté à une augmentation des cyberattaques, qui sont de plus en plus perfectionnées, fréquentes et difficiles à prévenir. Toutefois, bien que l'IA offre de nouvelles possibilités de lutte contre la cybercriminalité, elle présente également de nouveaux risques et défis. Le présent article analyse la manière dont l'intelligence artificielle modifie le paysage de la cybersécurité et de la cybercriminalité.

Utiliser l'IA pour combattre les cyberattaques

Les approches traditionnelles de la cybersécurité perdent de leur efficacité au fur et à mesure que les cyberattaques se multiplient et se complexifient. Toutefois, avec la montée fulgurante de l'IA, de nouvelles possibilités de relever ces défis apparaissent. Les algorithmes d'IA sont en mesure d'analyser de grandes quantités de données et de repérer des modèles et des anomalies qui pourraient échapper aux humains, ce qui est particulièrement prometteur pour la détection des menaces dans le domaine de la cybersécurité. L'IA est capable de prévenir ou de limiter les dommages potentiels par la détection et la réaction qui s'effectuent en temps réel.

L'authentification et le contrôle d'accès, qui ont toujours été vulnérables aux attaques, sont eux aussi transformés par l'IA. Grâce aux systèmes d'authentification biométriques assistés par l'IA tels que la reconnaissance faciale, la reconnaissance vocale et la numérisation des empreintes digitales, les mots de passe et autres méthodes d'authentification peuvent être rendus plus sûrs et plus pratiques. Ces systèmes sont aussi en mesure de s'adapter aux changements de comportement des utilisateurs, ce qui ajoute une couche supplémentaire de sécurité.

Les logiciels malveillants assistés par l'IA : la nouvelle menace pour les systèmes informatiques

Les logiciels malveillants assistés par l'IA sont de plus en plus perfectionnés et difficiles à détecter dans le domaine de la cybersécurité. À titre d'exemple, des chercheurs ont découvert DeepLocker en 2019, un logiciel malveillant assisté par une IA, développé par IBM, qui utilise une «adversarial AI» pour éviter la détection. DeepLocker est conçu pour demeurer inactif jusqu'à ce qu'une cible spécifique, telle qu'un individu ou une organisation, soit détectée. Après avoir identifié la cible, il peut déployer une charge utile afin de lancer une attaque destructrice.

Un autre exemple de logiciel malveillant assisté par l'IA est l'attaque par logiciel malveillant sans fichier de 2017 contre une banque mondiale. Le logiciel malveillant, nommé «Silent Starling», utilisait un algorithme d'intelligence artificielle pour échapper à la détection des logiciels antivirus. Pendant plusieurs mois, le logiciel malveillant a réussi à infecter les systèmes de la banque et à dérober des informations confidentielles sans se faire repérer. L'attaque a seulement été découverte suite à la découverte d'une anomalie dans le réseau de la banque, qui est remontée jusqu'au logiciel malveillant.

Les attaques de logiciels malveillants assistés par l'IA sont d'autant plus préoccupantes parce qu'elles ont la capacité de s'adapter et d'évoluer en temps réel pour éviter d'être détectées. Ces attaques permettent, entre autres, de voler des données sensibles, de détourner des systèmes ou de lancer des attaques par déni de service. Avec les progrès que connaissent les technologies de l'IA, la menace des logiciels malveillants assistés par l'IA est censée augmenter, ce qui nécessite le développement de nouvelles stratégies de détection et de prévention.

La nouvelle génération d'ingénierie sociale

Dans de mauvaises mains, le ChatGPT peut permettre à n'importe qui de créer un courriel de hameçonnage convaincant et même d'écrire le code d'une attaque de logiciels malveillants. Malheureusement, quel que soit votre niveau de compétence ou votre langue, les cybercriminels peuvent désormais intégrer leur code malveillant nouvellement créé dans une pièce jointe d'apparence innocente.

Ces dernières années, des rapports ont fait état de cybercriminels menant des attaques d'ingénierie sociale en utilisant des tactiques similaires avec d'autres modèles d'IA conversationnelle. Les chercheurs ont par exemple découvert une campagne de hameçonnage en 2020 qui se servait du modèle de langage GPT-3 d'OpenAI pour générer des courriels de hameçonnage convaincants qui semblaient provenir de sources fiables.

Il est important de préciser que l'utilisation de ChatGPT dans le cadre d'attaques d'ingénierie sociale serait à la fois contraire à l'éthique et illégale. La société OpenAI, qui a créé ChatGPT, a instauré des mesures de protection pour empêcher toute utilisation malveillante de sa technologie, notamment en surveillant les utilisations abusives et en demandant aux utilisateurs d'accepter des conditions générales interdisant tout comportement nuisible. Cependant, la menace d'attaques d'ingénierie sociale assistées par l'IA s'accroît, ce qui souligne l'importance de la recherche et du développement continus de mesures de sécurité pour contrer ces menaces.

Opportunités et risques à aborder

Bien que l'IA offre de nouvelles possibilités de lutte contre la cybercriminalité, elle présente également de nouveaux risques et défis. Le développement de systèmes de cybersécurité assistés par l'IA constitue un domaine de recherche très prometteur, mais reste encore à ses débuts. De nombreuses questions techniques et éthiques doivent être abordées, telles que la fiabilité et l'interprétabilité des algorithmes d'IA, la possibilité de partialité et de discrimination, et les risques de cyberattaques sur les systèmes d'IA eux-mêmes.

Un autre problème est la nécessité d'une collaboration entre les professionnels de la cybersécurité, les experts en IA et les décideurs politiques. L'IA est une technologie qui évolue rapidement, et l'élaboration de solutions efficaces nécessite une approche multidisciplinaire. La collaboration entre les différents domaines est primordiale pour garantir que l'IA est utilisée au profit de la société et non à des fins malveillantes.

À propos de l'auteur
Gabriel E. Hall
Gabriel E. Hall - Un Chercheur passionné du Web

Gabriel E. Hall est une chercheuse en logiciels malveillants passionnée qui travaille avec lesvirus.fr depuis près d'une décennie.

Contactez Gabriel E. Hall
À propos de l'entreprise Esolutions