Dans le cadre de sa conférence européenne « Kaspersky Horizons », organisée du 30 juin au 2 juillet 2025 à Madrid, le leader de la cybersécurité a appelé à une plus grande transparence dans l’utilisation de l’intelligence artificielle (IA). Présentée comme une technologie à double tranchant, l’IA permet des gains d’efficacité considérables et ouvre de nouvelles perspectives aux entreprises comme aux particuliers. Mais elle peut aussi devenir un outil redoutable entre les mains de cybercriminels, qui l’utilisent notamment pour faciliter la création de logiciels malveillants.
Selon une récente étude Kaspersky, 52 % des entreprises à travers le monde redoutent une perte de confiance de leurs clients si elles ne renforcent pas leur protection contre les cyberattaques exploitant l’IA. En parallèle, 41 % déclarent manquer d’expertise sur les menaces externes, ce qui complique leur capacité à se défendre efficacement.
Pour aider les organisations à déployer l’intelligence artificielle de manière sûre et responsable, Kaspersky propose des « Recommandations pour le développement et le déploiement sécurisés des systèmes d’IA ». Ce guide s’accompagne d’un second document, intitulé « Principes d’utilisation éthique des systèmes d’IA en cybersécurité », qui met l’accent sur les valeurs fondamentales à respecter dans le développement et l’exploitation de ces technologies.
Une IA prometteuse… mais déjà exploitée à des fins malveillantes
L’intelligence artificielle progresse à grande vitesse. Si elle représente un atout majeur pour les entreprises et les particuliers, elle sert déjà certains acteurs malveillants qui cherchent à étendre leurs capacités de nuisance.
Les résultats de l’enquête menée par Kaspersky confirment cette inquiétude : 58 % des entreprises dans le monde craignent une perte de données confidentielles, tandis que 52 % redoutent une perte de confiance et des dommages financiers si leur protection contre les attaques fondées sur l’IA reste insuffisante.
Malgré cette prise de conscience, 41 % des sondés indiquent ne pas recevoir d’informations pertinentes d’experts externes concernant ces nouvelles menaces. Face à cette lacune, Kaspersky appelle à suivre des lignes directrices claires pour un développement et une utilisation éthiques de l’IA, afin de contrer toute manipulation ou abus.
En 2024, l’entreprise a d’ailleurs signé le Pacte sur l’IA de la Commission européenne, une initiative visant à préparer les organisations à l’entrée en vigueur de la loi européenne sur l’IA, premier cadre juridique global au monde en la matière. En décembre de la même année, Kaspersky a présenté ses recommandations lors d’un atelier au Forum sur la gouvernance de l’Internet (FGI), tenu à Riyad. L’entreprise y a rappelé les principes essentiels à respecter : transparence, sécurité, contrôle humain et protection des données.
🟢 À LIRE AUSSI : Voyager sans tracas avec Kaspersky eSIM Store, la nouvelle solution qui simplifie la connectivité
« L’IA éthique est la base de la confiance, de la conformité et de la réussite durable des entreprises. Elle permet aux entreprises de minimiser efficacement les risques de violations de données et de menaces liées à l’IA, tout en respectant scrupuleusement les exigences réglementaires telles que la loi européenne sur l’IA. Dans un monde de plus en plus numérisé, l’utilisation responsable de l’IA n’est pas seulement une question technologique, mais aussi une question d’intégrité et de pérennité pour les entreprises », affirme Jochen Michels, Directeur des Affaires Publiques Europe chez Kaspersky.
« Nos conseils pour le développement et le déploiement sécurisés de l’intelligence artificielle, ainsi que nos principes pour l’utilisation éthique des systèmes d’IA en cybersécurité, permettent aux entreprises de l’utiliser de manière responsable et sûre, en se protégeant des potentielles menaces sans sacrifier les avantages offerts par la technologie », explique-t-il encore.
🟢 À LIRE AUSSI : Arnaque aux friandises : Kaspersky alerte sur les escroqueries liées au chocolat de Dubaï
« L’intelligence artificielle est de plus en plus utilisée pour renforcer la cybersécurité, de la détection des menaces à la prédiction des attaques. Mais qui décide du périmètre d’utilisation de ces outils ? En cas de faille de sécurité, les dommages sont souvent plus importants pour les individus et les groupes vulnérables, que pour les grandes organisations. Nous avons besoin de systèmes non seulement efficaces, mais aussi sécurisés et éthiques, garantissant un partage équitable du pouvoir, des responsabilités et des préjudices dans notre monde numérique », déclare Liliana Acosta, fondatrice et PDG de Thinker Soul, un cabinet de conseil basé sur l’éthique, la pensée critique et la philosophie pour accompagner les entreprises dans leur transformation numérique.
🟢 À LIRE AUSSI : Spam et arnaques : comprendre et se protéger contre les escroqueries en ligne
Clément Domingo partage ses réflexions et son expérience de spécialiste de la cybersécurité : « Ces derniers mois, j’ai été témoin de l’utilisation massive de l’IA par les cybercriminels. Ils en ont pleinement conscience et l’utilisent déjà avec succès pour optimiser leurs attaques. Il est donc primordial que les entreprises intègrent dès maintenant l’IA à leurs stratégies de défense afin de renforcer leurs mesures de sécurité globales. Pour ce faire, il est crucial de comprendre les méthodes des cybercriminels, parfois même de se mettre à leur place, dans le but de mieux les combattre. À cet égard, l’IA peut être un outil puissant, utilisé avec discernement et responsabilité, pour protéger les données précieuses, les infrastructures, la vie privée et les entreprises dans leur ensemble. »
Transparence, sécurité, contrôle et confidentialité : les piliers d’une IA éthique
Pour accompagner l’adoption d’une intelligence artificielle responsable, Kaspersky a conçu des recommandations concrètes, axées sur des aspects clés du développement, du déploiement et de l’exploitation des systèmes d’IA. L’objectif est de garantir une intégration sécurisée, sans se concentrer sur la création de modèles fondamentaux. Ces recommandations couvrent notamment les points suivants :
- Sensibilisation et formation à la cybersécurité : Kaspersky insiste sur l’importance d’impliquer la direction et de proposer une formation spécialisée et régulière aux employés, pour leur permettre d’identifier les menaces émergentes liées à l’IA.
- Modélisation des menaces et évaluation des risques : en recourant à des outils comme STRIDE ou OWASP, les entreprises peuvent anticiper les vulnérabilités, telles que l’empoisonnement des données ou l’usage abusif des modèles.
- Sécurité de l’infrastructure cloud : chiffrement, segmentation réseau, principe du Zero Trust et correctifs réguliers figurent parmi les bonnes pratiques recommandées pour renforcer la sécurité.
- Sécurité de la chaîne d’approvisionnement et des données : les outils d’IA tiers représentent des risques importants. Kaspersky recommande d’effectuer des audits, d’utiliser des capteurs de sécurité et de mettre en place des politiques strictes de confidentialité.
🟢 À LIRE AUSSI : L’IFB et Kaspersky signent un accord de coopération sur un partenariat académique
- Tests et validation : une validation continue permet d’identifier les dérives des modèles, les attaques adverses et autres failles. Kaspersky préconise une surveillance rigoureuse et une mise à jour de la logique décisionnelle.
- Défense contre les attaques spécifiques au Machine Learning : pour contrer les attaques de type injection de prompt ou entrées adversariales, il convient d’entraîner les modèles avec des exemples adverses, de détecter les anomalies et de recourir à la distillation.
- Mises à jour de sécurité et maintenance : des mises à jour régulières et la participation à des programmes de bug bounty permettent de corriger les vulnérabilités et d’améliorer la résilience des systèmes.
- Conformité aux normes internationales : Kaspersky encourage le respect de standards mondiaux comme le RGPD et l’AI Act, avec des audits réguliers pour garantir la conformité juridique et éthique.
Une approche fondée sur des principes éthiques
Le livret « Principes d’utilisation éthique des systèmes d’IA en cybersécurité » vient compléter ces recommandations techniques. Il insiste sur quatre piliers essentiels pour prévenir toute utilisation abusive :
- Transparence : informer les utilisateurs de l’utilisation de l’IA et du Machine Learning, expliquer leur fonctionnement, concevoir des systèmes interprétables et instaurer des mécanismes de contrôle fiables.
- Sécurité : prioriser la sécurité dès le développement, minimiser la dépendance aux données externes, intégrer des protections multicouches et recourir à des solutions cloud fiables.
- Contrôle humain : maintenir une supervision constante par des spécialistes et combiner l’intelligence humaine aux algorithmes.
- Protection des données : respecter la confidentialité, réduire la quantité de données traitées, pseudonymiser ou anonymiser les informations, et mettre en œuvre des mesures techniques et organisationnelles solides.
À propos de Kaspersky
Fondée en 1997, Kaspersky est une entreprise internationale spécialisée dans la cybersécurité et la protection de la vie privée. À ce jour, elle protège plus d’un milliard d’appareils contre les cybermenaces émergentes et les attaques ciblées.
Son expertise en sécurité et en renseignement sur les menaces se traduit en solutions et services innovants, conçus pour protéger les particuliers, les entreprises, les infrastructures critiques et les institutions publiques à travers le monde.
Le portefeuille de Kaspersky comprend des solutions avancées pour la vie numérique, des produits et services de sécurité dédiés aux entreprises, ainsi que des technologies de Cyber-Immunité pensées pour contrer les menaces numériques les plus sophistiquées et en constante évolution.
Aujourd’hui, plus de 200 000 entreprises et des millions de particuliers font confiance à Kaspersky pour protéger ce qui compte le plus pour eux. Pour en savoir plus, consultez le site : https://www.kaspersky.dz