Skip to main content

Les risques de l’intelligence artificielle (IA) pour la sécurité

Découvrez quels sont les risques de l’IA en matière de sécurité et les leviers pour bien utiliser l’intelligence artificielle en entreprise.

Ciblage client et gestion de l'après vente ou service, automatisation des tâches... L'intelligence artificielle (IA) est de plus en plus utilisée par les entreprises pour améliorer leur productivité. Pourtant, ces usages peuvent vous exposer à différentes menaces, notamment en matière de sécurité. Tour d’horizon des risques de l’IA et des leviers pour les maîtriser.

Sécurité : pourquoi craindre l'IA et en quoi représente-t-elle une menace ?

Quels sont les risques relatifs aux données lors de l'utilisation d'une IA générative ?

De par sa capacité à traiter et analyser de très importants volumes de données, l'intelligence artificielle (IA) pose tout d'abord la question de la confidentialité des informations, notamment au regard du Règlement général sur la protection des données (RGPD).

Les outils d'intelligence artificielle et en particulier l'IA générative risquent de compromettre la sécurité des données, mais également les diffuser involontairement. C'est notamment le cas des solutions d'IA générative, comme ChatGPT par exemple, qui reposent sur l'utilisation de différentes sources d’informations et à l'accès à des données, dont des données personnelles.

Lire aussi : Comment garantir votre conformité au RGPD ?

Et la violation du droit d'auteur et de la propriété intellectuelle ?

Parmi les autres risques et limites de l’IA, celui de la violation de la propriété intellectuelle. En effet, les outils utilisent des données provenant d'Internet, sans citer les sources. À l'image des outils d'IA générative, le contenu créé est présenté comme étant original et pouvant être utilisé librement, alors qu'il ne l'est pas toujours.

Malgré les avantages de l'IA, la technologie ne permet pas de savoir si les données utilisées (texte, vidéo, image, etc.) sont protégées par un quelconque droit d'auteur ou par une autre protection. Dans cette situation, les réponses fournies – par un chatbot par exemple – peuvent constituer une violation de ces droits, tout particulièrement s'ils sont ensuite utilisés à des fins commerciales (article de blog, publication sur les réseaux sociaux, newsletter, etc.).

La déformation des informations

Mais d’autres risques fonctionnels de l’IA sont à déplorer, dont sa capacité à fournir des informations inexactes, voire fausses sur des personnes, des faits, des événements ou encore des lieux. C'est le cas lorsque l'outil utilise des données erronées ou obsolètes qu'on appelle des « hallucinations ».

Les faux renseignements peuvent ensuite être réutilisés, notamment dans une optique de désinformation. C'est d'autant plus dommageable lorsque les algorithmes d'IA sont employés sur des problématiques sensibles, comme des questions juridiques par exemple.

Bon à savoir : pour les entreprises, la technologie représente aussi une menace indirecte : si les algorithmes IA sont utilisés à des fins frauduleuses, notamment pour le codage de logiciels malveillants, la création d'e-mails servant à l’hameçonnage et aux attaques cyber, ou même la reproduction de sites officiels.

Gestion du risque : comment bien utiliser l’IA ?

Se former à la gestion des risques de l’IA

Les entreprises doivent former leurs équipes à l'usage des solutions d'intelligence artificielle : ChatGPT, chatbot, logiciels métier, etc. Ce travail pédagogique a plusieurs finalités :

  • comprendre le fonctionnement des algorithmes IA ; 
  • apprendre à utiliser cette technologie ; 
  • informer sur les limites de l’intelligence artificielle ; 
  • adopter les bons usages (vérifications, non-divulgation de données sensibles, etc.).

 Cela permettra aux équipes d'identifier les risques de l'IA et de limiter son accès à des données sensibles.

Encadrer l'usage des algorithmes IA

Les entreprises doivent aussi définir les usages possibles de l'intelligence artificielle pour limiter les risques. À titre d'exemple, elles peuvent autoriser l'utilisation de ChatGPT pour du contenu interne, mais l'interdire pour du contenu commercial (e-mail, publication LinkedIn, etc.).

Si des données provenant de l'IA sont utilisées à des fins externes, il est indispensable d'en vérifier la qualité, les sources et la crédibilité. À ce titre, leur usage doit toujours être associé à un contrôle « humain » pour éviter de diffuser des informations erronées ou ne respectant pas le droit d'auteur.

De même, l’utilisation de l’intelligence artificielle doit être interdite pour des domaines sensibles, notamment ceux de nature juridique ou médicale par exemple.

Limiter la communication de données

Les solutions d’intelligence artificielle fonctionnent grâce à l'accès aux données que vous leur fournissez. Or, ces données peuvent être confidentielles : leur usage, dans ChatGPT par exemple, peut donc être contraire au RGPD.

Dans la mesure du possible, évitez donc de fournir des informations confidentielles aux outils : renseignez des données erronées et remplacez-les dans le résultat généré par les bonnes informations en dehors de l'outil.

Se conformer au règlement de l'intelligence artificielle en Europe

L'IA Act (Artificial Intelligence Act) est un règlement initié par la Commission Européenne qui vise à encadrer l'utilisation de l'IA et à prévenir ses risques en Union européenne. Adopté en mars 2024 pour une entrée en vigueur en 2026, les entreprises doivent prendre des mesures proactives pour s'y conformer dans les délais : audit des systèmes d'IA existants, renforcement des compétences de leurs équipes conformité, allouer les ressources nécessaires pour respecter les délais prescrits... Voici quelques actions à mettre en place pour limiter les risques :

  • cartographier les systèmes d'IA existants, les classer selon les niveaux de risques définis et comprendre les obligations spécifiques qui en découlent ; 
  • fournir des informations claires sur le fonctionnement de leurs systèmes d'IA, en particulier pour les systèmes à haut risque qui nécessitent une documentation détaillée.
  • S'assurer que les systèmes d'IA soient en conformité technique avec l’AI Act, notamment en matière de sécurité et de précision des données, avec le soutien des autorités nationales ; 
  • former le personnel sur les principes de l’AI Act et sensibiliser les équipes aux normes éthiques et réglementaires ; 
  • engager un dialogue avec les régulateurs et autres parties prenantes pour faciliter la compréhension des exigences et partager les meilleures pratiques en matière de conformité.

La conformité à cette loi peut également débloquer l’accès au marché commun de l’UE et inspirer la confiance des consommateurs. En revanche, son non-respect expose à des amendes sévères allant jusqu’à 7 % du chiffre d’affaires annuel mondial ou 35 millions d’euros pour les systèmes d’IA aux risques inacceptables.

Bon à savoir : le contrat Generali Protection Numérique vous offre une protection complète pour prévenir et gérer les risques liés à l’usage de l’intelligence artificielle en entreprise.

Partager

Informations non-contractuelles données à titre purement indicatif dans un but pédagogique et préventif. Generali ne saurait être tenue responsable d’un préjudice d’aucune nature lié aux informations fournies.