top of page

🚨VOTRE ENTREPRISE N'UTILISE PAS L'IA, MAIS VOS COLLABORATEURS, SI ! ATTENTION AUX RISQUES...

  • Photo du rédacteur: Vincent ALLARD
    Vincent ALLARD
  • 26 sept. 2024
  • 6 min de lecture

Dernière mise à jour : 9 janv.


shadow AI


Les plateformes d'IA générative, comme ChatGPT, Microsoft Copilot, Google Gemini ou Claude d’Anthropic... ont démontré leur utilité dans le milieu professionnel. Synthèse, traduction, rédaction assistée, suggestions d’idées : autant d'exemples qui montrent comment ces outils peuvent optimiser la gestion du temps sur des tâches quotidiennes à "faible" valeur ajoutée.


Il est donc naturel que de plus en plus de collaborateurs souhaitent utiliser ces technologies pour augmenter leur productivité.

Le cabinet Gartner prévoyait dès 2023 que :

80% des entreprises utiliseront l'IA générative d’ici à 2026

Dans un contexte où bon nombre d'entreprises n'ont pas encore intégré de solutions d'IA sécurisées, la tentation d’utiliser des outils d'IA publiques est grande pour les employés. Et c'est là que les risques de fuite de données deviennent réalité pour les entreprises.


On vous explique pourquoi et comment vous en prémunir !


🎁Nous vous proposons le TAKEAWAY* d'IKIGIA à la fin de cet article : N'emportez avec vous que l'essentiel !


💅LA STRATEGIE DES EDITEURS POUR RECRUTER MASSIVEMENT DE NOUVEAUX UTILISATEURS !


La plupart de ces plateformes offrent une utilisation partielle ou totale de leurs fonctionnalités, gratuitement, simplement via une adresse e-mail pour s’y connecter. Cette stratégie adoptée par les éditeurs, leur assure le recrutement massif d’utilisateurs.


C’est ce qu’a fait OPEN AI avec chatGPT 3.5 dès Novembre 2022, ce qui lui permet d’afficher aujourd’hui plus de 200 millions d’utilisateurs par mois (voir figure ci-dessous) (1).


Le succès de chatGPT

Ces chiffres montrent qu’un grand nombre de collaborateurs utilisent, et continueront d'utiliser ces outils pour améliorer leur efficacité sur des tâches récurrentes.

Pour illustrer ce point, l’étude BPI ”IA REVOLUTION” parue en Avril 2024, nous indique :

(...) 16% des Français utilisent l’IA, 68% d’entre eux déclarent ne pas le dire à leur supérieur (...)

Ce phénomène s'appelle le “shadow AI”. Ce terme désigne cette pratique qui consiste en un usage masqué par les collaborateurs et non déclaré à l’employeur.

Cela expose les entreprises à des risques importants de fuite de données sans qu’elles en aient conscience, ni contrôle.



COMMENT L'ENTREPRISE SE RETROUVE T'ELLE EXPOSÉE AU RISQUE ?


Prenons l’exemple de Samsung Electronics en 2023, où trois incidents de mauvaise utilisation de ChatGPT ont été recensés en moins d’un mois.

Le site de RFI (2) relatait alors les faits suivant dans son article :

Une première fois, une personne qui avait détecté un problème dans l’exécution d’un programme de téléchargement d’une base de données a copié l'intégralité du code source dans ChatGPT afin qu’on lui propose une solution. Ensuite, une autre personne souhaitait « optimiser » du code pour le rendre plus efficace, et a donc saisi toutes les informations permettant à l’intelligence artificielle de le faire. Enfin, la troisième personne a converti le compte rendu d’une réunion enregistrée sur son téléphone et l’a transmis à ChatGPT en lui demandant de faire une présentation.

Bien que Samsung ait mis en place des mesures pour limiter les risques depuis ces incidents, les données concernées ont été transmises aux serveurs de la plateforme, sans retour en arrière possible.

Les conséquences n’ont pas été dévoilées par l'entreprise, mais voici ce que ces fuites de données pourraient avoir impliqué.



⚠️"SHADOW AI", RISQUES À L'HORIZON !


Le cas de SAMSUNG Electronics est loin d’être isolé. Les éditeurs de ces plateformes investissent massivement pour les rendre toujours plus performantes. Ainsi, ils s'assurent, à grand renfort de communication, de recruter toujours plus d'utilisateurs lors de la sortie d'une nouvelle version de leur solution.


Le risque de voir certains collaborateurs utiliser des outils en manipulant des données de l’entreprise est donc bien réel. Les conséquences aussi :

  1. Des risques de divulgation de données sensibles

    • Dans les versions publiques de ces plateformes, les données saisies sont généralement utilisées pour améliorer les modèles d'IA. Bien que certaines mesures soient en place, elles pourraient être conservées temporairement voire analysées.

    • Même si ces informations ne sont pas directement accessibles par une simple requête, elles pourraient être exposées via des failles de sécurité ou des changements de politique de traitement des données de l’éditeur.

  2. Une non-conformité avec les règles de confidentialité

    • Si les données partagées contiennent des informations sensibles (comme des noms ou d'autres informations confidentielles), il est fort possible que cela enfreigne la réglementation comme la RGPD en France (3). Une fois ces données soumises à l’IA, il est souvent impossible de les récupérer ou de les supprimer.

  3. Un risque pour la réputation et la compétitivité de l'entreprise

    • Si des données sensibles sont divulguées via des plateformes non sécurisées, la confiance des clients et partenaires peut être gravement affectée.

    • Un concurrent qui accéderait à des informations stratégiques pourrait compromettre les avantages concurrentiels de l’entreprise.


Bien que les éditeurs de ces plateformes insistent sur la sécurité des données pour les versions "entreprise", les versions publiques n’offrent pas les mêmes garanties.

Par exemple, dans ses conditions d’utilisation, l’éditeur Anthropic explique que ses modèles sont entraînés à partir de données issues d'internet, de licences tierces, et des informations fournies par les utilisateurs.

(…) Nous entraînons nos modèles à l'aide de données provenant de trois sources : 1/ des informations accessibles au public via l'internet 2/ les ensembles de données que nous utilisons sous licence auprès d'entreprises tierces 3/ Les données fournies par nos utilisateurs (…) (4)

En résumé, les conditions de collecte et de traitement des données par ces plateformes ne garantissent pas le droit à l'oubli ou la non-utilisation des données à des fins d'entraînement ou d'analyse.


🔰COMMENT VOUS PROTÉGER ?


Chez IKIGIA, notre approche repose sur deux piliers : prévention et sensibilisation.

Dans l’exemple de Samsung, les employés n’étaient pas conscients des risques auxquels ils exposaient l’entreprise.

La première étape est donc de sensibiliser vos équipes aux enjeux de l'IA : il est crucial que chaque collaborateur comprenne les risques et les défis d’utilisation de l’IA en entreprise et ce pour agir de manière responsable.

La seconde action consiste à mettre en place une politique interne claire sur l'usage de l'IA. Décidez si vous interdisez ou autorisez l’utilisation de ces outils publics, et sous quelles conditions. Il est essentiel que vos collaborateurs sachent précisément ce qu'ils peuvent et ne peuvent pas faire.


🍀COMMENT FAIRE DES RISQUES UNE OPPORTUNITE !


L’IA générative se développe à grande vitesse dans tous les secteurs d’activité. Même si toutes les entreprises n’envisagent pas encore de l’adopter, de nombreux collaborateurs en font déjà usage.


Chez IKIGIA, nous voyons ces risques comme une opportunité d’ouvrir le dialogue avec vos équipes. L’usage de l’IA n’est que la partie visible de l’iceberg :

la question suivante pour vos collaborateurs sera de savoir comment l'IA impactera leurs emplois !

Nous pensons que l’IA doit collaborer avec les humains plutôt que les concurrencer. C’est pourquoi aborder la question de la sécurité dès maintenant est une porte d’entrée au dialogue avec vos équipes et constitue une opportunité pour les 3 raisons suivantes :

  1. Evaluez la maturité IA de vos équipes : Sont-elles au fait des capacités des outils d'IA générative ? Si ce n’est pas le cas, cela ne tardera pas. Agir en prévention vous fera gagner du temps et réduira les risques.

  2. Analysez l’usage du "Shadow AI" : Identifiez pourquoi vos collaborateurs utilisent l'IA dans leur quotidien. Cela vous permettra d’établir un cadre en impliquant ceux qui se sentent concernés, tout en facilitant l'accès à ces outils pour d’autres. Dans tous les cas, vous aurez des premiers cas d'usage tangibles de l'IA dans votre entreprise, ce qui pourrait constituer une base de réflexion en vue d'une généralisation.

  3. Créez une dynamique IA : Que vous instauriez une politique interne ou organisiez une session de sensibilisation, ces initiatives ouvriront un dialogue précieux pour étudier l'intégration de l'IA comme levier de compétitivité.


Enfin, si vous envisagez d’intégrer l'IA dans votre organisation, privilégiez impérativement des solutions sécurisées qui seront adaptées aux besoins de votre entreprise !


🎁LE "TAKEAWAY" D’IKIGIA

  1. Le phénomène du "Shadow AI" représente un risque caché pour les entreprises : divulgation d'information, non-conformité réglementaire, atteinte à la réputation

  2. Sensibiliser vos équipes est la première ligne de défense

  3. Définir une politique IA claire vous permettra d’encadrer les pratiques

  4. Faire du sujet de la sécurité, une opportunité pour ouvrir les discussions sur l'IA dans votre entreprise

  5. Sécurisez l’usage de l’IA pour développer votre compétitivité



🎤 CE QU'IKIGIA PEUT VOUS APPORTER !


Nous accompagnons dirigeants et entreprises dans l'intégration de l'IA au sein de leur activité et organisation.


Nous proposons des sessions d'acculturation pour les équipes de direction et les équipes opérationnelles afin de les sensibiliser aux enjeux, potentiels et défis de l'utilisation de l'IA en entreprise. Notre objectif est de leur donner les clés pour comprendre et envisager l'utilisation de l'IA de manière sereine et sécurisée.


Nous accompagnons également les équipes dirigeantes dans l'établissement des règles de conduite, en établissant une charte de l'utilisation qui viendra s'intégrer à leur politique interne.


👂Nous sommes à l'écoute de votre projet. Prêt à en discuter ? C'est par ici !



L'image de couverture a été générée par l'outil ideogram.ai

Comments


bottom of page