Les risques liés à l’utilisation de Microsoft Copilot

L’IA générative est incontestablement l’une des avancées technologiques les plus prometteuses de ces dernières années. Avec son lot d’applications multiples qui faciliteront les usages des utilisateurs, elle représentera un levier de productivité pour les entreprises.

Contrairement à l’IA dite « classique » qui permet principalement d’analyser des données et de réaliser des calculs prédictifs, l’IA générative est capable de créer des contenus de toute sorte (textes, images, vidéos) sur la base d’une quantité importante de données.

L’IA générative devient ainsi en enjeu de différentiation concurrentielle notamment pour les fournisseurs de services Cloud qui souhaitent profiter de ce levier technologique pour booster leurs offres et gagner de nouvelles parts de marché.

Parmi les leaders, Microsoft a su développer assez rapidement sa solution d’IA générative Microsoft Copilot basée sur le modèle pionner OpenAI et l’a intégrée à son écosystème Digital Workplace Microsoft 365 au travers de plusieurs composantes :

  1. Microsoft 365 Copilot : services Microsoft Graph + Microsoft 365 Apps (Word, Excel, PowerPoint, Outlook, Teams)
  2. Power Platform Copilot et Power BI Copilot : services Power Apps + Power Automate + Power BI
  3. Copilot pour Windows : système d’exploitation Windows 11 + moteur de recherche Bing + navigateur Web EDGE
  4. Microsoft Security Copilot : services de sécurité Microsoft Defender for Endpoint et Microsoft Defender for Office 365.

Cette offre étant disponible depuis fin 2023, les entreprises s’interrogent désormais sur la manière d’intégrer au mieux Microsoft Copilot au sein de leur organisation.

En tant que cabinet de conseil en cybersécurité, Lovell Consulting souhaite apporter des éléments de réponse et proposer sa vision. De notre point de vue, l’activation de Microsoft Copilot doit se faire à l’image des autres services Microsoft 365 : en menant au préalable une analyse des risques induits.

C’est à ce titre que nous publions un premier article qui porte sur les risques liés à l’utilisation de Microsoft Copilot. Puis ensuite nous publierons un second article qui reprendra les réponses apportées par Microsoft et évaluera la nécessité d’en intégrer davantage.

L’un des atouts de Microsoft Copilot est de pouvoir agréger massivement les données disponibles depuis l’écosystème Microsoft 365, lui permettant ainsi de s’imprégner du contexte de l’entreprise et d’apporter des réponses adaptées aux utilisateurs.

Dès lors, la donnée devient le principal enjeu à prendre en considération lorsque l’on souhaite déployer cette solution d’IA générative.

Le recul sur l’utilisation des solutions collaboratives nous montre que pour des raisons de facilité, les documents sont souvent partagés plus largement que nécessaire en termes d’auditoire et de permissions. Or en agrégant de l’information issue de documents parfois sensibles, Microsoft Copilot peut mettre en exergue ces données et contribuer ainsi au risque de divulgation de données sensibles à des utilisateurs qui n’avaient jusque-là pas connaissance de leur existence.

Cela est notamment le cas lorsque les données ne sont ni classifiées ni protégées au travers d’une solution de chiffrement comme Azure Information Protection, ou lorsque la gestion des droits d’accès aux espaces de stockage est anarchique et décentralisée.

Négligence des utilisateurs

Avec toutes les annonces prometteuses autour de Microsoft Copilot, les utilisateurs peuvent à tort prendre pour argent comptant les réponses apportées par la solution d’IA générative. Or en s’appuyant sur des documents obsolètes voir même erronés, Microsoft Copilot peut absorber des informations inappropriées pour ensuite les diffuser et contribuer ainsi au risque de propagation de fausses informations à des utilisateurs qui ne vont pas challenger les résultats.

Cela est d’autant plus problématique lorsque des tiers malintentionnés vont délibérément corrompre un ensemble de données pour orienter l’IA dans un sens inapproprié. C’est ce qu’on appelle le data poisoning attack.

Détournement des usages

Microsoft Copilot propose des résultats si pertinents et variés qu’il devient parfois difficile d’identifier l’auteur entre l’IA et un individu. Or en l’absence de garde-fous et par manque de vigilance des utilisateurs, des tiers malveillants peuvent exploiter la solution d’IA générative à des fins cybercriminelles en vue de perfectionner leurs techniques de social engineering et de phishing qui sont déjà les premiers vecteurs d’attaque de la Digital Workplace.

Une autre tendance consiste également à corrompre Microsoft Copilot avec des requêtes ciblées dans le but d’exploiter une faiblesse de l’agent et le forcer à générer des résultats pouvant entrainer la divulgation d’informations sensibles ou l’exécution de codes malicieux.

Propriété intellectuelle

Étant donné sa conception, Microsoft Copilot se base sur des données existantes pour créer de nouveaux contenus sans intervention humaine. Dès lors se pose la question du droit d’exploitation d’un contenu créé par une IA à l’insu du propriétaire des données d’origine. Si la législation encadre le droit d’auteur entre les individus, elle n’apporte pas encore une réponse équivalente lorsqu’une IA entre dans l’équation, exposant ainsi les entreprises qui utilisent Microsoft Copilot à des risques juridiques.

Ainsi, nous venons de voir qu’avant d’être à l’origine de nouveaux risques, Microsoft Copilot met avant tout en exergue des risques déjà existants.

Il convient alors de se demander si face à cela, Microsoft apporte des éléments de réponse permettant de réduire la portée de ces risques. C’est dans cette optique que nous publierons un second article pour évaluer les mesures apportées par Microsoft et juger de la nécessité d’en intégrer davantage.

Partager cet article

À lire également

Gouvernance et risques

Les risques liés à l’utilisation de Microsoft Copilot

Contrairement à l’IA dite « classique » qui permet principalement d’analyser des données et de réaliser des calculs prédictifs, l’IA générative est capable de créer des contenus de toute sorte (textes, images, vidéos) sur la base d’une quantité importante de données. Mais quels peuvent être les risques liés à l’utilisation de Microsoft Copilot ?

Lire la suite
homme femme travail bureau ordinateur cybersecurity cybersécurité gestion risques management lovell consulting lovellconsulting
Protection des données

Des cookies au floc : évolutions des techniques de tracking en ligne

La pratique du cookie tiers permet aux diffuseurs d’analyser les comportements utilisateur et de cibler les centres d’intérêt des utilisateurs. Ainsi, les publicités proposées peuvent être ciblées. Cependant, la pratique est de plus en plus controversée car jugée intrusive par les défenseurs de la vie privée.

Lire la suite