Netskope renforce la sécurité de l’utilisation de ChatGPT en entreprise

Netskope renforce la sécurité de l’utilisation de ChatGPT en entreprise

L’essor de ChatGPT dans les grandes entreprises

Alors que ChatGPT connaît une croissance mensuelle de 25% au sein des grandes entreprises, les directeurs des systèmes d’information (DSI) commencent à découvrir les effets néfastes de l’utilisation de l’IA générative “Shadow IA”. Pour répondre à ce défi, Netskope a ajouté des fonctionnalités de surveillance et de gouvernance des IA génératives à sa plateforme SSE.

La montée en puissance de l’IA générative

En raison de leur facilité d’intégration, de leur simplicité d’utilisation et de leurs capacités linguistiques impressionnantes, les IA génératives, notamment ChatGPT, se propagent rapidement dans les entreprises, parfois sans l’aval ni la connaissance des DSI, créant ainsi un phénomène de “Shadow IA” similaire à celui du “Shadow IT” causé par l’adoption massive et incontrôlée des services SaaS.

Les risques liés à l’utilisation de l’IA générative

N’étant que peu, voire pas du tout, formés aux usages et aux risques de ces IA, les utilisateurs n’hésitent pas à leur demander de coder des fonctionnalités, d’analyser des données ou de générer des résumés de rapports, à partir d’informations potentiellement confidentielles ou stratégiques pour l’entreprise. Certains vont même jusqu’à demander à ces IA de rédiger des fiches produits ou des messages sur les réseaux sociaux, sans se soucier des dérives possibles de ces IA, ce qui peut nuire à l’image de l’entreprise ou la mettre en difficulté.

À lire aussi  Sexologue pourquoi: l'importance de consulter un sexologue

Trouver un équilibre entre sécurité et efficacité

Face à ce dilemme, les entreprises se demandent s’il vaut mieux bloquer l’accès à ChatGPT et à d’autres applications d’IA générative pour réduire les risques de sécurité, ou les autoriser afin de bénéficier de leurs avantages en termes d’efficacité. Krishna Narayanaswamy, cofondateur et CTO de Netskope, affirme que son entreprise est en mesure de relever ce défi en assurant une mise en œuvre sécurisée de ces applications. Netskope aide ainsi toutes les entreprises à encourager une utilisation responsable de ces applications de plus en plus populaires en mettant en place des contrôles de protection des données adaptés pour préserver leur sécurité et leur productivité.

Les nouveautés introduites par Netskope

Au sein de sa plateforme Intelligent SSE, Netskope a introduit plusieurs innovations pour classer, surveiller et contrôler dynamiquement l’utilisation des IA génératives au sein de l’entreprise. Parmi ces nouveautés, on retrouve :

  • Un tableau de bord Advanced Analytics qui affiche les tendances et les données spécifiques à ChatGPT et aux autres IA génératives.
  • L’indice de confiance Netskope Cloud Confidence Index (CCI) qui classe activement les nouvelles applications d’IA générative et évalue leur niveau de risque dans le contexte de l’entreprise.
  • Une nouvelle catégorie dédiée à l’identification des domaines d’IA générative, permettant aux équipes IT de configurer des règles de contrôle d’accès et de protection en temps réel.
  • La possibilité de contrôler, autoriser ou bloquer les données sensibles de l’entreprise afin d’éviter qu’elles ne soient envoyées aux IA génératives capables de corriger, optimiser ou générer du code informatique.
  • Des messages visuels de coaching spécifiques qui alertent les utilisateurs en temps réel sur l’exposition potentielle des données et les autres risques lorsqu’ils accèdent aux applications d’IA générative.
  • La surveillance, l’autorisation ou le blocage des messages et des téléchargements de fichiers vers les chatbots d’IA, tout en garantissant le respect des exigences de conformité réglementaire (RGPD, CCPA, HIPAA, etc.) grâce à un outil de classification avancée des données et à une détection basée sur l’apprentissage automatique (ML).
À lire aussi  Les étapes pour organiser l’élection des délégués du personnel

Netskope se positionne donc comme un acteur majeur dans la protection des données et accompagne les entreprises dans l’utilisation responsable des applications d’IA générative, en assurant à la fois leur sécurité et leur productivité.

Sources: