Selon Ray Canzanese, Threat Research Director du Threat Labs de Netskope, si les applications d'IA générative ont le potentiel de faciliter le quotidien des collaborateurs, elles peuvent également exposer de manière significative les données sensibles et les organisations à des risques de compromissions de données et de non-conformité :
Selon nos recherches, pour 10 000 utilisateurs, les entreprises subissent chaque mois environ 183 incidents de partage de données sensibles avec l’application ChatGPT. Les codes source sont les plus partagées dans ChatGPT, avec un taux mensuel de 158 incidents pour 10 000 utilisateurs. On dénombre également des données réglementées, notamment financières ou médicales, et des informations personnellement identifiables (IPI). Les organisations doivent donc prendre des contre-mesures sérieuses pour préserver la confidentialité et la sécurité de leurs données sensibles. Cela implique de surveiller l'utilisation et l'abus potentiel d'applications d’Intelligence Artificielle générative, en limitant l'exposition d'informations sensibles par leur intermédiaire et en sécurisant les documents confidentiels contre la perte accidentelle et le vol.
Pour relever le défi, la visibilité sera clé. Les équipes de sécurité doivent en effet s'appuyer sur des outils automatisés capables de surveiller en permanence les applications telles que ChatGPT auxquelles les utilisateurs de l'entreprise accèdent ; et plus particulièrement comment, quand, à partir d'où et à quelle fréquence. Il est essentiel de comprendre également les différents niveaux de risque que chaque outil représente pour l'organisation et d'avoir la capacité de définir des politiques de contrôle d'accès granulaires, en temps réel sur la base de cette catégorisation ainsi que des conditions de sécurité qui peuvent changer au fil du temps.
Alors que les applications plus explicitement malveillantes devraient être bloquées, la responsabilité de l'utilisation d’applications d’IA générative devrait être confiée aux utilisateurs. Il n’y aura en effet pas de futur sans ces technologies, l’objectif est donc de permettre, mais de restreindre leur utilisation à des activités définies et pertinentes. En parallèle, les équipes de sécurité ont la responsabilité de sensibiliser les collaborateurs aux applications et aux activités jugées risquées. Cela peut se faire via des alertes en temps réel et des workloads automatisés de formation, en impliquant l'utilisateur dans les décisions d'accès après avoir reconnu le risque.
Les utilisateurs commettent des erreurs et peuvent, par négligence, mettre en danger des données sensibles. Par conséquent, il est primordial de limiter le téléchargement et la publication de données hautement sensibles via ChatGPT et autres outils similaires. Seules des techniques modernes de prévention des pertes de données (DLP) permettent d'y parvenir, car elles sont capables d'identifier automatiquement les flux de données critiques et de catégoriser les messages sensibles avec un niveau de précision très élevé.
Pour relever le défi, la visibilité sera clé. Les équipes de sécurité doivent en effet s'appuyer sur des outils automatisés capables de surveiller en permanence les applications telles que ChatGPT auxquelles les utilisateurs de l'entreprise accèdent ; et plus particulièrement comment, quand, à partir d'où et à quelle fréquence. Il est essentiel de comprendre également les différents niveaux de risque que chaque outil représente pour l'organisation et d'avoir la capacité de définir des politiques de contrôle d'accès granulaires, en temps réel sur la base de cette catégorisation ainsi que des conditions de sécurité qui peuvent changer au fil du temps.
Alors que les applications plus explicitement malveillantes devraient être bloquées, la responsabilité de l'utilisation d’applications d’IA générative devrait être confiée aux utilisateurs. Il n’y aura en effet pas de futur sans ces technologies, l’objectif est donc de permettre, mais de restreindre leur utilisation à des activités définies et pertinentes. En parallèle, les équipes de sécurité ont la responsabilité de sensibiliser les collaborateurs aux applications et aux activités jugées risquées. Cela peut se faire via des alertes en temps réel et des workloads automatisés de formation, en impliquant l'utilisateur dans les décisions d'accès après avoir reconnu le risque.
Les utilisateurs commettent des erreurs et peuvent, par négligence, mettre en danger des données sensibles. Par conséquent, il est primordial de limiter le téléchargement et la publication de données hautement sensibles via ChatGPT et autres outils similaires. Seules des techniques modernes de prévention des pertes de données (DLP) permettent d'y parvenir, car elles sont capables d'identifier automatiquement les flux de données critiques et de catégoriser les messages sensibles avec un niveau de précision très élevé.
Et vous ?
Trouvez-vous cette analyse crédible ou pertinente ?
Quelle est la situation de votre entreprise vis-à-vis de l'IA générative ?
Voir aussi :
WormGPT est une alternative à ChatGPT sans « limites éthiques ou restrictions ». Le chatbot IA peut aider les cybercriminels à créer des logiciels malveillants, et des attaques de phishing
81 % des utilisateurs se méfient de ChatGPT et s'inquiètent de sa sécurité et de sa sûreté, et 63 % ne font pas confiance aux informations produites par cet outil d'IA générative, selon Malwarebytes
Les employés utilisent secrètement ChatGPT, ce qui pose des risques pour les entreprises, l'utilisation non contrôlée de l'IA générative, une bombe à retardement pour les sociétés