"L'approche privilégie l'appropriation des résultats en matière de sécurité pour les clients, adopte une transparence et une responsabilité radicales et établit des structures organisationnelles où la conception sécurisée est une priorité absolue", a déclaré l'Agence américaine de cybersécurité et de sécurité des infrastructures (CISA).
L'objectif est d'accroître les niveaux de cybersécurité de l'IA et de veiller à ce que la technologie soit conçue, développée et déployée de manière sécurisée, a ajouté le Centre national de cybersécurité (NCSC).
Les lignes directrices s'appuient également sur les efforts continus du gouvernement américain pour gérer les risques posés par l'IA en veillant à ce que les nouveaux outils soient testés de manière adéquate avant d'être rendus publics, à ce que des garde-fous soient mis en place pour remédier aux préjudices sociétaux, tels que les préjugés et la discrimination, et aux problèmes de protection de la vie privée, et à ce que des méthodes robustes soient mises en place pour permettre aux consommateurs d'identifier le matériel généré par l'IA.
Les engagements exigent également que les entreprises s'engagent à faciliter la découverte et le signalement par des tiers des vulnérabilités de leurs systèmes d'IA par le biais d'un système de primes à la détection de bogues, afin qu'elles puissent être trouvées et corrigées rapidement.
Les dernières lignes directrices "aident les développeurs à s'assurer que la cybersécurité est à la fois une condition préalable essentielle à la sécurité des systèmes d'IA et qu'elle fait partie intégrante du processus de développement dès le début et tout au long, ce que l'on appelle une approche "sécurisée dès la conception"", a déclaré le NCSC.
Cette approche englobe la conception sécurisée, le développement sécurisé, le déploiement sécurisé, ainsi que l'exploitation et la maintenance sécurisées, couvrant tous les domaines importants du cycle de vie du système d'IA, et exigeant des organisations qu'elles modélisent les menaces pesant sur leurs systèmes et qu'elles protègent leurs chaînes d'approvisionnement et leurs infrastructures.
L'objectif, notent les agences, est également de lutter contre les attaques adverses ciblant les systèmes d'IA et d'apprentissage machine (ML) qui visent à provoquer un comportement involontaire de différentes manières, y compris en affectant la classification d'un modèle, en permettant aux utilisateurs d'effectuer des actions non autorisées, et en extrayant des informations sensibles.
Il existe de nombreuses façons d'obtenir ces effets, comme les attaques par injection rapide dans le domaine des grands modèles de langage (LLM), ou la corruption délibérée des données d'apprentissage ou des commentaires des utilisateurs (connue sous le nom d'"empoisonnement des données"", a fait remarquer le NCSC.
Source : "Guidelines for secure AI system development", publié par le NCSC, la CISA et d'autres partenaires internationaux
Et vous ?
Quel est votre avis sur le sujet ?
Trouvez-vous cette initiative pertinente et cohérente ?
Voir aussi
Plusieurs dirigeants du monde signent une déclaration reconnaissant la nécessité d'atténuer les risques liés à l'IA, mais le document n'est pas juridiquement contraignant et est vivement critiqué
Le Congrès américain va examiner deux nouveaux projets de loi sur l'intelligence artificielle, afin de rendre l'utilisation de l'IA plus transparente et assurer que les États-Unis restent compétitifs
L'UE envisagerait des règles très strictes pour les chatbots dans le cadre de son projet de loi sur l'IA elle devrait exiger la divulgation de l'utilisation du matériel protégé par le droit d'auteur
Les législateurs de l'UE progressent dans leurs négociations cruciales sur les nouvelles règles en matière d'IA