-
Transparence
-
Responsabilité
-
Utilisation éthique
-
Contrôle continu
Transparence
Rendre les systèmes d'IA compréhensibles et explicables pour les parties prenantes, notamment les utilisateurs, les développeurs, les organismes de réglementation et le grand public.
Mise en œuvre pratique
Documentation claire expliquant le fonctionnement des algorithmes d'IA, les données qu'ils utilisent et la manière dont les décisions sont prises.
Responsabilité
L’obligation pour les individus, les organisations ou les gouvernements d’assumer la responsabilité des résultats des systèmes d’IA.
Mise en œuvre pratique
Définir les responsabilités en matière de décisions, d'actions et de conséquences liées à l'IA. Mettre en place des mécanismes de responsabilisation des parties prenantes, notamment des cadres juridiques, des organes de surveillance et des procédures de traitement des plaintes ou griefs découlant de l'utilisation de l'IA.
Utilisation éthique
Concevoir, déployer et gérer des systèmes d'IA en accord avec des principes éthiques tels que l'équité, la transparence et la responsabilité.
Mise en œuvre pratique
Ajouter des garde-fous aux processus de développement des LLM afin d'examiner les ensembles de données et les résultats de la formation et de garantir qu'ils favorisent des résultats équitables pour tous, indépendamment des facteurs démographiques.
Contrôle continu
Détecter les écarts par rapport au comportement attendu des modèles de langage pour atténuer les risques tels que les biais ou les menaces à la sécurité, et garantir que les systèmes fonctionnent conformément aux normes éthiques et aux exigences légales.
Mise en œuvre pratique
Un suivi continu des indicateurs de performance, des vulnérabilités de sécurité, de la conformité éthique et réglementaire, ainsi que des garde-fous, doit être mis en place, comme expliqué précédemment. Ces éléments doivent faire l'objet de boucles de rétroaction.
Participation des intervenants
Les personnes chargées de définir les lignes directrices éthiques, les cadres réglementaires et les meilleures pratiques qui régissent les technologies d'IA.
Mise en œuvre pratique
Inviter et impliquer les développeurs, les chercheurs, les décideurs politiques, les organismes de réglementation, les représentants de l'industrie, les communautés concernées et le grand public. Veiller à ce que la diversité des points de vue, des préoccupations et des expertises soit prise en compte tout au long du développement, du déploiement et de l'utilisation des systèmes d'IA.
Confidentialité
Garantir le droit des individus à contrôler leurs données personnelles et assurer leur confidentialité et leur intégrité tout au long de leur cycle de vie.
Mise en œuvre pratique
Anonymisation, chiffrement, stockage et transmission sécurisés des données, et respect des réglementations en matière de protection des données telles que le RGPD ou le CCPA.
Sécurité
Les mesures et pratiques mises en œuvre pour protéger les systèmes d'IA contre les accès non autorisés, les attaques malveillantes et les violations de données, et pour empêcher les organisations de soumettre des données sensibles à ces systèmes.
Mise en œuvre pratique
Pratiques de codage sécurisées, chiffrement des données sensibles, évaluations régulières des vulnérabilités et tests d'intrusion, contrôles d'accès et mécanismes d'authentification ; surveillance des activités anormales ou des menaces potentielles ; réponse rapide aux incidents ; utilisation d'une extension de navigateur d'entreprise pour GenAI DLP.
Explicabilité
La capacité des systèmes d'IA à fournir des explications compréhensibles pour leurs décisions et leurs actions.
Mise en œuvre pratique
Générer des explications compréhensibles par l'humain, visualiser les processus de prise de décision et retracer les décisions jusqu'aux données d'entrée et aux caractéristiques du modèle.
-
Participation des intervenants
-
Confidentialité
-
Sécurité
-
Explicabilité