Note pour la période des questions : CODE DE CONDUITE VOLONTAIRE POUR LES SYSTÈMES AVANCÉS D'INTELLIGENCE ARTIFICIELLE GÉNÉRATIVE
About
- Numéro de référence :
- ISI-2024-QP-00042
- Date fournie :
- 1 nov. 2024
- Organisation :
- Innovation, Sciences et Développement économique Canada
- Nom du ministre :
- Champagne, François-Philippe (L’hon.)
- Titre du ministre :
- Ministre de l'Innovation, des Sciences et de l'Industrie
Enjeu ou question :
Comment le code volontaire pour l'intelligence artificielle contribue-t-il à rassurer les Canadiens que l’IA sera adopté de façon sécuritaire ?
Réponse suggérée :
• Le gouvernement du Canada s'est engagé à déployer et à développer l'intelligence artificielle de manière sûre et sécurisée pour tous les Canadiens.
• Le Code de conduite volontaire du Canada pour les systèmes d'intelligence artificielle générative avancés définit des pratiques que les entreprises peuvent mettre en œuvre immédiatement pour faire face aux risques associés à l'IA générative avancée, avant que la loi sur l'intelligence artificielle et les données n'entre en vigueur.
• Le code a été élaboré en étroite collaboration avec l'industrie et d'autres parties prenantes. Il compte déjà plus de 30 organisations signataires et l’intérêt pour le code continue de croitre.
Contexte :
Le lancement du ChatGPT d'OpenAI en novembre 2022 a suscité une inquiétude croissante à l'échelle internationale quant aux risques posés par les systèmes d'IA générative avancés. Reconnaissant le besoin urgent de garde-fous pour l'intelligence artificielle générative (IA), le gouvernement du Canada a lancé une consultation sur les éléments potentiels d'un code de conduite volontaire pour les systèmes d'IA générative à l'été 2023. Le gouvernement a eu d'excellentes discussions avec les innovateurs, les chercheurs et les parties prenantes de la société civile sur ce que les entreprises doivent faire pour renforcer la confiance dans leurs activités, et sur la façon dont le gouvernement peut s'assurer que le code est pratique et applicable.
En conséquence, le gouvernement a annoncé le Code de conduite volontaire visant un développement et une gestion responsables des systèmes d'IA générative avancés (le Code) en septembre 2023. Le Code définit les mesures que les organisations peuvent appliquer à leurs activités lorsqu'elles développent et gèrent des systèmes d'IA générative dotés de capacités polyvalentes et constitue un pont essentiel entre aujourd'hui et l'entrée en vigueur du régime réglementaire proposé par le Canada en vertu de la Loi sur l'intelligence artificielle et les données (LIAD). À ce jour, plus de 30 organisations travaillant avec l'IA générative ont signé le code et se sont engagées à respecter ses principes.
Le code adopte une approche fondée sur le risque en segmentant les responsabilités en fonction de la position des entreprises dans la chaîne de valeur et de la manière dont le système est déployé. Les entreprises qui développent et celles qui gèrent les opérations des systèmes génératifs avancés ont toutes les deux des rôles importants et complémentaires. Les développeurs sont chargés de s'assurer qu'une diligence raisonnable a été exercée en termes d'impacts négatifs potentiels avant la publication de nouvelles versions de leurs systèmes. Après le déploiement, les entreprises qui gèrent les opérations de ces systèmes sont chargées de surveiller les systèmes en fonctionnement pour détecter toute utilisation inappropriée ou malveillante susceptible d'avoir des effets néfastes. Les gestionnaires et les développeurs doivent coopérer afin de s'assurer que les impacts négatifs sont traités par l'entreprise qui a la capacité de le faire.
Le code est également aligné sur les six principes énoncés dans le document d'accompagnement de la LIAD. Ces principes sont conformes aux normes internationales en matière de gouvernance des systèmes d'IA et se concentrent sur les résultats nécessaires pour instaurer la confiance chez les Canadiens :
• Responsabilité - Les entreprises comprennent leur rôle en ce qui concerne les systèmes qu'elles développent ou gèrent, mettent en place des systèmes de gestion des risques appropriés et coopèrent avec d'autres entreprises, le cas échéant, pour éviter les lacunes.
• Sécurité - Les systèmes font l'objet d'une évaluation des risques et les mesures d'atténuation nécessaires pour garantir un fonctionnement sûr sont mises en place avant le déploiement et réévaluées si nécessaire.
• Justice et équité - Les incidences potentielles en matière de justice et d'équité sont évaluées et traitées à différentes phases du développement et du déploiement des systèmes.
• Supervision et suivi humain - Les systèmes comprennent des mécanismes appropriés de supervision humaine et leur utilisation est contrôlée après leur déploiement. Les informations sont partagées et des mises à jour sont effectuées si nécessaire pour faire face aux risques qui se matérialisent.
• Validité et robustesse - Les systèmes fonctionnent comme prévu et leur comportement en réponse à la gamme de tâches ou de situations auxquelles ils sont susceptibles d'être exposés est compris.
• Transparence - Des informations suffisantes sont publiées pour permettre aux consommateurs de prendre des décisions en connaissance de cause et aux experts d'évaluer si les risques ont été traités de manière adéquate.
Les signataires du code s'engagent à prendre des mesures spécifiques pour chacun des six principes, selon qu'ils sont développeurs ou gestionnaires d'un système d'IA. Ils s'engagent également à soutenir le développement continu d'un écosystème d'IA robuste et responsable au Canada, par exemple en contribuant à l'élaboration et à l'application de normes, en partageant des informations et des bonnes pratiques avec d'autres membres de l'écosystème d'IA, et en collaborant avec des chercheurs pour soutenir la sensibilisation du public et la responsabilité. Enfin, les signataires s'engagent à développer et à déployer des systèmes d'IA compatibles avec l'accessibilité, les droits de l'homme et la durabilité environnementale, et à travailler en collaboration pour exploiter le potentiel de l'IA afin de résoudre des problèmes mondiaux urgents tels que le changement climatique.
Renseignements supplémentaires :
• Les signataires du code de conduite volontaire pour les systèmes d'intelligence artificielle (IA) générative avancés s'engagent à adopter des mesures liées au développement et à la gestion des opérations des systèmes d'IA générative avancés afin de d'atténuer et de répondre aux risques associés à ces systèmes.
• Les mesures sont ciblées, fondées sur des principes et doivent être appliquées par les entreprises d'une manière proportionnelle au risque.
• Bien que les mesures prescrites dans le code soient spécifiques au contexte de l'IA générative, les principes qui les sous-tendent sont largement applicables à toute une série de systèmes d'IA et peuvent être facilement adoptés par les acteurs de l'écosystème de l'IA au Canada.
• À ce jour, plus de 30 organisations travaillant avec l'IA générative ont signé le Code et se sont engagées à respecter ses principes, dont Mastercard, TELUS et Cohere. Ce nombre continue de croître et d'autres signataires sont attendus cet automne.
• L'augmentation constante du nombre de signataires du code témoigne de l'engagement des entreprises canadiennes à mettre en œuvre une IA responsable.