Note pour la période des questions : Utilisation responsable de l’intelligence artificielle (IA)
About
- Numéro de référence :
- TBS-2025-QP-06-00031
- Date fournie :
- 19 juin 2025
- Organisation :
- Secrétariat du Conseil du Trésor du Canada
- Nom du ministre :
- Ali, Shafqat (L’hon.)
- Titre du ministre :
- Président du Conseil du Trésor
Enjeu ou question :
Comment le gouvernement adopte-t-il l'IA tout en gérant ses risques potentiels ?
Réponse suggérée :
• Le gouvernement du Canada s'est engagé à assurer l'utilisation responsable de l'intelligence artificielle (IA) et à veiller à ce qu'elle soit régie par des valeurs, une éthique et des règles claires.
• Le Canada est un chef de file mondial en matière d'IA dans le secteur public, et nous avons récemment publié une stratégie en matière d'IA pour la fonction publique fédérale afin de guider notre voie vers l'avenir, renforçant ainsi le leadership du Canada.
• La stratégie accélérera l'adoption responsable de l'IA dans l'ensemble de la fonction publique fédérale afin d'offrir de meilleurs services numériques aux Canadiens et aux entreprises, d'améliorer la productivité de la fonction publique et d'accroître notre capacité de découverte grâce à la science et à la recherche.
• La stratégie a été élaborée dans le cadre de consultations approfondies avec des experts et le public. Elle sera
renouvelée tous les deux ans pour s'assurer qu'elle reste pertinente et adaptée aux avancées technologiques.
Contexte :
L'approche du gouvernement du Canada à l'égard de l'IA responsable
Le gouvernement fédéral accorde la priorité à la transparence, à la responsabilisation et à l'équité dans son travail en matière d'IA. En 2019, le SCT a publié la Directive sur la prise de décisions automatisée (Directive) pour appuyer cette approche. La Directive établit des règles sur la façon dont les ministères et les organismes peuvent utiliser les systèmes automatisés dans les décisions relatives aux services. Elle s'applique aux systèmes décisionnels automatisés qui prennent ou appuient des décisions ayant une incidence sur les droits, les intérêts ou les privilèges des clients. Les clients visés par la Directive comprennent des membres du public, des entreprises et des employés fédéraux.
Le SCT a également créé l'outil d'évaluation de l’incidence algorithmique (EIA) pour aider les institutions fédérales à comprendre et à gérer les risques de leurs projets d'automatisation et à déterminer les exigences applicables en vertu de la Directive. La Directive exige que les institutions fédérales qui cherchent à automatiser une décision administrative remplissent et publient l'EIA, ce qui favorise la transparence et favorise la confiance du public. Les EIA publiées sur le Portail du gouvernement ouvert fournissent un référentiel croissant d'exemples de la façon dont l'IA est utilisée pour améliorer les services, y compris l'immigration, la sécurité publique et les avantages sociaux.
La directive et l'EIA ont été élaborées en collaboration ouverte avec la société civile, le milieu universitaire, l'industrie et d'autres gouvernements. Le SCT a publié des modifications à la Directive en avril 2023 à la suite de l'achèvement du troisième examen de l'instrument. Le quatrième examen de la Directive est en cours d'achèvement. Cet examen vise à renforcer les mesures de protection pour les clients et les institutions fédérales, à soutenir les ministères dans la mise en œuvre de la directive et à renforcer les engagements à l'égard de la transparence et de la responsabilisation. Le SCT a également publié des orientations sur la portée de la Directive et son exigence en matière d'examen par les pairs au cours des derniers mois.
En 2023, le SCT a publié un guide pour aider les institutions fédérales à utiliser de manière responsable l'IA générative. Le guide établit des principes pour aider les fonctionnaires à évaluer les risques associés à l'IA générative et à l'utiliser de façon responsable dans le cadre de leurs activités quotidiennes. Il offre également des considérations stratégiques et des pratiques exemplaires pour les institutions fédérales qui élaborent ou déploient des outils d'IA générative. Le guide aidera les employés et les institutions fédérales à évaluer et à atténuer les risques, à s'assurer qu'ils se conforment aux lois et aux politiques fédérales et à utiliser l'IA générative d'une manière qui maintient la confiance du public dans le gouvernement numérique. Le guide a été mis à jour en février 2024. En octobre 2024, le SCT a publié un résumé du guide qui offre des pratiques exemplaires concises pour aider les fonctionnaires à envisager l'utilisation de l'IA générative dans leur travail quotidien.
En complément de ces efforts, le Centre canadien pour la cybersécurité a également publié des directives qui documentent les risques pour la cybersécurité associés à l'IA générative et les pratiques exemplaires pour atténuer ces risques.
Au début de 2024, le SCT a entrepris un projet visant à élaborer sa première Stratégie en matière d'IA pour la fonction publique fédérale. Le SCT a mobilisé les parties prenantes, les partenaires et le public sur l’élaboration de la stratégie et a publié, à l’automne 2024, un rapport
« Ce que nous avons entendu » résumant les principaux thèmes et recommandations des participants.
La stratégie a été publiée en mars 2025. Elle définit des actions clés pour faire progresser l'adoption de l'IA responsable au sein du gouvernement du Canada dans quatre domaines prioritaires : capacité centrale d'IA, politique et gouvernance, talents et formation, et engagement, transparence et valeur pour les Canadiens. Un plan de mise en œuvre sera publié à l'été 2025.
Renseignements supplémentaires :
aucun