Note pour la période des questions : INSTITUT CANADIEN POUR LA SÉCURITÉ DE L'INTELLIGENCE ARTIFICIELLE

About

Numéro de référence :
AIDI-2026-QP-00001
Date fournie :
15 sept. 2025
Organisation :
Innovation, Sciences et Développement économique Canada
Nom du ministre :
Solomon, Evan (L’hon.)
Titre du ministre :
Ministre de l’intelligence artificielle et de l’innovation numérique

Enjeu ou question :

Pourquoi le gouvernement du Canada a-t-il crée l'institut de sécurité de l'IA ?

Réponse suggérée :

• Les progrès rapides de l'intelligence artificielle ont mis en évidence le potentiel de cette technologie transformatrice, mais aussi le fait que sa capacité peut soulever des questions de risque et de sécurité. Garantir la sécurité est essentiel pour renforcer la confiance du public dans les systèmes d'IA.

En novembre 2024, le gouvernement du Canada a crée l'Institut canadien pour la sécurité de l'intelligence artificielle afin de faire avancer la compréhension scientifique des risques liés aux systèmes d’IA les plus avancés et de fournir des outils pour y faire face.

• Pour ce faire, l'Institut s'appuie sur l’écosystème de recherche de calibre mondiale du Canada en matière de l'IA par l'intermédiaire de l'Institut canadien de recherches avancées (CIFAR) et du Conseil national de recherches du Canada (CNRC), et collabore avec des instituts partenaires internationales.

Contexte :

• Assurer la sécurité des systèmes d'intelligence artificielle (IA) les plus performants est une priorité pour le Canada et ses partenaires les plus proches.
• Étant donné que les capacités de l’IA ne sont pas entièrement comprises et qu’elles évoluent constamment, il est nécessaire de mieux comprendre les risques et d’élaborer des mesures pour les atténuer.
• L'Institut canadien pour la sécurité de l'intelligence artificielle est un membre fondateur du Réseau international des instituts de sécurité de l'IA, qui regroupe des organisations similaires aux États-Unis, au Royaume-Uni, dans l'Union européenne, au Japon, en Corée, en France, à Singapour, en Australie et au Kenya.
• L'Institut s'appuie sur la communauté canadienne de recherche en IA pour faire progresser la science de la sécurité de l'IA. Les principales priorités de recherche du ICSIA pour 2025-2026 comprennent l'évaluation des risques liés aux systèmes d'IA, l'étude du fonctionnement des systèmes d'IA et de leur interaction avec le monde réel, ainsi que le développement de nouvelles techniques visant à rendre les systèmes d'IA plus sûrs. Il a entamé des travaux dans ces trois domaines prioritaires au cours de cette année.
• L’institut aussi vise à faire progresser la collaboration internationale en travaillant avec les membres du réseau sur des exercices conjoints d’évaluation de modèles et à bâtir un programme de recherche solide qui contribue à l’avancement des connaissances dans le domaine de la sécurité de l’IA, y compris un partenariat collaboratif d'un million de dollars signé avec le “UK AI Security Institute” en juillet 2025 afin de financer la recherche sur l'alignement de l'IA.

• L’institut établit également des partenariats avec des parties prenantes majeures du secteur de l’IA afin de collaborer sur la recherche et les essais liés à la sécurité de l’IA, y compris l’annonce récente d’un protocole d’entente avec la société canadienne d’IA, Cohere.

• Par ces actions, l'institut vise à fournir des conseils et des outils pour soutenir les priorités politiques à l'échelle du gouvernement, ainsi qu'à communiquer des informations sur la sécurité de l'IA et à sensibiliser et renforcer la confiance des Canadiens et des parties prenantes.

Renseignements supplémentaires :

Avec les progrès rapides de l'intelligence artificielle (IA), garantir la sécurité et le déploiement éthique des systèmes d'intelligence artificielle (IA) avancées est devenu une priorité mondiale.

Lors du sommet du Royaume-Uni sur la sécurité de l'IA en novembre 2023, la déclaration de Bletchley a souligné les risques croissants posés par les technologies émergentes en matière d'IA, notamment le potentiel d'utilisation abusive dans les campagnes de désinformation, les atteintes à la cybersécurité et même la mise au point d'armes biologiques. Ces préoccupations ont été reprises lors du sommet de Séoul sur la sécurité de l’IA en mai 2024, où les dirigeants mondiaux ont discuté de la nécessité d'une coopération internationale en matière de sécurité de l'IA. Alors que le Sommet pour l'action sur l'IA, qui s'est tenu à Paris en février 2025, a mis davantage l'accent sur le soutien à l'adoption et à l'innovation, le Canada et ses alliés les plus proches reconnaissent l'importance continue de renforcer la confiance dans l'IA et s'engagent à soutenir le développement et le déploiement responsables des systèmes d'IA.
Lancé en 2024 avec un investissement initial de 50 millions de dollars sur 5 ans, l'ICSIA s'inscrit dans le cadre d'une stratégie gouvernementale plus large visant à promouvoir le développement responsable de l'IA au Canada, en relevant les défis sociétaux, techniques et éthiques. Depuis sa création, L'ICSIA a mis en place une collaboration avec des parties prenantes des secteurs public et privé, du monde universitaire et de la société civile, garantissant ainsi une approche multidisciplinaire de la recherche sur la sécurité de l'IA. Le CAISI se concentre sur des domaines de recherche clés tels que les cadres d'évaluation et d'analyse des risques liés aux modèles d'IA, les stratégies techniques d'atténuation des risques liés à l'IA et la conception de systèmes d'IA plus sûrs.

Le modèle opérationnel du L'ICSIA est conçu pour tirer parti des ressources et des partenariats existants. L'institut est hébergé par Innovation, Sciences et Développement économique Canada et dispose d'un bureau dédié chargé de coordonner les politiques et les engagements internationaux, grâce auquel le CAISI mobilise la solide communauté canadienne de recherche en IA, leader mondial dans ce domaine, y compris les trois instituts nationaux d'IA (Amii, MILA et Vector) pour mener des recherches de pointe sur les questions de sécurité de l'IA. Les activités de recherche sont menées selon deux axes.

Le premier volet, celui de la recherche dirigée par des chercheurs, est géré dans le cadre d'un accord de contribution avec l'Institut canadien de recherches avancées (CIFAR), qui permet à des experts canadiens et internationaux d'explorer des questions cruciales relatives à la sécurité de l'IA. À ce jour, la collaboration entre L'ICSIA et le CIFAR dans le cadre du premier volet de recherche a donné lieu à deux nouvelles initiatives de financement de la recherche, qui devraient débuter à l'automne 2025.
• Le programme de subventions catalyseur est destiné aux initiatives à haut risque et à haut rendement. Dix nouveaux projets ont été annoncés en juin 2025, axés sur la lutte contre la désinformation, le développement de modèles d'IA fiables et conformes aux valeurs humaines, et la garantie de la sécurité des systèmes d'IA dans le monde réel.
• Le programme Réseaux de solutions du CIFARS est destiné à la recherche collaborative sur une plus longue période. Deux nouveaux projets du Réseaux de solution ont été lancés en novembre 2025, l'un traitant des défis liés à la sécurité de l'IA que pose l'infiltration de contenus synthétiques dans le système judiciaire canadien, et l'autre contribuant à la création de modèles d'IA plus sûrs et plus équitables pour les minorités linguistiques en s'attaquant aux préjugés dialectaux dans l'IA.

Le deuxième volet, celui des projets dirigés par le gouvernement, a été mis en œuvre dans le cadre d'un protocole d'entente avec le Conseil national de recherches du Canada (CNRC) et comprend des projets de collaboration avec des partenaires nationaux et internationaux. À ce jour, l’ICSIA a lancé 13 projets axés sur les questions de sécurité liées à l'IA, tels que la détection des deepfakes, l'automatisation robotique sécurisée, l'exploration des risques liés aux agents IA autonomes, ainsi que l'élaboration de critères de référence et d'évaluations pour les modèles d'IA.

L'ICSIA est un membre pionnier du réseau international des AISI, qui regroupe des bureaux équivalents dans dix juridictions, dont les États-Unis, le Royaume-Uni, l'Union européenne, la France, l'Australie, Singapour, le Japon, la Corée du Sud et le Kenya. Ce réseau coordonnera les efforts visant à faire progresser la compréhension collective de la sécurité de l'IA, à traiter les risques liés aux systèmes d'IA de pointe et à contribuer à l'élaboration de normes de sécurité de l'IA reconnues internationalement qui pourraient constituer l'épine dorsale des politiques de sécurité de l'IA dans toutes les juridictions et tous les marchés. Le réseau a été lancé en novembre 2024 à San Francisco. Le CAISI a accueilli la troisième réunion en personne du réseau à Vancouver, en marge de la Conférence internationale sur l'apprentissage automatique (ICML), au cours de laquelle des décisions ont été prises concernant les priorités, la gouvernance et les collaborations du réseau.
L'ICSIA codirige avec l'Australie le volet de recherche du réseau sur les risques posés par les contenus synthétiques générés par l'IA et a publié en juillet 2025 le programme de recherche du réseau sur les contenus synthétiques. L'ICSIA participe également à des évaluations de modèles multilingues menées par Singapour et le Royaume-Uni, avec des contributions en cantonais, en farsi et en télougou, et a publié conjointement les résultats des tests de modèles et un inventaire des outils d'évaluation des risques lors du Sommet de Paris sur l'IA (février 2025).

L’ICSIA continuera à faire progresser la recherche sur la sécurité de l'IA, notamment en approfondissant ses collaborations avec les développeurs d'IA et ses partenaires internationaux. Ce travail continu sur la sécurité de l'IA contribuera à renforcer la confiance du public, ce qui est essentiel pour le succès de l'adoption et de l'innovation en matière d'IA.