Note pour la période des questions : INSTITUT CANADIEN POUR LA SÉCURITÉ DE L'INTELLIGENCE ARTIFICIELLE
About
- Numéro de référence :
- ISI-2024-QP-00036
- Date fournie :
- 25 nov. 2024
- Organisation :
- Innovation, Sciences et Développement économique Canada
- Nom du ministre :
- Champagne, François-Philippe (L’hon.)
- Titre du ministre :
- Ministre de l'Innovation, des Sciences et de l'Industrie
Enjeu ou question :
Comment l'institut de sécurité de l'IA annoncé dans le budget 2024 va-t-il contribuer à atténuer les risques liés à l'adoption de l'intelligence artificielle ?
Réponse suggérée :
• Les développements de l'intelligence artificielle entraînent la nécessité d'assurer la sécurité des systèmes d'intelligence artificielle les plus performant.
• En novembre 2024, le gouvernement du Canada a annoncé la création de l'Institut canadien pour la sécurité de l'intelligence artificielle.
• Annoncé pour la première fois dans le cadre du budget 2024, l’institut contribuera à faire progresser la connaissance et la compréhension des risques associés aux systèmes d'IA les plus avancés, ainsi qu'à élaborer des mesures visant à réduire ces risques.
• L'Institut s'appuiera sur le robuste écosystème canadien de l'IA et travaillera en collaboration avec les instituts de sécurité de l'IA du monde entier dans le cadre d'un nouveau réseau international.
Contexte :
Avec les progrès rapides de l'intelligence artificielle (IA), garantir la sécurité et le déploiement éthique des systèmes d'intelligence artificielle (IA) avancées est devenu une priorité mondiale. Lors du sommet du Royaume-Uni sur la sécurité de l'IA, la déclaration de Bletchley a souligné les risques croissants posés par les technologies émergentes en matière d'IA, notamment le potentiel d'utilisation abusive dans les campagnes de désinformation, les atteintes à la cybersécurité et même la mise au point d'armes biologiques. La déclaration souligne la nécessité de mieux aligner les systèmes d'IA sur les objectifs humains, d'autant plus que les capacités continuent d'évoluer de manière imprévisible. Ces préoccupations ont été reprises lors du sommet de Séoul, où les dirigeants mondiaux ont discuté de la nécessité d'une coopération internationale en matière de sécurité de l'IA. Le Canada, aux côtés de ses plus proches alliés, s'est engagé à atténuer ces risques et à veiller à ce que les systèmes d'IA soient développés et utilisés de manière responsable.
Le gouvernement du Canada a lancé l'Institut canadien de la sécurité de l'IA (ICSIA) avec un investissement initial de 50 millions de dollars sur cinq ans annoncé dans le budget 2024. Cet investissement marque une étape importante dans la protection du développement de l'IA au Canada. L'ICSIA renforcera la capacité du Canada à faire face aux risques liés à la sécurité de l'IA, positionnant davantage le pays comme un chef de file du développement responsable et éthique des technologies de l'IA. L'ICSIA collaborera également avec des instituts de sécurité d'autres juridictions dans le cadre d'un nouveau réseau international d'instituts de sécurité de l'IA, qui s'est réuni pour la première fois du 20 au 21 novembre 2024 à San Francisco.
L' ICSIA fait partie de la stratégie plus large du gouvernement visant à promouvoir le développement responsable de l'IA au Canada, en abordant les défis sociétaux, techniques et éthiques. L'institut collaborera avec des parties prenantes des secteurs public et privé, du monde universitaire et de la société civile, afin de garantir une approche multidisciplinaire de la recherche sur la sécurité de l'IA. L' ICSIA se concentrera sur des domaines de recherche clés tels que l'évaluation des risques des modèles d'IA, les cadres d'évaluation et la gouvernance éthique des contenus synthétiques, en travaillant avec des partenaires mondiaux pour relever les défis de l'IA de manière responsable.
Le modèle opérationnel de l' ICSIA est conçu pour tirer parti des ressources et des partenariats existants. L'institut sera hébergé par Innovation, Sciences et Développement économique Canada, avec un bureau dédié responsable de la coordination des politiques et de l'engagement international. Les activités de recherche seront menées selon deux axes. Le premier, la recherche dirigée par des chercheurs, sera géré par le biais d'un accord de contribution avec l’Institut canadien de recherches avancées (CIFAR), ce qui permettra à des experts canadiens et internationaux d'explorer des questions critiques en matière de sécurité de l'IA. Le second volet, les projets dirigés par le gouvernement, sera mis en œuvre par le biais d'un protocole d'entente (PE) avec le Conseil national de recherches du Canada (CNRC), et se concentrera sur les projets d'IA qui répondent aux priorités directes du gouvernement, y compris la collaboration internationale.
Le leadership du Canada en matière de sécurité de l'IA a été encore renforcé lors du Sommet sur la sécurité de l'IA qui s’est tenu à San Francisco en novembre 2024, où l' ICSIA a joué un rôle clé dans l'élaboration d'une collaboration mondiale sur l'atténuation des risques liés à l'IA. Ce sommet a réuni les principaux instituts de sécurité de l'IA du monde entier pour discuter de questions essentielles, notamment l'évaluation des modèles, l'évaluation des risques et la gestion des contenus synthétiques. L' ICSIA a codirigé le volet consacré à la gestion des risques liés aux contenus synthétiques. La participation active et le leadership du Canada dans ces discussions renforceront son rôle au sein du réseau mondial en pleine expansion.
Renseignements supplémentaires :
Si l'on insiste sur la collaboration internationale
• Le Canada et ses partenaires les plus proches ont fait de la sécurité des systèmes d'IA les plus performant une priorité pour les années à venir.
• L'année dernière, le sommet inaugural du Royaume-Uni sur la sécurité de l'IA et la déclaration de Bletchley qui en a résulté ont mis en lumière les préoccupations croissantes au niveau mondial concernant les risques liés au développement et à l'utilisation des systèmes d'IA.
• Ces systèmes pourraient être utilisés intentionnellement par des acteurs malveillants pour créer de la désinformation, échapper aux mesures de cybersécurité existantes ou mettre au point plus facilement des armes biologiques.
• Les risques découlent également de la difficulté d'aligner des systèmes de plus en plus performants sur des objectifs définis par l'homme. Étant donné que les capacités de l'IA ne sont pas entièrement comprises et qu'elles sont en constante évolution, il est manifestement nécessaire de mieux comprendre les risques et d'élaborer des mesures d'atténuation.
• L'Institut canadien sécurité de l'intelligence artificielle est un membre fondateur du réseau croissant d'instituts de sécurité de l'IA comprenant les instituts de sécurité de l'IA des États-Unis, du Royaume-Uni, de l'UE, du Japon, de la Corée et de l’Australie. Par l'intermédiaire de ce réseau, le Canada participera à des projets conjoints avec d'autres pays, notamment en partageant nos conclusions afin de multiplier notre impact.
• La réunion inaugurale du Réseau international des instituts de sécurité de l'IA a eu lieu les 20 et 21 novembre 2024 pour coordonner les travaux et discuter des priorités.
• L'ICSIA a l'intention de travailler en étroite collaboration avec des partenaires internationaux et de consulter un ensemble diversifié de parties prenantes lors de l'élaboration de ses priorités de recherche.