Note pour la période des questions : RISQUES DUS AUX SYSTÈMES AVANCÉS D'INTELLIGENCE ARTIFICIELLE (IA)

About

Reference number:
PCO-2023-PM-25
Date fournie :
21 mai 2023
Organisation :
Bureau du Conseil privé
Nom du ministre :
Trudeau, Justin (Le très hon.)
Titre du ministre :
Premier ministre

Réponse suggérée :

• À mesure que les systèmes d'intelligence artificielle deviennent plus sophistiqués, il est crucial que les gouvernements prennent des mesures pour encadrer leur développement et utilisation, afin que les Canadiens puissent en récolter les avantages.
• Le gouvernement prend très au sérieux les risques associés aux systèmes d’IA, y compris les risques pour les individus, tels que les impacts discriminatoires sur les groupes historiquement marginalisés, ainsi que les impacts potentiellement plus larges sur la société.
• C'est pourquoi le gouvernement a déposé la Loi sur l'intelligence artificielle et les données, qui fait partie du projet de loi C-27.
• Il est essentiel que nous adoptions ce projet de loi le plus rapidement possible, pour faire face aux risques croissants que les systèmes d'IA posent et pour garantir que les Canadiens peuvent faire confiance aux systèmes d'IA utilisés dans l'ensemble de l'économie.
• Nous sommes pleinement engagés dans le processus d'Hiroshima sur l'IA, issu de la récente réunion du G7 au Japon, et nous nous engageons à travailler avec des partageant les mêmes idées pour alimenter la confiance et la sécurité de cette technologie en croissance.

Contexte :

• Depuis la sortie de ChatGPT d'OpenAI, en novembre 2022, les inquiétudes se sont multipliées concernant l'impact potentiel des systèmes d'IA avancés.

o ChatGPT est capable de produire du contenu, y compris des réponses à des questions, qui semblent plausibles et peuvent être difficiles à distinguer du contenu généré par les humains.

• D'autres systèmes qui génèrent des images ou des vidéos ont augmenté le risque d'alimenter la désinformation et d'autres dommages à la société.

• Une lettre ouverte a été publiée le 30 mai 2023, signée par un certain nombre de dirigeants de grandes entreprises technologiques et d'éminents chercheurs canadiens avertissant des risques à l'échelle de la société dus aux systèmes d'IA, y compris l'extinction potentielle de l'humanité.

o Cela fait suite à une autre lettre ouverte publiée par le Future of Life Institute en mars 2023, signée par certains des signataires de cette lettre, appelant à une "pause sur les expériences géantes d'IA".

• La LIAD a été déposée dans le cadre du projet de loi C-27 en juin 2022. Elle adopte une approche fondée sur les risques pour la réglementation de l'IA, proposant d'atténuer les risques en proposant un ensemble de normes qui s'appliqueraient aux systèmes d'IA « à fort impact ».

o La LIAD a récemment passé l'étape de la deuxième lecture à la Chambre des communes et se dirige maintenant vers un comité pour un débat plus approfondi.

o La LIAD était à l'origine axée sur les risques en matière de santé, de sécurité et d'impacts discriminatoires des systèmes d'IA, bien qu'une stratégie d'amendement soit proposée en réponse aux commentaires des parties prenantes qui permettrait de traiter des risques plus larges.

L'approche de la LIAD est conforme aux c

Renseignements supplémentaires :

aucun