Tout récemment, je me suis rendu à Washington à l’invitation de la division de sécurité de la société IBM. Chaque année, ce géant de l’informatique réunit des experts collaborateurs du monde entier pour faire le point sur l’évolution des TI.
J’ai eu la chance de visiter le IBM X-Force Cyber Range, un centre de simulations immersives permettant de vivre de façon très réaliste des scénarios d’atteinte à la cybersécurité. Cette nouvelle possibilité permet aux experts du domaine de répondre plus efficacement aux incidents en lien avec les atteintes à la sécurité des données, incidents dont le nombre se multiplie à un rythme effarant et qui provoquent des pertes de plus en plus importantes au sein des organisations tant publiques que privées partout dans le monde.
Mais puisque nous étions au cœur même de Washington, tout près du Capitole, les discussions ont rapidement porté sur les menaces que représente l’IA en lien avec la désinformation, alors que la moitié des démocraties dans le monde vivra des élections en 2024. Ces menaces sont réelles au point où, en début d’année, le chef de la diplomatie européenne, Josep Borell, qualifiait la désinformation de l’une des menaces les plus significatives à laquelle les démocraties doivent maintenant faire face en raison, notamment des progrès fulgurants de l’intelligence artificielle.
Les inquiétudes de M. Borell trouvent écho au Canada et au Québec. Au début du mois de février, le professeur montréalais Yoshua Bengio - reconnu comme une sommité mondiale en matière d’intelligence artificielle - a lancé un appel aux élus canadiens pour qu’ils adoptent sans attendre les garde-fous réglementaires essentiels pour éviter que l’IA soit utilisée par des acteurs malveillants. Selon lui, les élus doivent comprendre qu’ils sont maintenant engagés dans une course contre la montre en raison de la vitesse à laquelle évolue le développement de l’IA… et d’applications potentiellement nocives.
Au terme des ateliers auxquels j’ai participé à Washington, je retiens un sentiment de fébrilité face à l’imminence de tentatives importantes d’atteinte à la sécurité des données et à l’apparition de campagnes majeures de désinformation. Le calme avant la tempête, en quelque sorte. Les hackers savent aussi très bien utiliser l’IA à mauvais escient au détriment du bien commun. Les mésaventures récentes de Taylor Swift ou du président Joe Biden avec le deep fake en sont de parfaits exemples.
Devant l’accélération du développement d’applications basées sur l’IA, et dont nous commençons à peine à mesurer les impacts dans certains cas, je crains fort, comme une majorité de mes collègues présents à Washington, que de possibles dérives destinées à fausser les résultats des votes populaires surviennent lors des nombreuses élections qui se tiendront en 2024. En effet, une série de deep fakes habillement déployés la veille d’un vote pourrait bien influencer le choix des électeurs. Ces derniers n’ont ni les connaissances, ni le temps, ni les moyens de vérifier la véracité de certains contenus diffusés sur les réseaux sociaux ou qui auront été relayés par certains médias en toute ignorance de cause.
Mon récent périple à Washington m’a permis de mesurer l’ampleur du fossé qui nous sépare des Américains – et de l’Europe – sur le plan de la maîtrise des enjeux relatifs à l’IA. Nous n’avons d’autre choix que d’agir promptement et vigoureusement pour mettre au point un encadrement de l’IA et de la sécurité des donnés qui vienne enfin définir ce qui est acceptable. Il nous faut assurer, dans toute la mesure du possible, l’intégrité des processus démocratiques, sociaux, industriels et commerciaux qui régissent notre société. La chose apparaît d’autant plus impérative sachant l’imminence d’élections fédérales, municipales et québécoises d’ici 2026.
Je crois sincèrement que nous n’avons d’autre choix que de traiter la cybersécurité comme un processus évolutif continu qui soit partie intégrante de tout projet de développement afin d’éviter l’obsolescence. Il ne faut jamais perdre de vue qu’entre le moment où sont arrêtés les critères d’un appel d’offres touchant la cybersécurité et l’implantation de la solution informatique retenue, la réalité ne sera plus la même en raison des progrès incessants et rapides de l’IA. Bien que cela semble paradoxal, nous devons à la fois nous prémunir contre les dangers de l’IA, tout en tirant partie des avantages qu’elle peut nous procurer si nous souhaitons demeurer pertinents dans toutes les sphères de notre activité économique et sociale.
Le meilleur moyen d’y parvenir est d’établir sans tarder un dialogue permanent qui rassemble le ministère de la Cybersécurité et du Numérique (MCN), les experts sectoriels de l’industrie de la cybersécurité et du numérique, les titulaires de charges publiques, de même que les autres acteurs interpellés par la cybersécurité pour permettre de définir et d’accélérer l’adoption des meilleures pratiques en matière de sécurité des données. Qu’il s’agisse de données personnelles, commerciales, industrielles, reliées à la santé ou à toutes les dimensions de la vie démocratique, nous ne pouvons nous permettre de tolérer plus longtemps le retard pris à ce jour en matière de sécurité des données. Répéter ce que nous avons toujours fait ne ferait qu’accentuer notre vulnérabilité sur ce plan.