Légiférer sur l'IA : les choses vont devenir intéressantes - Quai Alpha
Incubateur de startups
Martin BOUVRON
martin@quai-alpha.com
+33 6 16 15 96 32
Studio de création de contenus
Louis HOBLINGRE
louis@quai-alpha.com
+33 7 64 26 67 81

Légiférer sur l’IA : les choses vont devenir intéressantes

Le processus de législation est linéaire et lent, alors que le développement de la technologie et de l’IA est exponentiel.

Le 12 mai 1997, on pouvait lire à la une du New York Times : « Rapide et tranchant, l’ordinateur renverse Kasparov ».

L’article annonçait l’un des matchs d’échecs les plus tristement célèbres de tous les temps, au cours duquel un superordinateur IBM, le désormais célèbre « Deep Blue », avait battu le champion du monde en titre, Garry Kasparov, en six parties. Pour beaucoup, c’était bien plus qu’un match d’échecs entre un homme et une machine. C’était le signe que le fossé se creusait entre l’intelligence artificielle et l’intelligence humaine. Et ce, de façon spectaculaire.

Le lancement de ChatGPT par OpenAI restera comme une autre rencontre extraordinaire entre l’homme et la machine. Mais cette fois, il ne s’agit pas d’un jeu. Le langage et ses applications infinies sont en jeu. Ce n’est pas une coïncidence si les mots de Garry Kasparov, lorsqu’il réfléchissait à sa défaite contre Deep Blue, semblent les plus appropriés pour ce moment. « Je dis toujours que les machines ne nous rendront pas obsolètes », a-t-il déclaré. « Mais en revanche, notre complaisance le pourrait bien ».

Et bien qu’il ne semble pas que ChatGPT nous rendra effectivement obsolètes, il nous fourni un rappel sobre du potentiel de l’IA à perturber de nombreux aspects de l’expérience humaine : l’éducation, la médecine, le droit, le commerce, et tout ce qui se trouve entre les deux. En réponse, nous devons garder à l’esprit les paroles de Kasparov et combattre notre tendance à la complaisance. Nous, et plus particulièrement nos politiciens, devons gérer l’avenir de l’IA, et non l’inverse.

Un casse-tête de réglementation

Au Canada, les membres de la Chambre des communes (la chambre basse du Parlement canadien) examinent actuellement le projet de loi C-27, la « Loi de mise en œuvre de la Charte numérique », qui comprend ce qui pourrait devenir le premier texte législatif du Canada en matière d’IA, la Loi sur l’Intelligence Artificielle et les Données (LAID).

Si elle est adoptée, cette loi imposera plusieurs garde-fous aux utilisations de l’IA et imposera des amendes pouvant atteindre 25 millions de dollars en cas de non-conformité. Il s’agit certainement d’un pas dans la bonne direction, bien qu’il soit facile de prévoir plusieurs défis auxquels le gouvernement sera confronté une fois promulguée.

Tout d’abord, la technologie se développe de manière exponentielle, tandis que le processus législatif est linéaire, les projets de loi passant par la Chambre et le Sénat avant d’être adoptés. Il faudra peut-être attendre plusieurs mois ou années avant qu’une loi sur l’IA ne soit adoptée, et également « transmise » au reste du monde, alors qu’il est difficile de prédire ce dont l’IA sera capable à ce moment-là.

La gestion des risques à croissance exponentielle s’est avérée extrêmement inefficace par le passé. Il suffit de voir à quel point le COVID-19, qui s’est manifesté par des pics exponentiels, a mis à mal la capacité des hôpitaux et d’autres services essentiels partout dans le monde.

La plus grande incertitude, c’est la vitesse à laquelle l’IA va se répandre à mesure que la technologie s’améliore. Il a fallu moins d’une semaine à ChatGPT pour rassembler plus d’un million d’utilisateurs. Qui plus est, la prochaine itération du logiciel, GPT-4, plus puissante (environ 500 fois plus puissante même), a déjà été annoncée par OpenAI.

Deuxièmement, les gouvernements s’intéressent principalement aux utilisations de l’IA qui sont délibérément nuisibles, comme les violations de la confidentialité des données ou la criminalité financière. Mais ce sont les zones grises qui sont les plus préoccupantes. Dans le domaine de l’éducation, par exemple, certains ont affirmé que cette nouvelle avancée de l’IA fera disparaître les devoirs à domicile. Mais cela rendra-t-il la prochaine génération d’étudiants plus ou moins intelligente, ou bien plus ou moins créative ?

Si vous faites un zoom arrière, de nombreuses applications de l’IA – sur les réseaux sociaux ou dans le cadre de la défense nationale, par exemple – commencent à ressembler à cela. En d’autres termes, elles ne sont peut-être pas délibérément nuisibles, mais leur effet direct sur la société est largement inconnu.

Troisièmement, les entreprises seront finalement propriétaires de cette technologie, ce qui peut être à la fois une bénédiction et une malédiction.

Microsoft est sur le point d’investir 10 milliards de dollars supplémentaires dans OpenAI et, comme toute entreprise, elle aura la responsabilité fiduciaire de maximiser les profits pour ses actionnaires. Ce n’est pas nécessairement une mauvaise chose. Considérez la rapidité avec laquelle les entreprises ont développé et distribué des vaccins contre le COVID-19. L’incitation à utiliser l’IA pour réaliser des profits peut conduire à la prochaine percée dans le domaine de la science ou de la médecine.

Cependant, lorsque les intérêts des entreprises et de la société sont en désaccord, les entreprises ont une drôle de façon d’obtenir ce qu’elles veulent, généralement par le biais d’un lobbying gouvernemental efficace. Si certaines applications rentables de l’IA sont préjudiciables à la société, la législation sur l’IA pourrait ne pas suffire à les arrêter.

La route à suivre

La législation canadienne proposée en matière d’IA est suffisamment souple pour permettre un avenir où de nombreux aspects de la vie humaine seront améliorés par l’IA. On peut dire que la technologie n’en est qu’à ses débuts, mais elle est déjà capable d’effectuer des tâches très nuancées, comme trier des demandes d’emploi, prédire des verdicts dans les procès ou diagnostiquer des patients malades.

Il sera fascinant d’observer les régulateurs réfléchir aux limites éthiques de la vie avec l’IA, et personne ne sait exactement comment ce processus va se dérouler.

Dans les années qui ont suivi la défaite de Kasparov, les successeurs de Deep Blue, comme AlphaGo de Google, sont devenus beaucoup plus puissants. Mais ce que les gens ont tendance à oublier, c’est que la technologie a également permis aux joueurs d’échecs humains de s’améliorer. L’IA n’a pas rendu les échecs obsolètes. En fait, elle a rendu le jeu plus intéressant.

ChatGPT a de nombreux défauts. Il a un peu de mal à gérer l’ambiguïté et a une tendance amusante (du moins encore pour le moment) à présenter des informations fausses comme des faits. En ce sens, ChatGPT ressemble davantage au Deep Blue du premier combat de Kasparov avec lui en 1996, où Kasparov était sorti vainqueur quatre parties contre deux.

Si l’histoire se répète, ChatGPT et ses successeurs continueront à s’améliorer et à empiéter sur de nombreux aspects de l’intelligence humaine. En cours de route, les choses deviendront beaucoup plus intéressantes. Notre travail, comme Garry Kasparov nous l’a rappelé, consistera à nous garder de toute complaisance.