Comment l'IA réinvente le rôle de l'ordinateur ? - Quai Alpha
Incubateur de startups
Martin BOUVRON
martin@quai-alpha.com
+33 6 16 15 96 32
Studio de création de contenus
Louis HOBLINGRE
louis@quai-alpha.com
+33 7 64 26 67 81

Comment l’IA réinvente le rôle de l’ordinateur ?

Chaque année, à l'automne, Apple Samsung, Google et d'autres nous abreuves de nouveautés. Ces nouvelles itérations n'arrivent plus à surprendre ou provoquer l'ébahissement comme ce fût le cas auparavant. Mais pourtant, derrière les paillettes du marketing, se cache quelque chose de remarquable.

Le dernier modèle de chez Google, le Pixel 6, est le premier téléphone à avoir une puce placée à part du processeur principal, dédiée uniquement à l’IA (Intelligence Artificielle). Tandis que la puce contenue dans les iPhones de ces dernières années contient ce qu’Apple appelle un « Moteur neuronal », également dédié à l’IA. Ces deux puces sont calibrées afin de réaliser des calculs relatifs au machine-learning sur nos appareils, comme par exemple l’IA qui gère votre appareil photo. Sans presque qu’on le remarque, l’IA est devenue une part intégrante de nos vie, et elle commence à changer la manière dont nous approchons la question de l’informatique, sur PC ou bien mobile.

Qu’est-ce que cela veut dire ? Il faut savoir que les ordinateurs n’ont pas beaucoup changés en 40 ou 50 ans. Bien sûr ils sont plus petit et bien plus rapide, mais ce sont toujours des boîtes avec un processeur qui suis des instructions ordonnées par l’humain. L’IA modifie ce paramètre sur 3 points : comment les ordinateurs sont fabriqués, comment ils sont programmés, et enfin comment ils sont utilisés. Au final, cela va modifier le but de leur utilisation : passer d’innombrables calculs de nombres à la chaîne à un pouvoir décisionnel. Déraciner les ordinateurs de leur boîte.

👇

Pas le temps de tout lire ? Clique pour aller directement à la partie qui t’intéresse le plus :

Plus multitâche, moins rapide​

Ne le dit pas, montre-le

Les ordinateurs finiront par savoir mieux que nous ce dont nous avons besoin

Plus multitâche, moins rapide

Le premier changement concerne la manière dont les ordinateurs – et plus particulièrement les puces qui les contrôlents – sont fabriqués. Les principales avancées en terme de calculs se sont fait au fur et à mesure que ces machines sont devenues plus rapides et pouvaient enchaîner un calcul après l’autre. Pendant des décennies, le monde a bénéficié des avancées en terme de vitesse à mesure que les manufacturiers suivaient irrémédiablement la Loi de Moore. 

Mais les modèles de deep-learning faisant que les applications actuelles utilisant l’IA fonctionnent ont une approche différente : ils ont besoin de réaliser un bien plus grand nombres de calculs, certes moins précis, mais effectués en même temps. Cela veut dire qu’un nouveau genre de puce est nécessaire. Le genre qui puisse faire transiter des données le plus rapidement possible, s’assurant que ces dernières soient disponible là où, et quand c’est nécessaire.

Lorsque le deep learning a explosé il y a une dizaine d’années, il existait déjà des processeurs spécialisés disponibles et capables de réaliser ce genre de traitements : les cartes graphiques en sont un bon exemple, créées pour afficher un écran complet de pixels, lesquels étant rafraîchis des dizaines (désormais centaines) de fois à la seconde.

QuaiAlpha_deep_learning

N’importe quoi peut devenir un ordinateur. Et même, la plupart de vos objets : brosse à dent, interrupteurs, sonnette, existent désormais en version connectée.

Maintenant, les grandes entreprises fabricantes de processeurs telles que Intel, ARM ou Nvidia, qui ont fournis la plupart des premières cartes graphiques, visent maintenant à créer du matériel sur-mesure spécifiquement pour l’IA. Google et Meta essaient également de se frayer un chemin dans cette industrie pour la première fois, dans une course à celui qui arrivera le premier à trouver une avancée majeure dans le domaine, grâce à ses équipements.

Par exemple, le processeur du Pixel 6 est une nouvelle version mobile du dernier TPU (Tensor Processing Unit ou « Unité de Traitement de Tenseur ») de Google. Au contraire des processeurs traditionnels, créés pour réaliser des calculs précis et à une vitesse toujours plus grande, ces TPU sont faites pour réaliser un gros volume, mais moins précisément, de nombreux calculs simultanés et requis par les réseaux neuronaux. Google utilise cette technologie depuis 2015 pour « apprendre » des photos et recherches des utilisateurs sur leur moteur. L’entreprise soeur de Google, DeepMind, l’utilise quant à elle pour entraîner ses IA.

Ces dernières années, Google a rendu disponible ces TPU auprès d’autres entreprises. Et ces processeurs d’un nouveau genre, ainsi que ceux au fonctionnement similaire et fabriqués par d’autres entreprises, sont en train de devenir la norme au sein des plus gros datacenters à travers le monde.

L’IA est également utilisée pour renforcer ses propres infrastructures. En 2020, Google a utilisé un algorithme d’apprentissage renforcé – un type d’IA qui apprend à résoudre des tâches à force d’essais – afin de modéliser une nouvelle architecture de TPU. L’IA a trouvé des nouveaux designs auxquels aucun humain n’aurait pensé, et qui pourtant fonctionnaient. Ce genre d’IA pourrait à terme concevoir des processeurs encore plus efficaces.

Ne le dites pas, montrez-le

Le second changement concerne la façon dont on dit aux ordinateurs « quoi faire ». Ces 40 dernières années, nous programmions les ordinateurs. Pour les 40 prochaines, nous allons les entraîner.

Traditionnellement, pour demander à un ordinateur de faire quelque chose comme reconnaître une voix ou identifier un objet sur une image, les programmeurs devaient déjà créer un ensemble de règles à suivre pour l’ordinateur.

À l’aide du machine learning, les programmeurs n’ont plus de règles à écrire. Au lieu de ça, ils créent un réseau neuronal qui apprendra ces règles par lui-même. C’est une manière fondamentalement différente de penser cet apprentissage. 

Et des exemples de ce genre sont déjà presque banals : la reconnaissance vocale et l’identification d’image sont désormais des fonctionnalités communes sur nos smartphones. Un autre exemple qui fit les gros titres, fût lorsque AlphaZero a appris par lui même à jouer au Go, et ce mieux que les humains n’auraient jamais pu lui apprendre. De façon similaire, AlphaFold a réussi a cracker un  problème tortueux de biologie – comprendre comment les protéines se « plient » – sur lequel les chercheurs peinaient depuis des décennies.

Alphago_logo_Reversed

AlphaGo, l’IA joueuse de Go de Google, puis sa petite soeur, AlphaZero, encore plus entraînée et désormais adepte d’échecs et de Shōgi

Selon Chris Bishop, responsable de Microsoft Research au Royaume-Uni, la prochaine grande percée dans le domaine se fera au niveau de la simulation moléculaire : entraîner des ordinateurs à manipuler les propriétés de la matière, et ce afin de potentiellement trouver de nouveaux développements dans des domaines tels que les ressources énergétiques, la production alimentaire ou la médecine.

Mais il faut être prudent et espérer que cela ne soient pas des promesses dans le vent. Mais il est aussi vrai que le deep learning nous a surpris a de multiples reprises par le passé. Les deux avancées majeures dont nous parlions précédemment – faire en sorte que les ordinateurs reconnaissent notre voix ou ce qui se trouve sur une image – change de façon déjà radicale la manière dont nous les utilisons.

Les ordinateurs finiront par savoir mieux que nous ce dont nous avons besoin

Pendant longtemps, faire en sorte qu’un ordinateur fasse quelque chose nécessitait de taper une commande, ou tout du moins appuyer sur un bouton.

Les machines n’ont désormais plus besoin d’un clavier ou d’un écran pour que les humains puissent interagir avec. Tout peut désormais devenir un ordinateur. Certains des objets de votre foyer existent désormais en version « connectée » (interrupteurs, lampes, brosse-à-dent…). Mais alors qu’ils prolifèrent, nous allons passer de moins en moins de temps à leur dire quoi faire : ils seront de plus en plus capable de comprendre de quoi nous avons besoin, sans que nous ayons à l’exprimer.

Il s’agit là du virage allant du « simple » calcul de nombres à la prise de décisions qui peut être défini comme une nouvelle ère des calculs informatiques.

Nous pouvons désormais saisir l’opportunité de nous reposer sur l’aide physique et cognitive apportée par ces nouveaux supports. Et imaginer un moment où ces ordinateurs nous procurent des informations essentielles au moment opportun, et d’intervenir directement lorsque l’on en a besoin. Bientôt, la scène de « L’Apprenti Sorcier » où Mickey utilise des balais magiques pour l’aider à tout nettoyer, ne sera peut être plus qu’une fiction, et ne se reposera plus sur de la magie.

Mais nous savons néanmoins comment cette œuvre se termine. Mickey perd le contrôle de ces balais et le château fini sans-dessus-dessous. Maintenant que les machines interagissent avec les gens et s’intègrent à notre monde chaotique, tout devient plus incertain. Les ordinateurs, sont sortis de leur placard.

QuaiAlpha_fantasia_1940_lapprenti_sorcier_mickey_mouse_chapeau_sorcier_balai_magique

Extrait de « l’Apprenti Sorcier » issu de « Fantasia » par Disney