Aujourd'hui ce sont des réseaux de plus en plus gros de neurones artificiels qui sont créés. De quoi s’agit-il? l’idée est de faire de répliquer, de manière informatique, le deroulement du cerveau. Faite attentention, nous n’allons jamais pouvoir copier serie wakanim le système de millions de neurones du cerveau, qui est d’une incroyable complexité. Mais nous sommes déjà capables de créer des réseaux de neurones artificiels dotés de beaucoups couches hiérarchiques, via des systèmes de calculs très compliqués. Ces neurones ont été entraînés à prendre de bonnes décisions sur la base de bases de données dont ils se nourrissent en permanence – on appelle cela le machine learning. Ces neurones sont aussi capables de s’entraider en cas de problème.
Mais avec l’IA, on ne fabrique pas une créature. L’IA n’est pas autonome, elle n’est en fait qu’un automate. Dans un de ses livres, écrit avec Marcel Duchamp, l’écrivain Michel Carrouges parlait des machines célibataires, qui évoluent seules, sans souci des hommes ni du bien commun. En santé, les machines ne doivent pas être célibataires, mais partenaires. Bien que l’approche de l’apprentissage profond soit innovante et qu’elle permette certaines avancées dans les années 90, elle n’attire pas, à l’époque, toute l’attention de la communauté scientifique. Beaucoup croient que les chercheurs qui s’y attardent font fausse route. Si on fournit à l’ordinateur une quantité massive de données (sons, images ou textes) et le résultat qu’on attend de lui, l’ordinateur ajuste graduellement ses paramètres internes. Il peut ensuite exécuter la tâche apprise : traduire un document, établir des liens entre deux phénomènes ou décrire une image. La modélisation en sciences cognitives a révélé l’existence de plusieurs mécanismes, autres que l’association par continuité, qui sont autant de composantes de l’intelligence humaine. Parce que leur expertise est entièrement précalculée, ils ne peuvent pas raisonner dans le temps pour décider qu’un animal mort reste mort, ou pour comprendre le sens de la phrase « il n’est toujours pas mort » et la bizarrerie de cette autre phrase : « il n’est pas toujours mort ». La seule prédigestion de grandes quantités de données ne leur permet pas non plus de repérer les structures inédites si évidentes pour nous, comme les groupes de nombres identiques dans la suite. Leur stratégie du presque-par-cœur est aussi aveugle aux anomalies inédites.
Est-ce vraiment cela, être conscient ? Non. Ce type de performance ne représente au mieux qu’un petit aspect de l’intelligence. Ce que font les réseaux de neurones semblable à de l’apprentissage par cœur. Ce n’en est pas, bien sûr, puisque ces réseaux comblent par continuité les vides entre les exemples qui leur ont été présentés. Disons que c’est du presque-par-cœur. Les experts humains, qu’ils soient médecins, pilotes ou joueurs de Go, ne font souvent pas autre chose lorsqu’ils décident voiranime de manière réflexe, grâce à la grande quantité d’exemples appris pendant leur formation. Mais les humains ont bien d’autres pouvoirs. Il y a près de 10 ans, en 2012, le monde scientifique s’émerveillait des prouesses de l’apprentissage profond (le deep learning). Trois ans plus tard, cette technique permettait au programme AlphaGo de vaincre les champions de Go. Et certains ont pris peur. Elon Musk, Stephen Hawking et Bill Gates s’inquiétèrent d’une fin prochaine de l’humanité, supplantée par des intelligences artificielles échappant à tout contrôle. Mais dans les années 80 et 90, les chercheurs Geoffrey Hinton, Yann LeCun et Yoshua Bengio ont jeté les bases de ce qui allait révolutionner l’intelligence artificielle, permettant à l’ordinateur d’apprendre par lui-même à voir, à dialoguer, à prédire et à créer. Des aptitudes qu’on croyait réservées à l’intellect humain.
Gottlob Frege perfectionna le système de Boole en formalisant le concept de prédicat, qui est une entité logique soit vraie, soit fausse (toute maison a un propriétaire), mais contenant des variables non logiques, n’ayant en soi aucun degré de vérité (maison, propriétaire). Cette formalisation eut une grande importance puisqu'elle permit de démontrer des théorèmes généraux, simplement en appliquant des règles typographiques à des ensembles de symboles. La réflexion en langage courant ne portait plus que sur le choix des règles à appliquer. Par ailleurs, l’utilisateur joue un rôle important puisqu'il connaît le sens des symboles qu’il a inventés et ce sens n'est pas toujours formalisé, ce qui ramène au problème de la signification en intelligence artificielle, et de la subjectivité des utilisateurs. On pense immédiatement à des aptitudes impliquant notre intuition ou notre créativité. Pas de chance, l’IA prétend nous attaquer sur ces terrains-là également. Pour preuve, le fait que des œuvres créées par programmes se sont vendues fort cher, certaines atteignant presque le demi-million de dollars. Côté musique, chacun se fera bien sûr son opinion, mais on peut déjà reconnaître du bluegrass acceptable ou du quasi Rachmaninoff dans les imitations du programme MuseNet.
Avec un exemple concret prenez une voiture autonome. Vous lui assignez l’objectif d’atteindre le plus vite possible sa destination tout en respectant les limitations de vitesse. Elle effectuera la tâche demandée en élaborant parfois des stratégies consistant par exemple à se tenir très proche de la voiture derrière elle, empêchant le conducteur de reprendre le contrôle et de ralentir même en cas de neige, sous peine de collision. Nous avons trouvé un moyen pour que la voiture laisse toujours le contrôle à l’humain, sans s’en rendre compte. Des enquêtes ou des « challenges » opposant des machines à des humains l’ont démontré : certains systèmes d’intelligence artificielle élaborent parfois des diagnostics plus précis qu’un médecin. Dès lors que la machine devient plus performante que lui, le médecin osera-t-il la contredire ? À terme, la question risque de se poser. Va-t-on vivre dans un monde voir animes où les machines prendraient des décisions à la place des humains ? S’il s’agit de décider de tourner à droite ou à gauche, comme le fait un GPS, passe encore. Mais là, nous parlons de santé… Sauf que ce mécanisme d’association possède la propriété un peu miraculeuse d’être « continue ». Vous présentez un cheval que le réseau n’a jamais vu, il le reconnaît en tant que cheval. Vous ajoutez du bruit à l’image, cela ne le gêne pas. Pourquoi ? Parce que la continuité du processus vous garantit que si l’entrée du réseau change un peu, sa sortie changera peu également. Si vous forcez le réseau, qui hésite toujours, à opter pour sa meilleure réponse, celle-ci ne variera probablement pas : un cheval reste un cheval, même s’il est différent des exemples appris, même si l’image est bruitée.
Pages 1