Comme un signe. Quelques jours après le centième anniversaire de la naissance d’Alan Turing, considéré comme le père de l’informatique, les ingénieurs du Laboratoire X de Google, d’où sont déjà sorti la voiture sans conducteur et les lunettes à réalité augmentée, vont dévoiler un nouveau projet. Rien de moins qu’un cerveau. Enfin ce qui s’en approche le plus en tout cas, un réseau neural de machines « intelligentes », capables d’apprendre seules, constitué de 16 000 processeurs et connecté à Internet où il étanche sa soif de connaissances à partir d’images extraites de dix millions de vidéos YouTube.
Chat et concept de chat
Ainsi, à en croire le New York Times, ce « cerveau » aurait déjà appris tout seul à reconnaître un chat. Pourquoi un chat ? Parce qu’il y a des milliers de vidéos de chats en ligne sans doute, même si le système était également capable de reconnaître un corps humain. Comme expliqué dans ce document (PDF), cet « ordinateur », grâce à son logiciel de simulation d’apprentissage et à l’énorme quantité de données disponibles en ligne, a reconnu ce chat parmi près de 20 000 objets distincts, avec une précision d’environ 15,8 %, soit une amélioration de 70 % par rapport aux expériences précédentes. Pour y arriver, les chercheurs de Google et Stanford ont choisi une autre voie.
« L’idée est qu’au lieu de faire en sorte que les chercheurs essaient de définir les limites, vous fournissez des tonnes de données à l’algorithme, vous laissez les données parler d’elles-mêmes et vous laissez le logiciel apprendre de lui-même, automatiquement », indiquait le Dr Andrew Y. Ng, de l’université de Stanford et chargé du projet au sein du Labs X. Ces logiciels permettent donc à un ordinateur d’apprendre seul à reconnaître un félin, en « inventant le concept de chat » à partir de données, à la manière de notre « cortex visuel ».
Un long chemin à parcourir
Aussi impressionnant que soient ces résultats, et le nombre de processeurs utilisés, tout cela reste pour l’instant bien faible par rapport aux capacités du cerveau humain. Pour autant, David A. Bader, un des responsables du Georgia Tech College of Computing déclarait, après la publication du rapport de Google et de l’université de Stanford : « La modélisation de la totalité du cortex visuel humain pourrait être à notre portée avant la fin de la décennie. » Les chercheurs de Google sont eux plus prudents. « Ce serait fantastique s’il s’avérait que nous n’avons qu’à utiliser l’algorithme actuel mais à une plus grande échelle, mais instinctivement quelque chose me dit que nous n’avons toujours pas le bon algorithme », précisait ainsi le DR Andrew Y. Ng.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.