La Puce Cérébrale
Cette Puissante Puce Cérébrale Est Si Efficace Qu’elle Pourrait Apporter Une IA Développée À Votre Téléphone. Le facteur principal est la configuration actuelle des puces matérielles. Basée sur l’architecture commune de Von Neumann, la puce isole le stockage de la mémoire de ses processeurs centraux. Chaque calcul est un trajet cauchemardesque le lundi matin, avec la puce faisant constamment la navette entre les informations de chaque compartiment, formant un ‘‘mur de mémoire’’ notoire.
Si vous avez déjà été coincé dans les embouteillages, vous comprenez la frustration : cela prend du temps et gaspille de l’énergie. À mesure que les algorithmes d’IA deviennent de plus en plus complexes, le problème s’aggrave de plus en plus.
La puce cérébrale: les réseaux de neurones profonds
Alors pourquoi ne pas créer une puce basée sur le cerveau, une correspondance potentielle parfaite pour les réseaux de neurones profonds ?
Entrez les puces de calcul en mémoire ou CIM. Fidèles à leur nom, ces puces calculent et stockent également de la mémoire sur le même site. Oubliez les trajets; les puces sont des alternatives de travail à domicile très efficaces, résolvant le problème de goulot d’étranglement du trafic d’informations, et promettant une plus grande efficacité et une consommation d’énergie réduite.
Ou alors va le concept. La plupart des puces CIM exécutant des algorithmes d’IA se sont entièrement concentrées sur la conception de puces, mettant en valeur leurs capacités en utilisant des simulations de la puce plutôt que d’exécuter des tâches sur le hardware. Les puces se battent également pour s’adapter à de multiples tâches d’IA : reconnaissance d’image, perception de la voiX, limitant leur intégration dans les smartphones ou autres outils du quotidien.
La puce cérébrale: la puce NeuRRAM
Ce mois-ci, une étude dans Nature a amélioré le CIM à partir de zéro. Plutôt que de se concentrer entièrement sur la conception de la puce, le groupe international, dirigé par des professionnels du hardware neuromorphique, le Dr H.S. Philip Wong à Stanford et également le Dr Gert Cauwenberghs à UC San Diego ont optimisé toute la configuration, de la technologie à l’architecture en passant par les algorithmes qui calibrent le hardware.
La puce NeuRRAM qui en résulte est un puissant monstre informatique neuromorphique avec 48 cœurs parallèles, et trois millions de cellules de mémoire. Très polyvalente, la puce s’est attaquée à plusieurs tâches standard d’IA telles que la lecture de chiffres manuscrits, l’identification de voitures et d’autres objets sur des images et le décodage d’enregistrements vocaux avec une précision de plus de 84 %.
Bien que le prix du succès puisse sembler médiocre, il rivalise avec les puces numériques existantes mais économise considérablement l’énergie. Pour les auteurs, il s’agit d’un pas de plus vers l’introduction directe de l’IA sur nos appareils plutôt que de nous obliger à transférer les données vers le cloud pour le calcul.
“Avoir ces calculs effectués sur la puce au lieu d’envoyer des données vers et depuis le cloud pourrait permettre une IA plus rapide, plus sécurisée, moins chère et plus évolutive à l’avenir et donner à plus de personnes accès à la puissance de l’IA”. A déclaré Wong.
Inspiration neuronale
Les puces spécifiques à l’IA sont actuellement à la pelle. De l’Unité de Traitement Tensor (TPU) de Google à l’architecture de superordinateur Dojo de Tesla en passant par Baidu et Amazon, les géants de la technologie investissent des millions dans la ruée vers l’or des puces d’intelligence artificielle pour construire des processeurs prenant en charge des algorithmes d’apprentissage en profondeur de plus en plus sophistiqués. Certains exploitent même l’apprentissage automatique pour concevoir des architectures de puces personnalisées pour les logiciels d’IA. Ce qui boucle la boucle de la course.
Un concept fascinant vient directement du cerveau. Au fur et à mesure que les informations traversent nos neurones, elles se “connectent” à des réseaux via des “docks” physiques appelés synapses. Ces cadres, assis au sommet de branches neurales telles que de petits champignons, sont multitâches : ils calculent et stockent des informations grâce à des changements dans leur composition en protéines.
En d’autres termes, contrairement aux ordinateurs classiques, les neurones n’ont pas besoin de transporter les informations de la mémoire vers les processeurs. Cela offre au cerveau son avantage sur les appareils numériques. Il est très économe en énergie et effectue plusieurs calculs simultanément, le tout emballé dans une gelée de trois livres fourrée à l’intérieur du crâne.
Lire plus sur “ Singularity Hub.“
Connexe “Les secrets du Big Bang“