Je suis heureux de vous apprendre que j’ai commencé à me former sur LATEX (lire l’article précédent) et que c’est facile et puissant. Les images des équations intégrées à cet article ont été formalisés grâce à cet outil.
D’ailleurs le meilleur site pour se former en ligne qui dispose d’un compilateur en temps réel : https://overleaf.com/
Je vous conseille de lire en préambule l’article précédent sur les systèmes numériques : vous comprendrez mieux l’utilité de la fonction logarithme.
Passons aux choses sérieuses :
Littéralement, la fonction logarithme est le nombre de puissances que contient un nombre calculé en fonction d’un autre nombre appelé base.
Prenons un nombre voisin du nombre de ports que l’on peut ouvrir sur un ordinateur : 65535
Par un rapide calcul mental :
En effet 65536 est divisible par 4 car ses deux derniers chiffres forment 36 qui se décompose en 9 fois 4. Si il est divisible par 4 il est donc divisible par 2, on aurait pu s’en douter le nombre de ports d’un ordinateur étant codé en binaire ! Ainsi on calcule facilement le logarithme.
Réalisons maintenant à partir de ces résultats une simple équation logarithmique :
Voici des équations en passant par trois bases différentes de la base 2 à la base 4, à la base 16.
On change facilement de base dans cet exemple car on passe d’un carré à un carré, le résultat d’un logarithme étant basé sur une fonction puissance ce serait plus difficile de faire une équation en changeant la base vers une base multiple comme 32. Pour réaliser l’égalité on juste placé un coefficient devant la fonction en l’occurrence 2 et 4.
Maintenant, entrainons nous : Alors quel est le prochain carré ? Et quelle équation allons nous devoir réaliser ?
Oui 256 est le carré de 16 !
Simple non ?
Par contre diviser 65536 par 10 ne donnerait pas un entier naturel mais un nombre avec une partie décimale ou à virgule flottante.
Même si il y’a trois bases remarquables (les plus fonctionnelles) qui sont la base de 10, la base de 2 noté lb (binaire) et la base naturelle qui utilise le nombre exponentiel il y’a en réalité autant de bases qu’il y’a de nombres dans notre système numérique.
Autre exemple avec un log de base 10 de 255 :
Notez que si on multiplie les logarithmes de base 10 des nombres additionnées entre eux on obtient 17x5x3=255 qui est le nombre dont on souhaitait calculer le logarithme au départ.
Pourquoi c’est utile en informatique ? Le code machine est dans un système binaire donc sur une base 2 :
Sur un encodage positionnel, en binaire, (sur une base 2) le résultat du logarithme donne le nombre de 0 soit 16 avant le premier bit encodé donc sur le 3ème octet.
En hexadécimal (sur une base 16) le résultat du logarithme donne le nombre de 0 soit 4 avant le premier bit encodé également sur le 3ème octet. En hexadécimal car 16 (base) /8 (nombre de bits dans un octet) = 2 donc un octet est encodé sur 2 valeurs.
Bien sûr, vous pouvez aller plus loin et par exemple comprendre la formule pour le changement de base pour une équivalence non carrée qui est à mon avis une clé pour jongler entre les systèmes !
Pour ceux qui veulent télécharger tout le document au format .pdf compilé par LATEX pour voir à quoi ressemble une publication scientifique, c’est là : Logarithme
Pour ceux qui veulent le code source du document LATEX à titre pédagogique pour connaître le nom de certaines balise, c’est là : Code Source
Afin d’introduire notre catégorie sur les neurosciences, il me paraît opportun de vous faire part de leur histoire au fil des siècles de l’antiquité jusqu’à aujourd’hui. J’ai utilisé beaucoup d’images de portraits volontairement pour travailler votre physionomie ainsi que des illustrations d’appareils cérébraux pour rendre le propos plus concret.
Les sciences du cerveau ont impliqué à travers l’histoire un nombre conséquent de grands hommes et femmes qui ont cherché à comprendre une première question : qu’est ce qui génère notre pensée ?
Premier débat sujet à controverses :Cœur ou cerveau ? Cardio-centristes contre Céphalo-centristes.
Déjà à l’époque comme dirait Jean Didier Vincent : on sait qu’il y a deux manières radicales de tuer un homme : lui couper la tête, ou lui planter une épée dans le cœur.
Démocrite (-460 -370) père de l’atome pense déjà que le siège de notre cerveau est dans notre tête. Pour lui notre cerveau serait constitué d’atomes psychiques qui parcourent tout notre corps. Ces atomes permettent d’animer nos muscles.
Démocrite
Aristote (-384 -322) s’oppose à cette idée, le cœur est pour lui le siège de nos fonctions motrices et psychiques. Pourquoi ? En anatomie, lorsque l’on envoie un fluide avec une pression sur le cœur, cela entraîne une réaction de contraction mécanique contrairement au cerveau.
Aristote
Le premier débat et qui durera fort longtemps était né et voit s’opposer céphalo-centristes aux cardio-centristes.
Galien (129-201) céphalo-centriste comme Platon, Hippocrate, Hérophile, et Erasistrate qui sont trois médecins grecs, va à peine plus loin que Démocrite. Pour lui l’âme est matérialisée par un pneuma (souffle) psychique qui circule du cerveau jusqu’à nos nerfs.
Erasistrate -310 -250
Hérophile -320 – 250
Les pères de l’église et notamment Némésius (350-420) vont plus loin, ils vont assigner des fonctions de notre pensée à des ventricules de notre cerveau. Ce sont les premières démarches localisationnistes.
Némésius
Cartographie des premières localisations de fonctions cérébrales par Némésius
Au 16ème siècle au cours de la Renaissance va s’effectuer le retour des thèses anatomiques. Léonard de Vinci et Varole dissèquent le cerveau tandis que Vésale va illustrer avec fidélité toutes les circonvolutions et vaisseaux sanguins de notre appareil cérébral. Ils sont les premiers phrénologues.
Léonard De Vinci 1452-1519
Vésale 1514-1564
Varole 1543-1575
Dessin des circonvolutions exactes du cerveau par Vésale
Descartes (1596-1650) quant à lui va se montrer plus radical, pour lui le corps est une machine composée d’os de nerfs et de muscles, esprit plus rationnel qu’anatomiste, il va lier l’âme à la glande pinéale qui est unique mais réalisera une description du fonctionnement des mouvements du corps si précise qu’elle est encore en adéquation avec les théories actuelles sur l’arc réflexe.
René Descartes
Thomas Willis (1621-1675) attribue la primauté au cortex cérébral, il identifie le corps calleux qui sépare les deux hémisphère et isole la matière grise et la matière blanche médullaire (moyen) dont la description est proche de celle qu’on utilise aujourd’hui pour la production d’influx nerveux. Cependant encore une fois pour ne pas s’attirer les foudres de l’église, il va lier l’âme aux corps striés mais accepte l’idée de son caractère immatériel.
Thomas Willis
Découpe du corps calleux en deux hémisphères et isolation de la matière blanche et matière grise par Willis
La fin de l’immatérialité de l’âme
En parallèle Gassendi (1592-1650) qui pourtant fait partie de l’église réhabilite les atomistes grecs et considère que les animaux qui font preuve de mémoire doivent eux-aussi avoir une âme ce qui dévalue beaucoup la supériorité de l’homme sur les animaux.
Gassendi
Le concept d’immatérialité de l’âme va être enterré peu à peu lorsque Vaucanson (1709-1782) dont j’ai déjà parlé dans mon article sur les sciences cognitives aidé par le chirurgien Le Cat (1700-1768) va fabriquer les premiers automates d’animaux avec le canard qui bat des ailes, se déplace, et digère les aliments. La Mettrie (1709-1751) se verra banni par l ‘église pour avoir dit que les hommes sont des animaux machines. Et Cabanis (1757-1808) dira que le cerveau secrète la pensée comme le foie secrète la bile.
Vaucanson
Le Cat
La Mettrie
Cabanis
La phrénologie
Franz Joseph Gall (1757-1828) achève la laïcisation du cerveau (rupture avec l’église) déjà bien entamée par La Mettrie et Cabanis. Il se distingue également des thèses sensualistes de John Locke (1632-1704) et Etienne de Condillac (1714-1780) (primauté des sens). En effet, véritable père de la phrénologie Gall va décrire 35 facultés morales et psychiques propre à l’être humain et les cartographier au cortex cérébral. Gall est un localisationniste mais ses méthodes sont très discutables, il va abandonner l’étude des circonvolutions ( dissection des aires du cerveau ) pour développer la science des crânes ou cranioscopie directement issue de la phrénologie.
Franz Joseph Gall
Etienne de Condillac
John Locke
Cartographie complète des fonctions du crâne par Gall (35)
Deuxième débat sujet à controverses: Unité ou fragmentation du cerveau ? Unitaristes contre Localisationnistes
Flourens (1772- 1844) dont les idées sont très appréciées par l’église et l’état va mettre Gall à rude épreuve. Il va pratiquer des ablations (méthode utilisée encore aujourd’hui) dont les résultats confirment les thèses localisationnistes mais va en faire une interprétation unitariste. Il considère que par l’ablation de certaines zones du cortex, toutes les fonctions générales disparaissent peu à peu (unité) alors qu’en fait chaque zone du cerveau à une fonction bien précise.
Pierre Flourens
En parallèle, François Leuret (1797-1851) et Pierre Gratiolet (1815-1865) vont établir les premières cartographies presque exacte des circonvolutions du cerveau. On leur doit la scissure de Rolando et la scissure de Sylvius et la découpe en différent lobes : pariétal, temporal, occipital, frontal.
Leuret
Gratiolet
Scissure de Rolando
Scissure de Sylvius
Jean baptiste Bouillaud (1797-1861) élève de Gall et continuateur de ses travaux va essayer de faire le lien entre langage et certaines aires du cerveau. Il invente l’anatomopathologie qui deviendra par la suite la neuropsychologie.
Jean Baptiste Bouillaud
Paul Broca (1824-1880), réussit cet objectif notamment avec le patient du nom de Leborgne dont on étudiera le cerveau après la mort. Leborgne n’arrivait pas à formuler une phrase mais répétait toujours « tan-tan ». Son cerveau présentait une lésion dans le lobe frontal de l’hémisphère gauche. On fait donc le lien entre la production du langage et cette zone corticale. Broca va donc cartographier toutes les zones du cerveau de manière fonctionnelle. Il va mettre en valeur une asymétrie entre les deux hémisphères du cerveau ce que ne soupçonnait pas Gall.
Paul Broca
Korbinian Brodmann (1868-1918) va ainsi proposer une carte fonctionnelle complète des aires du cerveau humain et du singe qu’on utilise toujours aujourd’hui.
Korbinian Brodmann
La carte des aires de Brodmann
Les localisationnistes s’imposent donc vers 1900 bien que certains unitaristes pensent toujours qu’ils ont raison. Ainsi il faut souligner le point de vue du docteur Head qui émet une critique plus nuancé du localisationnisme. Il explique que la localisation n’est pas intrinsèquement liée qu’au cortex et qu’elle est trop simpliste pour rendre compte intégralement du fonctionnement du système nerveux. Ses critiques vont stimuler encore plus la recherche des vainqueurs du débat.
Henry Head
Pendant ce temps, Van Leeuwenhoek (1632-1723) et Robert Hooke (1635-1703) découvrent la cellule dans les tissus végétaux et dans le sang. On cherche alors à répondre à la question suivante : de quoi la matière grise et blanche sont constituées ?
Van Leeuwenhoek
Robert Hooke
L’histologie du neurone
L’histologie est l’étude grâce aux microscopes, d’abord rudimentaires, au fil du temps les microscopes vont devenir de plus en plus précis en passant de l’optique à l’électronique.
Mais n’allons pas trop vite Malpighi (1628-1694) observe pour la première fois un cerveau avec un appareil grossissant en 1685.
Marcello Malpighi
Van Leeuwenhoek observe les nerfs avec un appareil d’optique rudimentaire si bien qu’ils croient que les nerfs sont creux. En fait il observe les axones composés d’une gaine de myéline (substance blanche).
Jusqu’en 1824 et Dutrochet (1776-1846), les observations au microscope ne progressent pas jusqu’à ce que que celui-ci découvre le corps cellulaire ou soma. Plus tard Valentin découvrira les queues protoplasmiques qui sont les dendrites. Deiters (1834-1863) dans une lettre posthume va conclure que le soma (voir aussi pericaryon) a un noyau et un cytoplasme que l’axone est unique et que les dendrites sont ramifiées.
Dutrochet
Deiters
Malheureusement ? Comment confirmer ? En effet les somas ne s’assemblent pas entre eux. Les neurones s’assemblent par les dendrites ce qui est impossible à voir au microscope optique à l’époque.
C’est ainsi que naît le troisième débat sujet à controverse :
Troisième débat sujet à controverses : Système nerveux continu ou contigu ? Réticularistes contre Neuronistes.
Joseph Von Gerlach (1820-1896) chef de file des réticularistes (voir la définition de réticule en médecine) identifie un plexus dendritique grâce à la coloration au chlorure d’or. En réalité ce plexus est un artefact et Golgi réticulariste tout comme lui qui enseigne l’histologie à Pavie met au point une coloration : la réazione néra qui révèle l’intégralité de la cellule nerveuse avec ses axones et ses dendrites. Spécialiste du cortex, il croit voir un réseau axonal continu et avouera en 1906 qu’il ne peut abandonner l’idée d’une thèse ou le système nerveux serait continu. En fait derrière les thèses réticularistes transpirent les thèses unitaristes.
Golgi
Joseph Von Gerlach
Réaction noire de Golgi
Première estocade portée à Golgi par Wilhelm Kuhne (1837-1900), en effet celui-ci décrit que quand le nerf moteur arrive au niveau de la fibre, il ne pénètre jamais dans le muscle ou cylindre contractile.
Wilhelm Kuhne
Wilhelm His (1831-1904), embryologiste suisse va porter un autre coup : en effet le neurone au stade embryonnaire est dépourvue de neurites qui sont les axones et les dendrites.
Wilhelm His
Viennent se mêler les psychiatres, Freud (1856-1939) de formation neurologiste fait des travaux d’anatomie qu’il pense venir au soutien des thèses réticularistes pendant que Forel (1848-1931) étudie la dégénérescence du réseau axonal et dendritique et analyse que les unités endommagés ne pénètre pas le corps cellulaire. (neuroniste)
Sigmund Freud
Forel
Le coup final à l’avantage des neuronistes est porté par Ramon y Cajal (1852-1934) grâce à un type de cellules spéciales qu’on appelle les cellules de Purkinje dans le cervelet qui possèdent un axone en corbeille du corps cellulaire et qu’il est anatomiquement indépendant de la cellule cible.
Ramon y Cajal
Cellules de Purkinje
La microscopie électronique confirmera les thèses des neuronistes dont le mot neurone et chromosome viennent de Waldeyer. Plus encore elle mettra en évidence le fait que le système nerveux est contigu et que l’espace entre ces neurones est comblé par la synapse dont le nom vient de Sherrington (1857-1952)
Waldeyer
L’électricité et les substances médicamenteuses
Francis Glisson (1577-1677) professeur de physique de l’université de Cambridge extrapolait déjà en réaction à la machinerie de Descartes, une thèse à propos de l’excitabilité des tissus nerveux ainsi qu’une sensibilité propre à ces nerfs.
Francis Glisson
Albrecht Von Haller (1708-1777) expérimentera à l’aide d’alcool, de potasse caustique et de vitriol le deuxième point : les muscles se contractent. Mais quelle est la substance qui provoque cette contraction ?
Von Haller
Luigi Galvani (1737-1798) qui travaille sur l’électricité atmosphérique utilise une barre de fer et implante la moelle épinière de la grenouille avec un crochet en cuivre et les pattes se contractent. Volta (1745-1827) son compatriote conteste, pour lui Galvani n’a prouvé que la conduction de l’électricité métallique et il a raison. On devra d’ailleurs à Volta la création de la pile et en son honneur l’unité de tension électrique.
Luigi Galvani
Alessandro Volta
Galvani réagit et enlève la moelle épinière du corps de la grenouille, dénude une cuisse et la met en contact avec la moelle, la cuisse se contracte encore. Voici une autre controverse entre électricité métallique et animale qui ne prendra fin qu’avec Mateucci en 1838 et grâce à un appareil électrique qui va enregistrer un courant propre issu du muscle : le galvanomètre dont le nom dérive de Galvani.
On va donc passer de la biologie à la physique et ce grâce à Du Bois Reymond (1818-1896) qui va porter la physiologie mécanique ancêtre de ce qu’on appelle aujourd’hui la biophysique. Il montre que le signal qui se propage le long du nerf est une onde de négativité qui se transforme en courant électrique et en potentiel d’action.
Du Bois Reymond
Von Helmholtz (1821-1894) applique son expertise de la balistique pour mesurer la vitesse du courant électrique et celui-ci est bien inférieur à la vitesse du courant dans un fil de cuivre et même du son (340 m/s) pour atteindre entre 25 et 40 m/s.
Von Helmholtz
Ainsi Mateucci et Flourens vont essayer de stimuler le cortex chimiquement et électriquement sur des grenouilles pour en activer les cuisses, mais rien ne se passe. Au grand plaisir de Flourens qui s’était déjà opposé à Gall et dont les thèses spiritualistes sont très en vogue à l’époque.
Mais Fritz et Hitzig deux médecins berlinois sont sur d’eux, ils ont vu un mouvement des yeux sur l’homme après stimulation corticale. Ils entreprennent alors des expériences sur les chiens, animal voisin de l’homme et constatent bien un mouvement oculaire. Mais comme dirait Volta, cela ne veut pas dire que le cortex génère sa propre électricité !
Caton (1842-1926) vient à leur secours, en 1875, il place une électrode sur la matière grise du lapin et avec son galvanomètre obtient une mesure du courant électrique. Lorsqu’il expose la rétine à une onde lumineuse il obtient un signal plus fort. Caton invente là l’électroencéphalographie(ECG) : Le cortex cérébral génère donc lui aussi des ondes électriques.
Richard Caton
Mais que se passe t-il alors entre la terminaison de l’axone moteur et le muscle ? Si les neuronistes ont raison que le système nerveux est contigu et non continu comment en rendre compte ?
La pharmacologie
Claude Bernard (1813-1878) en 1857 tente de montrer l’effet du curare utilisé par les amérindiens sur des flèches pour paralyser leur proie sur le système nerveux. Il postule la mort du nerf moteur une fois le curare introduit. Mais il se trompe, le curare ne fait qu’interrompre la communication entre le nerf moteur et les muscles. On suppose alors une substance chimique analogue au curare qui assurerait la communication dans le système nerveux.
Claude Bernard
Elliott apporte la solution avec la vessie du chat et sa stimulation par l’adrénaline isolée quelques années plus tôt. L’adrénaline se comporte donc comme un stimulant libéré chaque fois que l’influx nerveux arrive à la périphérie. Plusieurs dizaines d’années après, l’acétylcholine sera identifiée comme la substance produite par la cellule nerveuse qui assurent le transfert du signal électrique par la synapse.
Pharmacologistes et biochimistes vont alors découvrir dès 1940 par Martha Louise Vogt que de l’acétylcholine est présente dans le cortex central.
Martha Vogt
Von Euler (1905-1983) va isoler la noradrénaline que Hillarp (1916-1965) et ses collègues suédois vont détecter par fluorescence sur des coupes histologiques des neurones qui en contiennent. Le système nerveux se pense donc maintenant en cations sodium, potassium, calcium, molécules et en neurotransmetteurs.
Ulf Von Euler
Voilà donc l’histoire synthétisée des neurosciences d’Aristote jusqu’à peu de temps avant nos jours. Je m’attaquerai volontiers quand j’aurai plus de temps au fonctionnement général du cerveau de manière détaillée dans plusieurs articles à suivre au sein de la catégorie Neurosciences.
Jean Claude Heudin a été le directeur du laboratoire mon école supérieur, l’institut Internet et du multimédia pendant des années, c’est un ami, un mentor qui nous a donné les bonnes méthodes d’apprentissage et ses mots clés. Diplômé d’un doctorat en Intelligence artificielle à ORSAY, université de Paris Sud, il a été habilité à faire des recherches pour l’armée et a travaillé dans de nombreux domaines de pointes comme l’architecture du processeur RISC, les algorithmes génétiques ou bio-inspirés et l’intelligence artificielle plus généralement.
J’ai décidé à travers cet article de vous faire part d’un de ses derniers livres intitulé : « Intelligence Artificielle : manuel de survie » dans une synthèse non exhaustive détaillant d’abord les principaux axes de recherches de l’IA, ses différentes formes, les peurs qui y sont liées, les idées reçues, et un dernier point sera fait sur l’éthique. Je me suis aussi inspiré de ce que j’ai lu dans un autre de ses livres intitulé « Immortalité Numérique »
Je vous recommande vivement d’acheter ces livres qui sont à mon sens des trésors de connaissance, de réflexion et de travail.
Les 17 axes de recherches de l’IA
Les systèmes multi-agent.
Champ de domaine capital en Intelligence Artificielle, le concept a été inventé par Marvin Minsky de l’université de Stanford. Les systèmes multi-agents se sont tellement développés au cours des dernières décennies qu’ils sont devenus incontournables.
Les systèmes multi-agent font partie de ce qu’on appelle l’intelligence artificielle distribuée, le but d’un système multi-agent est par exemple de fractionner un calcul complexe en série de petits calculs que la machine sera mieux à même de traiter. On peut appeler cela en Informatique le parallélisme massif par exemple : effectuer des tâches de calculs sur un nombre important d’ordinateurs connectés entre eux. (réseau)
En Informatique chaque agent est donc un petit programme exécutant un certain nombre de tâches qui s’inscrit dans une structure hiérarchisée. Je définirais à l’aide d’un autre livre de Jean-Claude (Immortalité numérique) l’ensemble de ces structures.
Définition de l’agent : L’agent peut-être de différentes formes, on peut parler de petits programmes implémentés dans un logiciel, d’animaux au sein d’un groupe, de personnes physiques.
Deux grandes catégories : les agents réactifs et les agents cognitifs.
Les agents réactifs sont des agents comportementalistes ou « behavioristes » qui vont se contenter de subir leur environnement par exemple selon le fameux modèle SIR :
Stimulation de l’environnement
Individu
Réaction par rapport au stimulus
Plus précisément dans un système Informatique ils ont une fonction réflexe c’est à dire qui des programmes qui réagissent immédiatement à des informations reçues en entrée.
Les agents cognitifs quant à eux vont influer sur leur environnement, ils passent à l’action, ils sont capables de prise de décision.
On distingue parmi ces agents les nèmes qui stockent des connaissances qu’on pourrait qualifier d’agents réactifs, des nomes qui sont capables de traiter ces connaissances qui sont donc des agents cognitifs. Parmi ceux là : Les polynèmes sont capables d’activer des agents représentant différents aspects d’un même objets tandis que les paranomes sont capables de traiter simultanément différents représentations de connaissances.
Ces agents spécialisés sont accompagnés d’agents gestionnaires chargés de planifier et d’organiser. Tous ces agents se structurent alors pour former des tableaux (frame-array) qui sont capables d’exécuter des calculs complexes. Quels sont alors les différents modes d’organisation hiérarchiques de ces structures ? :
On compte 9 typologies :
Hiérarchie
La hiérarchie se structure sous la forme d’un arbre avec des nœuds représentés par l’agent qui possède une autorité sur un noeud-fils.
Holarchie
La holarchie est une hiérarchie sans autorité, les agents sont inclus comme si on greffait des feuilles à l’arbre.
Coalition
La coalition est une alliance temporaire dont la valeur de l’objectif doit être supérieur à la somme des agents qui la composent
Équipes
Les équipes ont pour but de maximiser les intérêts de l’équipe dans un objectif commun à tous les agents.
Congrégations
Les congrégations sont voisines des équipes et des coalitions sauf que les agents peuvent sortir ou rentrer dans la congrégation. Il n’y a aucune permanence.
Sociétés
Les sociétés sont des ensembles d’agents hétérogènes de nature différentes mais soumis à des lois communes
Fédérations
Les fédérations sont des entités qui laissent place à un système de délégations ou les interactions se font entre délégués des agents.
Marchés
Les marchés sont un système d’agents vendeurs et acheteurs qui permettent de définir des stratégies de négociation.
Matrices
Les matrices sont des agents interconnectés (lignes et colonnes) et interdépendants entre eux.
Ces typologies dans un système multi-agent peuvent s’associer entre-elles, on peut par exemple avoir des fédérations de sociétés d’agents.
Passons aux champs suivants que je développerai moins :
La perception et la vision par ordinateur sont les systèmes de reconnaissance faciales mis en place par nos caméras installés sur nos smartphones ou ordinateurs.
Par exemple Face ID cherche à enregistrer numériquement l’empreinte mathématique de votre visage à des fins biométriques de sécurisation. Ces applications utilisent des réseaux de neurones convolutifs qui simulent notre cortex visuel.
L’apprentissage machine aussi appelé machine learning (ML) compte 3 types d’apprentissage : supervisé, non supervisé, ou par renforcement (système de récompense). Derrière le terme d’apprentissage machine assez généraliste se cachent d’autres algorithmes qui ont connu un grand essor ces dernières années tels que les réseaux de neurones profonds (deep-learning) ou les algorithmes évolutionnaires.
Les algorithmes évolutionnaires s’inspirent des théories de l’évolution biologique, ils comprennent par exemple les algorithmes génétiques (néo-darwinisme voir John Holland) et ses fonctions d’évaluation dites « fitness ». Une fonction fitness est par exemple une fonction destinée à évaluer les personnes les plus aptes à faire évoluer ou avancer l’humanité. Rien à voir avec la programmation génétique qui est un outil d’optimisation de la performance d’une chaîne de programmes.(voir John Koza)
Le connexionnisme qui est à la base du réseau de neurones comme vous l’avez peut-être vu sur mon article sur les sciences cognitives notamment la synapse de Hebb. Plus
généralement le connexionnisme s’intéresse à tout ce qui peut être connecté pour maximiser les performances s’opposant à la centralisation des calculs par le processeur d’un ordinateur par exemple. Le parallélisme massif organisé en réseau est une forme de connexionnisme.
L’intelligence affective est le domaine de recherche pour un ordinateur de percevoir, exprimer et ressentir des émotions. Le chatbot Eliza créé par Joseph Wieszenbaum était capable de percevoir et d’exprimer des émotions mathématiquement mais le ressenti est encore hors de portée, en effet la machine ne dispose d’aucune fonctions physiologiques.
L’intelligence collective s’intéresse par exemple à l’organisation en groupe d’un ensemble d’individus ou pourquoi pas d’agents qui interagissent ensemble dans un but commun, par exemple dans la nature, une colonie de fourmis qui œuvrent toutes ensemble pour le bien de la fourmilière.
La résolution de problèmes et de raisonnements est la base du domaine de recherche de l’intelligence artificielle. Le but étant de simuler le raisonnement humain par exemple lors d’un syllogisme ou d’une inférence. Le principal problème de ce champ de recherche est l’explosion combinatoire qui peut être occasionnée de par la multiplicité de variables ou de fonctions à calculer. On va donc chercher à palier à ce problème par de la recherche heuristique c’est à dire en filtrant les paramètres de sortie et en excluant certaines solutions.
Traitement symbolique et logique représente également un des premiers champs de recherche de l’IA. Le symbolisme par opposition au raisonnement quantitatifs (variables binaires) permet de calculer par association d’objets catégories ou concepts. Deux langages ont été créé à ces fins : Prolog par Alain Colmerauer et Philippe Roussel deux informaticiens français et Lisp pour traitement par liste crée par John McCarthy(1958)
Le langage naturel ou NLP s’intéresse à la compréhension par l’ordinateur des chaînes de caractères que forment notre alphabet qui peut se décliner en mots, en phrase, et en texte. Fortement lié à la linguistique et ses branches comme la sémantique, l’orthographe, la grammaire, la traduction automatique dans différentes langues (analyse de récurrences) sont des domaines du traitement naturel du langage.
La planification est l’étude de principes organisationnels visant à réduire les coûts, et optimiser les durées de travail par exemple pour agir en temps réel afin de réaliser un objectif de manière optimale pour un robot ou un agent (prise de décision).
La robotique est intimement lié à l’IA, dès qu’il s’agit d’implémenter à un robot un fonctionnement intelligent ou un système de perception l’IA représente une passerelle obligatoire. La robotique est donc un terrain d’expérimentation privilégiée de l’IA.
Les réseaux de neurones ont vu le jour dès la création de la discipline cybernétique dont j’ai déjà parlé dans mon article sur les sciences cognitives. Mais les réseaux de neurones profonds changent aujourd’hui la donne tant les avancées sont significatives durant les dernières années : On distingue les réseaux simple-couche, multi-couche (couches cachées, couches visibles) , récurrents (qui bouclent sur eux même), non récurrents, convolutifs (traitement de l’image). Supervisés, (main de l’homme dans l’apprentissage), à priori non supervisés (réseau par adversaire, voir Ian Goodfellow) ou encore par renforcement. (système de récompenses).
La vie artificielle aussi appelée A-life, représente l’étude du vivant et de son comportement dans un environnement artificiel tel que l’ordinateur.
Les systèmes à base de connaissance est une des formes de l’IA regroupés sous le champ de recherche des systèmes experts très utilisés en médecine dans les années 1980. Un des plus connus fut Mycin développé par Edouard Shortliffe qui permettait de diagnostiquer et traiter les leucémies grâce à un système de base de connaissance basé sur des faits, des règles et un moteur d’inférence. Une inférence peut-être déductive (syllogisme), abductive (élimine les solutions improbables) inductive(basé sur l’observation factuelle)
Les représentations de connaissances est la mise en forme pour une IA d’un ensemble d’objets, de données, d’informations sur un problème pour aider l’algorithme à calculer de manière efficace. On parle alors d’ontologie complètes ou spécifiques représentés sous forme de graphiques.
La logique floue conceptualisée par Lofti Zadeh part de variables réelles plutôt que binaires, une information peut-être vrai et fausse. Plus exactement, une information vraie à un moment donné peut-être fausse l’instant d’après.
Les 6 formes de l’IA
L’intelligence inférieur à un humain pour une tâche spécifique
L’intelligence égale à un humain pour une tâche spécifique
L’intelligence supérieure à un humain pour une tâche spécifique
L’intelligence supérieure à un humain pour une multiplicité de tâches
L’intelligence supérieure à tous les humains pour une multiplicité de tâches on parle alors d’AIG pour Intelligence Artificielle Générale
La singularité technologique représente une prise de contrôle de l’humanité par une intelligence artificielle.
On peut faire une césure entre les quatre premières formes d’IA qui sont regroupés sous la forme d’une IA Faible alors que les 2 dernières 5 et 6 font parties des IA Fortes. Aujourd’hui on recherche particulièrement à développer ces deux dernières formes.
Les Peurs liées à l’IA
1.La singularité technologique
La singularité est technologique, j’en ai déjà parlé dans le premier article du site sur la super-intelligence. C’est l’avènement d’une IA qui s’imposera comme un singleton et qui contrôlera l’humanité. Plus encore Kurzweil décrit la singularité technologique comme l’avènement d’une super-intelligence en 2045 dont le fonctionnement nous paraîtra impossible à comprendre et qui pourra créer des machines également plus intelligentes que notre cerveau.
La première conséquence positive défendue par le transhumaniste Ray Kurzweil part du principe que les hommes seront augmentés, que les maladies incurables seront guéries et que l’IA sera bienveillante.
La deuxième conséquence dite pessimiste : pour Stephen Hawking et Elon Musk, part du principe que l’IA sera inamicale et qu’elle décidera par exemple pour sauver la planète si c’est réellement son but et par extension de se débarrasser de l’humanité le considérant comme un danger pour celle-ci.
Pour Nick Bostrom dont j’ai déjà parlé dans mon premier article l’IA, celle-ci raisonnera par l’orthogonalité (une fonction de deux variables en x et y) par volonté et intelligence, elle choisirait toujours la solution la plus simple.
2. Le spectre des armes autonomes
Il existe quelques exemples d’armes autonomes en voie de développement par différents pays : RoBattle, ou l’IA antiaérienne Alpha en fait partie, et la course à l’armement est déjà engagée. C’est contraire à un des 23 principes d’Asilomar qui veut que l’on évite d’utiliser l’IA pour développer des armes létales, cependant on trouvera toujours des partisans au développement de la robotisation armée ne serait-ce que pour éviter des pertes humaines.
3. L’IA va détruire l’emploi
L’intelligence Artificielle ne détruira pas l’emploi, au contraire elle visera à créer des emplois hautement qualifiés pour être conçue et appliquée et permettra à la société d’arrêter l’exploitation des humains pour des tâches répétitives et sur le long terme contre productive pour notre esprit. Il est intéressant de noter que les pays robotisés sont les pays ou le taux de chômage est le plus bas.
4.Des boites noires
Les boîtes noires sont une crainte tout à fait avérée de l’IA, derrière le terme « boite noire » relatif à ces dispositifs aériens qui sont censés expliquer les causes d’un crash, se cache tout le fonctionnement opaque de l’algorithme. Aujourd’hui un des futurs de l’IA est l’XAI pour « explicable AI » lire le deuxième livre d’Aurélie Jean « Les algorithmes font-ils la loi ? ». La commission européenne a notamment déjà sommé les GAFAMI d’expliquer leurs algorithmes que ce soit un algorithme de recommandation dit explicite basé la plupart du temps sur des arbres de décisions ou un algorithme de neurones profonds dit implicite. Tout l’enjeu est d’auditer et comprendre le code pour tenter d’expliquer les résultats de l’IA et comprendre d’éventuels biais. (concept défini par Aurélie Jean dans son premier livre « Une fille au pays des algorithmes »)
5.IA sexistes et racistes :
On a déjà assisté à de nombreux biais sexistes et racistes de la part de l’IA, le premier biais sexiste fut l’algorithme d’Amazon qui discrimina les femmes à l’embauche ou bien celui de l’Apple Card dénoncé en personne par Steve Woszniak. Votre banque vous accorde un crédit immobilier déjà sur la base de paramètres algorithmisés. Aux États-Unis des biais ont notamment été constatés lors de la libération de détenus suite à une peine de prison pour éviter la récidive. « Voir Coded Bias » sur Netflix . Ces biais cognitifs sont implémentés par les concepteurs de l’algorithme dans leur logique programmatique ou dans le jeu de données sélectionnées pour entraîner l’IA. Il faut implémenter un mécanisme d’auto-régulation entre les ingénieurs à la conception de l’algorithme.
6.Les IA peuvent être détournées
Il est important de comprendre que le développement d’une IA super intelligente passe par le développement de la cyber-sécurité afin de limiter les piratages de ces IA d’une part, et d’autre part restreindre l’accès des IA omnipotentes à une personne légitime et éclairée et responsable.
7.Notre vie privée est violée
Le big data mis en place par les GAFAMI a été le socle pour que le développement d’une IA qui permette de mieux classer, analyser, trier les données qui sont présente sur le web. Les micros et caméras des smartphones sont partout et constamment en marche, ce n’est pas nouveau et rien n’empêche aujourd’hui une entreprise même dans toute cet océan d’information de mettre en place une IA qui permette l’analyse et la récupération de données ciblées.
Les 8 idées reçues sur l’IA
1.Les IA sont meilleures que les humains
A proprement parler les IA ne sont pas meilleurs que les humains, d’une part car ce sont les humains qui les codent et d’autre part parce que toutes les IA qui ont battu les humains par exemple aux échecs (Deep Blue basés sur des algorithmes min-max) ou dans le jeu de Go (Alpha go développé par l’IA DeepMind de google sont entraînés sur une base de données de parties humaines.
2. Les IA veulent nous remplacer
L’IA n’a pas de volonté propre, elle n’a pour but que la réalisation de l’objectif que le code lui a implémenté.
3. La courbe de l’IA est exponentielle
La loi de Moore qui veut que la croissance de la puissance des composants électroniques et autres semi-conducteurs obéit à une fonction exponentielle (puissance) dont l’ordonnée pour une variable x à 0 est égal à 1 est fausse car elle ne prend pas en compte les réalités géopolitiques, géo stratégiques et l’approvisionnement en matières premières nécessaires pour les produire. On a a notamment vu avec l’impact de la pandémie de COVID, la ruée sur les cartes graphiques pour le minage de cryptomonnaies et l’appauvrissement des ressources de notre planète terre que la réalité rattrape toujours les prévisions.
4. L’IA a des sentiments
L’IA n’a pas de sentiments, elle peut exprimer des émotions, percevoir des émotions notamment grâce aux grandes avancées des travaux de neurones profonds mais le champs de recherche concernant la sensation des émotions est encore complètement neuf Même si le projet Living Mona Lisa (Heudin 2015) faisait apparaître des émotions à la Joconde, c’était plus de l’ordre de la simulation.
5. L’IA est consciente
On distingue deux types de consciences, la conscience primaire qui mêle perception et mémoire : « Edelman » et la conscience supérieure qui naît avec la sémantique et les facultés de langage : « John Eccles ». Pour moi cette conscience supérieure naît avec l’émergence du libre arbitre. Les aires de la parole qui interviennent dans l’intervention de la mémoire de la linguistique interagissent avec les aires conceptuelles déjà existantes du cerveau. La conscience de soi est la caractéristique la plus fondamentale de l’espèce humaine pour Théo Dobzhansky . Aucune IA n’a cette conscience mais cela ne veut pas dire que dans le futur aucune machine avec une conscience ne pourra émerger. J.C Heudin suggère de nouvelles pistes illustrées par les travaux de Francisco Varela et d’algorithmes bio-inspirés pour des nouvelles machines basés par exemple sur l’autopoièse qui se définit par l’auto-reproduction des cellules similaires aux divisions telles que la méiose et mitose.
6. L’IA est autonome et apprend seule
L’apprentissage non-supervisé sur le papier nécessite quand même l’intervention d’ingénieurs et chercheurs hautement qualifiés. Même si une IA apprend effectivement de manière autonome, il faut encore lui donner le volume de données approprié pour qu’elle puisse apprendre. En quelques sorte il faut l’alimenter.
7. L’IA ne sera jamais créative
Un homme comme une intelligence artificielle base sa création sur un patrimoine informationnel ou un nombre de connaissances qu’il a reçu, emmagasiné et interprété. Dire qu’une IA ne sera jamais créative est faux. Même si le processus artistique est créatif, les réseaux de neurones profonds ont permis aux IA des avancées spectaculaire dans le domaine musicale et pictural ces dernières années.
8. L’IA est vivante
On peut tout simplement résumer cette partie par un syllogisme : tout ce qui a une conscience est vivant, une IA n’a pas de conscience, donc une IA n’est pas vivante.
L’éthique en IA :
En 2017 s’est tenu à Asilomar en Californie une conférence organisée par le Futur of Life Institute qui a abouti à la rédaction de 23 principes rédigés sous la forme d’une charte pour une IA éthique qui a obtenu un franc succès auprès de la communauté scientifique puisqu’elle a été très largement signée. Certains de ces principes sont redondants ou vont de pair mais intéressons nous à cette dimension éthique si chère au site.
Les 23 principes d’Asilomar :
1. Objectif de recherche
bénéfice Le premier principe suppose que l’objectif de recherche sur l’IA doit tendre vers le bénéfique.
2. Investissements
Le deuxième principe concerne les investissements liés à l’IA selon 3 points :
Préservation des ressources Les ressources de la planète doivent être préservés
Piratage Les IA doivent être sécurisées à l’extérieur et à l’intérieur du programme pour empêcher l’utilisation détournée de l’IA par un groupe dissident.
Evolution du système juridique Il est impératif d’améliorer notre système juridique et notamment les relations entre scientifiques et décideurs politiques pour permettre une législation pro-active et non à rebours de la technologie.
3. Relation entre les scientifiques et les juridictions
Conglomérat de scientifiques et de législateurs.
4. Culture ou esprit de recherche
Les scientifiques qui travaillent à améliorer les IA doivent avoir une vraie culture de la recherche.
5. Prévention
Respecter les normes de sécurité
6. Sécurité
Éviter le piratage
7. Transparence
Pouvoir expliquer la causalité d’un choix discriminant ayant causé des dommages faits par un algorithme d’intelligence artificielle.
8. Transparence judiciaire
Superviser la prise de décision d’un système autonome par un humain afin de corroborer la décision dans le cadre d’une décision judiciaire.
9. Responsabilité
Les concepteurs et les Constructeurs doivent répondre de l’utilisation abusive de leur système et endossent la responsabilité morale.
10. Concordance des valeurs
Les systèmes d’intelligence artificielle doivent être en adéquation avec les valeurs du genre humain.
11. Valeurs humaines
Des droits fondamentaux tels que la liberté, la diversité culturelle, le droit et la dignité doivent être respectés.
12. Données personnelles
Les données des utilisateurs doivent rester sa propriété, chacun devrait pouvoir contrôler, gérer, et organiser ses données.
13. Liberté et vie privée
La vie privée devrait être préservée, la restriction de cette liberté réelle devrait être interdite.
14. Bénéfices partagées
Devrait bénéficier à autant de personnes que possible
15. Prospérité partagée
Préservation des ressources économiques
16. Contrôle humain
Décision d’une délégation dans le cadre de la réalisation d’objectifs fixés.
17. Anti-renversement
Pouvoirs accrédités à une personne qui contrôle les systèmes d’IA devraient bénéficier à la société sur un plan global, social et moral.
18. Course aux IA d’armement
La course aux armes autonomes létales devrait être évitée.
19. Alertes sur les capacités
Toute prévision par rapport aux capacités supérieures de l’IA devrait d’abord faire l’objet d’un consensus entre chercheurs.
20. Importance
Important changement de paradigme de la vie sur terre.
21. Risques
Prévision des risques en vue de minimiser leur impact.
22. Auto-développement
Contrôle de sécurité des IA qui se répliquent de manière autonome.
23. Bien commun
Les IA super-intelligentes ne devraient être crées que pour la réalisation du bien commun et conférés à des Etats ou à des organisations.
Pour terminer je vous ai dessiné une flèche du temps spectrale retraçant les naissances et morts des plus grands hommes de l’IA au cours des trois siècles derniers à partir du glossaire du livre : A mon sens c’est un bonne exercice pour travailler sa physionomie en fonction de ce qu’ont réalisé ces hommes. Je ne vous fais pas la liste exhaustive mais sachez que Boltzmann pour ne citer que lui est le père de la physique statistique et qu’il a donné son nom à certains réseaux de neurones profonds appelés « Machines de Boltzmann ». Pour les autres, je laisse toute latitude à votre curiosité.
Les grands hommes de l’IA de 1844 à 2022
Voilà j’ai résumé les parties du livre qui me semblaient les plus intéressantes, cependant si vous souhaitez approfondir vos connaissances sachez que le glossaire qui accompagne ce livre à la fin est immensément riche et vulgarise des termes et concepts mathématiques compliqués. Je vous recommande encore une fois d’acheter ces deux livres qui sont des perles de savoir.
Je me rappelle lorsque je passais mon jury de fin d’études et que je disais que je voulais prolonger mes études. Mon auditeur m’avait dit « Monsieur connaissez-vous les algorithmes de Donald Knuth ? » Je répondis « Non » et il rétorqua que j’étais d’une ignorance crasse ! C’est sûrement la meilleure chose qui me soit arrivée. Donald Knuth est probablement un des plus prestigieux des programmeurs informatiques :
Donald Knuth
Il a écrit le fameux livre the art of computer programming :
Ce livre est un manuel en quatre volumes qui décrit l’algorithmique pour le code informatique. Le but de cet article n’est pas de vous détailler le TAOCP qui d’ailleurs est un peu désuet compte tenu des cadences fréquentielles et mémorielles actuelles du hardware.
Cependant Knuth mérite d’être connu, il a créé un processeur de texte (langage à balises) Tex qui vient du grec τέχνη (tekhnê) signifiant habileté manuel car il trouvait tellement peu facile de formaliser les mathématiques sur les logiciels de traitement de texte.
Inutile d’utiliser TEX, mais sachez que Leslie Lamport a adapté ce langage et a créé LATEX qui est aujourd’hui utilisé par la plupart des scientifiques qui font des mathématiques sur informatique et certains forums de maths pédagogiques. Latex demande un temps d’apprentissage similaire au HTML, voici l’exemple d’un code Latex :
Et son résultat formalisé :
Je vous ai déjà parlé de la table Américaine ASCII pour encoder les lettres de l’alphabet, sachez que Latex a été crée quand Unicode n’existait pas encore mais que Latex/Tex est le langage utilisé si vous voulez contribuer mathématiquement à l’encyclopédie libre Wikipédia de Jimmy Wales.
Qu’est ce qu’Unicode ?
Unicode est un standard qui a été crée pour se substituer à l’ASCII trop limité en nombre de caractères. Unicode comprend 144 697 caractères. Ces jeux de caractères ont un numéro héxadécimal comme par exemple U+2F12. Cet identifiant universel sera le même pour toutes les typographies qui comprennent le caractère. Vous pourrez trouver les tables d’unicode sur wikipedia qui comprennent les différents plans.
Vous voulez utiliser n’importe quel caractère ? Une intégrale quaternion ou un Katakana japonais ? Voici un petit tutoriel :
Rendez-vous dans la table de caractères par exemple par la commande run ou exécuter de windows :
Sélectionnez la typographie Cambria Math dans le menu
Cliquez sur le symbole de votre choix, repérez le code 2A16,
Lancez Libre Office (ça ne marche pas sur mon word… bizarre 🙂 ? )
Sélectionnez la police dans Libre Office, Cambria Maths
Tapez 2A16 et faites la combinaison Alt + X !
Magique l’intégrale quaternion apparaît !
Dans un autre article je m’attaquerai à l’UTF-8 qui est un dérivé du standard Unicode qui transforme à la fois les caractères ASCII et Unicode et qui s’est imposé comme une norme sur le web aujourd’hui puisque que 95 % des caractères encodés sur l’ordinateur sont encodés selon ce format.