Interview de Lev Kiwi, mathématicien, data scientist et maître IA
C’est quoi la théorie de l’émergence ?
Depuis quelques années, la science en général observe une renaissance d’un vieux concept qui est celui de l’émergence (Wikipedia).
Le concept de l’émergence est vieux comme le monde et certains philosophes grecs l’avaient déjà conceptualisé. Cependant, il est resté dans l’oubli jusqu’à récemment car même aujourd’hui ce concept reste mystérieux. Le principe de base est simple et tout le monde le comprend; le tout est plus que la somme de ses parties (Aristote). Prenez par exemple l’image ci-dessous. Cette dernière se compose essentiellement de taches noires sur un fond blanc. Cependant, notre système perceptif reconnait un dalmatien. Comment se fait-il qu’on puisse uniquement à partir de taches noires créer la représentation d’un chien ? Voilà une illustration du principe d’émergence.
En bref, l’émergence est caractérisée par le fait qu’une certaine organisation d’unités produit une unité d’un niveau qualitativement plus grand. De plus, ce niveau qualitativement plus grand possède des propriétés qui n’existaient pas au niveau de base.
Les exemples dans la nature sont vastes. Notre corps est composé de cellules, nos cellules sont composées de molécules, les molécules sont composés d’atomes, etc. C’est par l’organisation d’entités simples qu’on obtient des entités plus complexes. Ces entités complexes ont des lois d’interactions qualitativement différentes entre elles qu’on n’observe pas au niveau de base.
Tandis que les « réductionnistes » soutiennent qu’on peut expliquer complétement les interactions d’entités complexes à partir de ses parties, les « émergentistes » pensent exactement le contraire. Par exemple, on ne peut pas expliquer entièrement le fonctionnement d’un individu à partir de son ADN, ni le fonctionnement de ses cellules, ni même de ses organes.
Ce concept suscite maintenant de l’intérêt dans tous les domaines scientifiques. Avec le bon énoncé de règles d’interactions des unités d’un niveau inférieur on peut comprendre comment émergent les entités d’un niveau supérieur.
Et l’intelligence dans tout ça ?
La force des théories « émergentistes » réside selon moi dans leurs capacités à définir les concepts les plus complexes, comme le sont en psychologie l’intelligence, l’esprit ou encore la conscience, etc. Qu’est-ce que l’intelligence ? Cette question a fait couler beaucoup d’encre et encore plus depuis le début du 20ème siècle en psychologie. Essayons d’abord d’appréhender le concept avec une approche classique.
Intelligence is a very general mental capability that, among other things, involves the ability to reason, plan, solve problems, think abstractly, comprehend complex ideas, learn quickly and learn from experience. It is not merely book learning, a narrow academic skill, or test-taking smarts. Rather, it reflects a broader and deeper capability for comprehending our surroundings—“catching on,” “making sense” of things, or “figuring out” what to do.
Gottfredson (1997)
Gottfredson donne une définition de l’intelligence acceptée aujourd’hui par un grand nombre de psychologues. Cependant, il y a toujours quelque chose de bancal dans cette définition. Si l’intelligence réside dans la capacité à raisonner ou à penser en termes abstraits, que peut-on dire de l’intelligence des autres espèces animales ? Il se passe quelque chose de qualitativement différent dans l’intelligence des souris, des singes ou encore des humains. Par ailleurs, la capacité à raisonner avec des objets abstraits n’apparait qu’assez tard dans le développement de l’humain. Donc l’intelligence serait une compétence qui se développe. Comment faire alors état des différents stades du développement cognitifs selon Piaget ? Ce dernier met en lumière des stades où la pensée prend une autre forme et devient selon lui qualitativement différente.
Vers une approche « émergentiste » de l’intelligence artificielle
Depuis une vingtaine d’années, l’approche « émergentiste» réunit de plus en plus de scientifiques comme on peut le lire dans le livre de Clayton & Davies (2006) The re-emergence of emergence. En particulier, les psychologues ont fait des percées significatives dans le domaine de l’intelligence; on peut citer notamment les travaux de Van Der Maas et al. (2006) A dynamical model of general intelligence. Dans cette approche, on conçoit l’intelligence non pas comme une entité existante en soi, mais comme étant la résultante de certaines interactions bien organisées. Ainsi les individus n’ont pas une intelligence, mais différentes habilités cognitives comme le raisonnement inductif, le raisonnement déductif, le traitement visiospatial, la mémoire de travail, la fluence verbale, etc. qui s’organisent et interagissent entre elles afin de produire ce qu’on pourrait percevoir comme de l’intelligence. A noter que chacune de ces habilités n’existent pas en tant que telle non-plus et n’est que la résultante d’interactions neuronales organisées dans le cerveau. Avec cette approche on peut ainsi rendre compte des différences non seulement quantitatives de l’intelligence, mais aussi qualitatives comme observées à dans le règne animal ou encore à travers le développement.
L’essor de l’intelligence artificielle en informatique nous invite aussi à une telle approche. En effet, il est difficile actuellement de caractériser ce qu’est précisément l’intelligence artificielle. Est-ce que c’est l’utilisation de machine learning, du big data, le traitement d’images ou de sons, ou encore l’utilisation d’algorithmes mathématiques de manière générale ? Dans cette impasse on se résout souvent à définir l’intelligence artificielle comme un programme informatique qui imite un comportement intelligent. Mais on pourrait aller plus loin en donnant la définition suivante :
L’intelligence artificielle est une propriété émergente d’un programme créée par l’interaction organisée de ses composantes.
Puisque tout programme informatique est par définition une interaction organisée de codes qui le compose, tout programme possède un certain niveau d’intelligence artificielle. On a ainsi un continuum sur l’échelle d’intelligence caractérisé par la quantité de code qui interagit. A même titre que la quantité de neurones qui interagissent dans un être vivant nous donne des intelligences différentes. Cependant, il y a des composantes qui lorsqu’elles sont bien organisées entre elles nous amène à des stades d’intelligence artificielle qualitativement différent. C’est ce qu’on observe depuis quelques années avec l’essor de l’intelligence artificielle. D’une part, la puissance de calcul et le calcul parallèle permet d’un point de vue technique un tel développement. D’autre part, le code interagit de façon bidirectionnelle avec les (big) data. Par le passé, le code lisait et écrivait des données uniquement. De nos jours, les algorithmes de « machine learning » en particulier se réécrivent en partie à partir des données. De plus, lorsqu’on fait interagir plusieurs algorithmes de Machine Learning entre eux, on peut obtenir une intelligence artificielle comme Watson d’IBM. Ces composantes, une fois intégrées de façon judicieuse dans un écosystème complexe et toujours grandissant, nous rajoute un niveau qualitativement différent d’intelligence. En d’autres termes, aucune de ces briques n’est intelligente en soi, mais leurs interactions fait émerger une propriété qualitativement supérieure que l’on peut appeler intelligence artificielle.
Photo by Julian Kirschner
Commentaires