par Jerôme Berthier
Depuis l'avènement de l'Intelligence Artificielle (IA) il y a maintenant 10 ans, tout le monde débat sur la place de l'IA et de l’humain. Le questionnement va de la simple automatisation de certaines tâches jusqu'aux scénarios catastrophiques de l’aliénation de la race humaine. Depuis l'arrivée en décembre de ChatGPT et de l'IA générative, cette question est devenue plus pressante, accentuée d’un côté par des personnalités de la tech pour qui les enjeux sont ailleurs, et d’un autre par des d’auto-proclamés experts qui enfoncent le clou sans avoir de connaissance approfondie de la technologie.
Pour bien comprendre ce phénomène, il faut prendre en considération un postulat de base : toute intelligence artificielle a besoin de données pour exister et pour apprendre. C’est la raison pour laquelle bien qu’existant depuis 1950, l’IA n'a réellement émergé que dans les années 2000 car la puissance de calcul et de stockage a commencé à être suffisante pour transformer nos téléphones portables en micro-ordinateurs, nous permettant de générer des informations numériques et d’alimenter cette IA.
Depuis, nous entendons beaucoup parler de machine auto-apprenante et c’est sur cette ambiguïté que jouent les prophètes de l’apocalypse en prétendant que l’IA est devenue si intelligente qu’elle peut créer et vivre sans nous ; mais, je vous rassure. Ce n’est de loin pas le cas car oui, l'IA crée, mais dans un univers fermé ; c’est-à-dire qu’elle évolue dans un monde borné par les informations qu’on lui donne.
Prenez par exemple une IA qui dessine mais à qui vous avez donné uniquement du blanc et du noir. Elle va certainement créer des images en nuances de gris d’une précision telle que l'humain n’y serait pas arrivé. Cependant, cette IA n'inventera ni le rouge, ni le bleu, ni le jaune, car elle n’aura aucune idée de leur existence et construira un monde en noir et blanc car son monde s’arrête là.
Pour ChatGPT, ou les autres IA générative, c’est exactement la même chose sauf que leur « univers de connaissance » est bien plus vaste, créant la sensation que l’IA est devenue presque autonome. Par exemple, un ingénieur de Google a fait récemment le buzz pour avoir cru, à force de converser avec une IA, y déceler une conscience.
Pour imager mon propos, projetons-nous dans une fiction dans laquelle l’humain aurait délégué l’entièreté de la créativité et de la rédaction, en supprimant tous les jobs de journaliste, auteur, dessinateur ou encore compositeur. Dans un tel scénario, en fin de compte, l’IA s'appauvrirait et mourrait car nous aurions tué la source de son apprentissage. Pourquoi ? Il faut comprendre qu'une IA n'a pas de sémantique et que tout ce que nous appelons « texte, image… » n'est qu'une représentation en vecteur mathématique avec pour but l'optimisation de ceux-ci. Ainsi, sans nouvelles « informations et inspirations de l’homme », l'IA finit par simplifier au maximum notre monde et comme elle devient aussi sa propre source, elle auto-cannibaliserait son apprentissage avec un contenu de moins en moins diversifié et une uniformisation de l’information, la rendant totalement insipide. Finalement, la création par une IA d’un roman policier convergerait toujours vers une même fin, avec une même structure, et un même nombre exact de mots.
Sans que vous ne vous en rendiez compte, c’est peut-être déjà le cas. J’ai utilisé ChatGPT pour relire quelques textes que j’avais écrit pour voir comment ChatGPT pouvait m’aider. Peut-être était-ce un hasard, mais le paragraphe de conclusion des dix textes commençait toujours par : « En somme, (...) ».
Il faut donc à l’IA de nouvelles informations en continu et ces nouvelles informations ne peuvent être produite que par l’humain.
Mais alors pourquoi en avoir si peur ? Lorsque que l’on parle d’IA et de cette technologie qui nous dépasse, l'humain a tendance à se réfugier dans ce qu’il connait et compare l'IA avec le monde qui l’entoure ; mais ce monde est bien plus vaste et il nous reste beaucoup à explorer. L’IA va donc plutôt être un outil indispensable à notre propre évolution.
Prenez ne serait-ce que le temps perdu à des tâches sans valeur ajoutée, voire ennuyeuses. Transformer ce temps et cette énergie en exploration sera le réel enjeu de l’IA. Elle sera ainsi un atout, sans nous remplacer, et va donc évoluer avec nous. D’ailleurs comment imaginer d’avoir d’une part une IA qui se développe au-delà de l'être humain et, d’autre part, une race humaine qui stagne dans l'état actuel pour l’éternité. Au contraire, l'IA va sublimer notre capacité et faire de nous des hommes augmentés.
Je suis donc convaincu que l’humain a beaucoup à gagner avec l’IA et que cette dernière ne peut pas exister sans nous.
Le risque, en réalité, est ailleurs : Notamment dans la manipulation de l'IA. En effet, il pourrait être très facile pour des grands groupes et/ou des gouvernement de lui fournir volontairement des données non exhaustives et biaisées pour nous emmener vers une vision unique et totalement fausse de notre monde. Il faut donc encourager la prolifération des IA avec des modèles algorithmiques et des données différentes car plus nous auront de différences, plus nous pourrons tendre vers une représentativité exhaustive du monde et créer un équilibre. Encourageons donc la création et la compétitivité d’IA souveraines et non-dépendantes des seuls Américains ou Chinois.
Photo by ThisIsEngineering
Comments