top of page
Rechercher
Photo du rédacteurAmbassadeur

Quel statut juridique pour l’intelligence artificielle ? Par Xavier Comtesse

Dernière mise à jour : 2 mars 2021


Avec la généralisation de l’usage de l’IA dans toutes sortes de domaines, allant de la voiture autonome à la médecine de précision, en passant par la maintenance prédictive et la gestion du trafic aérien, un enjeu nouveau apparaît : celui de la responsabilité en cas de préjudice causé par une IA. L’ordre juridique suisse, comme celui de la plupart des pays avancés, n’apporte pas de réponse claire à cette question. Comme une IA est immatérielle (software), mais incorporée dans des machines (hardware), il est difficile d’en extraire son comportement spécifique au-delà de l’action qu’elle co-commande avec l’homme. Son autonomie grandissante (co-apprentissage) va la rendre de jour en jour plus autonome de l’action humaine. On l’a bien vu avec le jeu de go où les logiciels d’AlphaGo puis d’AlphaGo Zero se sont complètement détachés de l’action de l’homme.


Entretenons-nous avec Anaïs Avila qui vient de déposer avec succès un Mémoire de Master en droit à l’Université de Genève pour y voir plus clair sur cette thématique :


Qu’est-ce que la responsabilité civile en cas de préjudice de manière générale ?

De manière générale, la responsabilité civile désigne l’obligation faite à une personne de réparer le préjudice causé à autrui. La fonction première du droit de la responsabilité civile est ainsi de compenser le préjudice subi par le lésé. Le but est de remettre ce dernier dans la situation dans laquelle il aurait été si l’événement dommageable ne s’était pas produit. La seconde fonction du droit de la responsabilité civile se veut préventive. En effet, l’obligation faite aux responsables de réparer les préjudices qu’ils causent incite tout un chacun à se comporter avec diligence. En revanche, le droit de la responsabilité n’a pas pour but de punir le responsable. Cette fonction punitive appartient au droit pénal.


Pour un dommage causé par une IA… qui tranche en cas de conflit (aujourd’hui et demain)?

De nos jours, les assurances jouent un rôle primordial dans le règlement des litiges. Ce n’est plus le responsable qui indemnise directement le lésé, mais son assureur responsabilité civile. On peut alors penser que la fonction préventive du droit de la responsabilité civile évoquée ci-dessus est vidée de sa substance, mais pas complètement puisque l’assureur responsabilité civile peut augmenter les primes ou même recourir contre le responsable en cas de faute.

En cas de litige, ce sont les tribunaux qui tranchent, lesquels se réfèrent souvent aux conditions générales figurant dans le contrat d’assurance. Or, les contrats d’assurance contiennent parfois des clauses contraires aux principes de la responsabilité civile, ce qui a pour conséquence que l’indemnité due au lésé se trouve injustement réduite. Il en ira de même à l’avenir. En cas de dommage causé par une IA, les assurances joueront d’autant plus un rôle considérable et il appartiendra aux tribunaux de régler les conflits.


Y a-t-il en Suisse une loi spécifique sur la question de la responsabilité de l’IA en cas de préjudice ?

Non, il n’existe à ce jour aucune loi spéciale dédiée à l’IA. De plus, l’IA est une chose immatérielle dépourvue de personnalité juridique et de patrimoine, de sorte qu’elle ne peut être tenue pour responsable de ses actes. Pour l’heure, il faut appliquer les régimes de responsabilité civile existants, en tentant de les adapter aux circonstances. A cet égard, la loi sur la responsabilité du fait des produits (LRFP) permet actuellement de rechercher le producteur en responsabilité en cas de préjudice causé par un défaut de son produit ; encore faudrait-il que tous les logiciels soient considérés comme des produits au sens de la LRFP. Il appartiendra à la jurisprudence de préciser certains points, tels que la notion de produit, de défaut et l’établissement du lien de causalité.


À vos yeux faudrait-il une telle loi ?

Oui, à terme, il faudra créer un encadrement juridique des systèmes d’intelligence artificielle (SIA). Un encadrement juridique qui ne bride pas l’innovation, mais qui offre une protection efficace aux potentielles victimes. Tout est une question d’équilibre. A cet égard, plusieurs pistes sont proposées, parmi lesquelles la création d’une personnalité électronique. L’idée est d’attribuer aux systèmes d’intelligence artificielle (SIA) un statut juridique, comme on l’avait finalement fait à l’époque de la première révolution industrielle pour les sociétés anonymes. Comprenez bien que la 4e révolution industrielle est en train de faire naître un tout nouveau monde dans lequel le « machine learning », le « deep learning », les « réseaux de neurones » et toutes les nouvelles technologies de l’IA vont conduire les affaires du monde. Un monde dans lequel la généralisation de l’usage de l’IA ne sera pas une exception comme aujourd’hui. Tout dépendra de l’IA. Nous avons intérêt, nous les humains, à définir son statut et créer un cadre juridique cohérent et efficace.


En effet, cela change tout. Comment s’y prendre alors ?

L’autonomie de l’IA et sa capacité d’auto-apprentissage sont sources de préjudices difficilement prévisibles. Par exemple, une fois installée sur un véhicule, l’IA peut très bien évoluer indépendamment du constructeur ou du conducteur. A qui attribuer les effets de la responsabilité en cas de préjudice ? Au constructeur automobile, au détenteur du véhicule ou au système autonome lui-même, ce qui revient à créer une nouvelle entité juridique comme je le disais avant ? La question est délicate. Je pense qu’il faut avant tout responsabiliser les êtres humains, qui doivent assumer les conséquences de leurs choix et de leurs créations. En tout état de cause, l’industrie 4.0 appelle une modification de certains critères fondamentaux de la responsabilité civile.


Sommes-nous préparés aujourd’hui à une telle loi ?

Non, sans doute pas. Le risque est d’avoir soit un temps d’avance, soit un train de retard compte tenu de la célérité des innovations. D’abord parce qu’il faudrait avoir examiné beaucoup de cas pratiques, beaucoup de préjudices pour mieux appréhender tous les aspects du problème. Mais aussi parce que nous n’en savons aujourd’hui pas encore assez sur l’avenir même de l’IA. Nous n’avons pas le recul nécessaire. Ce qui n’empêche qu’il faudrait rapidement accumuler de l’expérience et du savoir en la matière. Cela paraît vital.


L’IA pourrait-elle être – à vos yeux – un jour une personne juridique ?

Oui, c’est d’ailleurs déjà le cas : l’Arabie Saoudite a octroyé la citoyenneté au robot « Sophia » en 2017. Ce robot humanoïde dispose d’un statut comparable à celui des êtres humains. En ce sens, Sophia peut se déplacer et interagir avec son environnement sans intervention active d’un être humain. Pourtant, comme tous les robots dotés d’une IA, Sophia est dépourvue de conscience et de réelle autonomie.

A mes yeux, seule l’IA « forte » mérite l’octroi de la personnalité juridique. Le jour où l’IA sera véritablement autonome et dotée d’une conscience de soi, lui permettant de raisonner, de comprendre ce qu’elle fait et d’effectuer des choix, l’octroi d’un statut juridique se justifiera sans doute. En d’autres termes, le jour où l’IA sera capable de causer des préjudices avec volonté et conscience, et échappera totalement au contrôle de l’être humain, il conviendra de lui octroyer un statut juridique, afin de lui imposer le poids de la réparation du préjudice causé.

A l’heure actuelle, cette forme d’IA n’existe pas, de sorte que la création d’une personnalité électronique n’est pour l’instant pas nécessaire. Il apparaît plus raisonnable d’imputer les effets de la responsabilité au concepteur, au fabricant, au propriétaire et à l’utilisateur de l’IA, lesquels se dissimulent inexorablement derrière les machines. Toutefois, pour désigner lequel de ces acteurs est responsable en cas de préjudice causé par une IA, il est indispensable de favoriser la transparence des algorithmes utilisés.

Je m’explique : en cas de préjudice causé par une IA, il est difficile, voire impossible, de déterminer la cause exacte du préjudice et donc, d’identifier un être humain à l’origine de ce préjudice. Le préjudice peut être dû à un défaut de l’IA, auquel cas la responsabilité de l’éditeur du logiciel pourrait être engagée, mais le préjudice peut aussi provenir d’un apport de données biaisées imputable à l’utilisateur ou au propriétaire de l’IA. Or, l’opacité et la complexité des algorithmes utilisés ne permettent pas de remonter l’enchaînement des causalités et de déterminer la cause exacte du préjudice. Les algorithmes d’apprentissage ont un raisonnement si obscur (phénomène de la boîte noire) que même les concepteurs n’arrivent pas à justifier le raisonnement de l’algorithme ayant conduit au résultat dommageable.

Si l’on ne parvient pas à déterminer la cause exacte du préjudice, personne ne peut être tenu pour responsable et le lésé se retrouve par conséquent sans indemnisation. Il s’agit là d’un problème de causalité.

Attribuer une personnalité juridique à l’IA permettrait ainsi de simplifier la recherche d’un responsable et d’assurer une indemnisation adéquate aux lésés, puisque l’IA serait considérée comme une personne pleinement responsable de ses actes, tenue de réparer les préjudices qu’elle aurait pu causer. Se pose alors la question du patrimoine de l’IA. Celui-ci serait nécessairement alimenté par des personnes physiques, à savoir le producteur, le propriétaire et/ou l’utilisateur.

A mes yeux, si l’on ne favorise pas la transparence des algorithmes utilisés, l’octroi de la personnalité juridique à l’IA peut s’avérer utile, afin d’assurer une indemnisation adéquate aux potentielles victimes et donc de satisfaire la fonction réparatrice du droit de la responsabilité civile. Finalement, l’idée de cette personnalité électronique est d’éviter que les victimes ne se retrouvent sans indemnisation, juste parce qu’elles n’arrivent pas à prouver qui est responsable.

Toutefois, l’octroi de la personnalité juridique à l’IA ne me paraît pas opportune pour l’instant et d’autres solutions sont envisageables, parmi lesquelles un système d’assurance obligatoire. En tout état de cause, il faut obliger les concepteurs à instaurer un système permettant de retracer le raisonnement de l’algorithme afin d’imputer le résultat dommageable à une personne physique.


Quel processus suit la production de loi ?

L’avant-projet de la loi en question fait d’abord l’objet d’une consultation par la commission compétente du Parlement ou le Conseil fédéral. Après la consultation, le projet de loi est élaboré. Si le Conseil des Etats et le Conseil national se mettent d’accord sur le texte de la loi, celle-ci est adoptée sans que le peuple se prononce. Si des citoyens ne sont pas d’accord avec le projet de loi ou si huit cantons le demandent, ils peuvent lancer un référendum. Si le référendum n’aboutit pas, la loi entre en vigueur. A l’inverse, si le référendum aboutit, le texte doit être soumis à la votation populaire.

Posts récents

Voir tout

Comments


Logo Header.png

Formulaire d'abonnement

bottom of page