top of page
Rechercher
Photo du rédacteurAmbassadeur

L’IA en question: interview d'Anaïs Avila par Xavier Comtesse

Dernière mise à jour : 3 mars 2021

Aujourd’hui je reçois Anaïs Avila, jeune chercheuse, assistante-doctorante à la Faculté de Droit de l’Université de Genève et membre du Think Tank CODE_IA, pour un interview sur la responsabilité civile face aux agissements dommageables de l’IA.


La responsabilité civile d’une IA… c’est quoi ?


La responsabilité civile d’une IA fait référence à la responsabilité propre de l’IA, c’est-à-dire que l’IA serait personnellement, directement et pleinement responsable de ses actes. La responsabilité civile d’une IA n’existe pas (encore) à ce jour, puisqu’il faudrait que l’IA soit dotée d’une personnalité juridique. En effet, seules les personnes au bénéfice d’une personnalité juridique, à savoir les personnes physiques et morales, peuvent être appelées à répondre des effets de la responsabilité civile.


L’opportunité de la création d’une personnalité juridique d’un « troisième type » a déjà fait couler beaucoup d’encre. En effet, compte tenu de l’autonomie décisionnelle et de la capacité d’apprentissage des systèmes d’IA, certains auteurs, dont Alain Bensoussan notamment, prônent la création d’une personnalité électronique. L’idée est d’attribuer aux systèmes d’IA un statut juridique, comme on l’avait finalement fait à l’époque de la première révolution industrielle pour les personnes morales.


Selon les partisans de la création d’une personnalité juridique d’un « troisième type », attribuer un statut juridique aux systèmes d’IA permettrait de simplifier la recherche d’un responsable, puisqu’ils seraient considérés comme des personnes pleinement responsables de leurs actes. On passerait ainsi « d’une responsabilité du fait de l’IA à une responsabilité de l’IA ». A l’image de la personne morale, l’idée serait d’enregistrer les systèmes d’IA dans un registre public et de les doter d’un capital, grâce auquel ils pourraient indemniser les victimes auxquelles ils auraient pu causer des préjudices et assumer ainsi les conséquences de leurs actes.


Qui va prendre en charge le préjudice ?


En cas de préjudice causé par une IA, la recherche d’une personne responsable est indispensable, sans quoi la victime se retrouverait sans indemnisation, puisque l’IA est, du moins pour l’heure, dépourvue de personnalité juridique. Parmi les potentiels responsables, on compte notamment le concepteur de l’IA elle-même, le programmeur, le producteur du produit fini si l’IA est intégrée dans une structure physique (comme un robot ou un véhicule), l’utilisateur et/ou le propriétaire de l’IA.


En ce qui concerne le producteur du produit fini, le concepteur de l’IA et le programmeur, leur responsabilité risque d’être engagée si le préjudice est dû à une défectuosité du produit fini, à un défaut de l’IA elle-même ou à une erreur de programmation. La responsabilité de l’utilisateur et/ou du propriétaire pourrait, quant à elle, être engagée en cas d’utilisation non conforme ou encore en raison d’un apport de données biaisées. En d’autres termes, un préjudice causé par une IA peut résulter d’un défaut du système d’IA, auquel cas la responsabilité de tous les acteurs intervenus dans le processus de fabrication pourrait être engagée, mais il peut aussi provenir d’un apport de données ultérieur ou encore d’une mauvaise manipulation imputable à l’utilisateur et/ou au propriétaire.


Toutefois, l’opacité des algorithmes rend complexe la recherche de la cause du préjudice. En d’autres termes, le manque de transparence et la complexité des algorithmes utilisés ne permettent pas de remonter l’enchaînement des causalités et donc de déterminer la cause exacte du préjudice. En effet, les algorithmes d’apprentissage ont un raisonnement si obscur (phénomène de la boîte noire) que le processus ayant conduit au résultat est incompréhensible et ne peut pas faire l’objet d’une explication transparente. Même les concepteurs n’arrivent pas à justifier le raisonnement de l’algorithme ayant conduit au résultat dommageable.


Or, si l’on ne parvient pas à déterminer la cause exacte du préjudice, personne ne peut être tenu pour responsable et le lésé se retrouve par conséquent sans indemnisation. Il s’agit là d’un problème de causalité.


Pour contourner cette difficulté et éviter ainsi que la victime ne se retrouve sans indemnisation, plusieurs mécanismes d’indemnisation sont envisageables, parmi lesquels l’institution d’un système assurantiel et/ou la mise en place d’une responsabilité en cascade.


L’institution d’un système d’assurance obligatoire permettrait d’indemniser rapidement les victimes. Pour les véhicules autonomes, il va de soi qu’un tel système sera obligatoire, comme c’est le cas aujourd’hui pour les véhicules « classiques ». L’idée serait d’étendre ce système d’assurance à tous les utilisateurs et producteurs de systèmes d’IA, en les obligeant à souscrire une assurance et à payer des primes dont le montant varierait en fonction du degré de risque lié au système d’IA en question. De cette façon, une sorte de fonds de garantie pourrait être créé. Les charges et les risques seraient ainsi répartis de manière équitable entre tous les acteurs qui contribuent à la potentielle réalisation des risques liés à l’IA. Ce fonds servirait à indemniser les victimes à chaque fois que la responsabilité de l’utilisateur ou du producteur ne pourrait être établie avec certitude.


La responsabilité en cascade est un mécanisme qui consiste à établir une hiérarchie des responsabilités, en faisant peser la responsabilité sur un acteur en priorité. On pourrait imaginer un tel régime selon l’ordre suivant : le fonds de garantie pourrait être sollicité en premier lieu, puis seulement en cas d’insuffisance du fonds, la responsabilité de l’utilisateur, du propriétaire et enfin du producteur pourrait être recherchée.


Il convient néanmoins de relever que le mécanisme de la responsabilité en cascade est généralement utilisé lorsque la cause du dommage est connue, mais qu’il est impossible d’identifier le responsable. C’est la raison pour laquelle on recherche ensuite le deuxième acteur désigné, puis si celui-ci n’est toujours pas identifiable le troisième, et ainsi de suite. Or, en matière d’IA, c’est tout l’inverse : il est généralement possible d’identifier les personnes potentiellement impliquées, mais leur implication respective dans la survenance du dommage n’est pas déterminable, puisque la cause de celui-ci est inconnue. Appliqué à l’IA, un tel système ne serait dès lors pas très équitable, dans la mesure où l’acteur désigné prioritairement supporterait systématiquement le poids de la réparation.

Créer un régime spécial de responsabilité « pour risque », comme c’est le cas à l’heure actuelle pour les véhicules ou les centrales nucléaires par exemple, constituerait un autre mécanisme d’indemnisation efficace. Depuis le début du 20èmesiècle, les lois spéciales instituant des responsabilités pour risque, couplées avec un système d’assurance obligatoire, n’ont cessé de se multiplier pour tenir compte de la prolifération des risques dans notre société nouvelle (chemins de fer, installations électriques, véhicules automobiles, centrales nucléaires, etc.). Le fondement de ces responsabilités réside dans le risque caractérisé découlant d’une activité ou d’une installation et la seule réalisation du risque envisagé suffit à engager la responsabilité de celui qui exploite l’activité ou l’installation en question, indépendamment de toute faute de sa part. Ainsi, par exemple, le simple fait de commettre un accident de la circulation engage la responsabilité du détenteur du véhicule, quand bien même le conducteur se serait fait piquer par une abeille au volant et n’aurait donc commis aucune faute.


Tout comme les chemins de fer ou les centrales nucléaires, l’IA génère des dangers particuliers et inévitables, malgré toute la diligence dont pourraient faire preuve ceux qui la conçoivent ou l’utilisent. Ainsi, imposer un régime de responsabilité « stricte » à tous les acteurs qui contribuent à l’émergence du risque d’accident, à savoir tant les producteurs que les utilisateurs, permettrait d’assurer une indemnisation adéquate aux lésés, sans que ceux-ci ne doivent prouver une quelconque faute de la part de ces acteurs.


L’idée serait ensuite de procéder à un juste partage des responsabilités entre ces acteurs en fonction de leur implication respective dans la survenance du dommage. Pour connaître le degré d’implication de chaque acteur dans la survenance du dommage, il est indispensable de favoriser la transparence et l’explicabilité des algorithmes utilisés. Pour remédier à l’opacité des algorithmes, certains envisagent l’intégration d’une sorte de « boîte noire » dans les systèmes d’IA, permettant non seulement de retracer le processus ayant conduit au résultat dommageable, mais aussi de connaître l’origine des données d’apprentissage, et ce afin de pouvoir imputer ce résultat à un responsable.


Pour aller encore plus loin et pour respecter au mieux le juste partage des responsabilités, cette exigence de traçabilité devrait être assortie d’une sorte d’auditabilité des systèmes d’IA. Cette idée, proposée notamment par Cédric Villani dans son rapport de mars 2018 pour une stratégie nationale et européenne concernant l’IA, consisterait à désigner des experts qui auraient pour tâche de procéder à des audits d’algorithmes et de rédiger des rapports, permettant de connaître l’implication de chacun dans la survenance du dommage.




Posts récents

Voir tout

Comments


Logo Header.png

Formulaire d'abonnement

bottom of page