Responsabilité et intelligence artificielle : non une rupture du droit, mais une épreuve de rigueur
I — Une difficulté d’imputation des responsabilités, non une absence de droit
L’émergence de
l’intelligence artificielle ne bouleverse pas le droit de la responsabilité.
Elle met en difficulté notre manière habituelle de l’appliquer.
L’argument est
désormais classique : l’IA, puisqu’elle est capable de produire des effets
juridiques, même sans intervention humaine préalable, et parce qu’étant
inconsistente du point de vue matériel, bouleverserait nos certitudes sur les
principes de la responsabilité selon lesquels il ne peut y avoir de faute sans
responsable, alors même que son inconsistance matérielle semblerait lui
permettre d’échapper à toute imputation.
Il ne faut pas aller
jusque-là pour que les critiques fusent. Tel fut d’ailleurs le cas lors des
modifications des mœurs auxquelles nos codes se sont avérés inadaptés, faisant
paniquer nombre de magistrats et juristes pour qui le code précède l’évolution
des mœurs et non l’inverse : il y a un code qui régit notre vie, nos actes, et
nous devons le respecter sans nous en écarter.
Lors des modifications
apportées aux conditions propres au mariage, combien de fois n’ai-je pas
entendu, de la part de magistrats pourtant bien établis : « Et que devient le
Code civil ? »
Une telle analyse
repose toutefois sur un présupposé discutable : celui selon lequel le droit ne
saurait appréhender que des situations dans lesquelles l’auteur de l’acte ou le
titulaire de la responsabilité, une fois identifiés, doivent réparation. Admettre
qu’une IA puisse accomplir des actes sans en supporter directement la
responsabilité dérange, car cela va à l’encontre de toutes nos certitudes.
Or, de longue date, le
droit a admis que la responsabilité puisse être engagée indépendamment de toute
action personnelle directe. Qu’il s’agisse de la responsabilité du fait
d’autrui ou de celle du fait des choses, le mécanisme juridique ne repose pas exclusivement
sur l’identification d’un auteur, mais sur l’existence d’un lien direct ou
indirect, mais pertinent, entre une situation de propriété, de pouvoir, de
contrôle ou d’organisation, et les effets qui en résultent.
Dans cette
perspective, l’intelligence artificielle ne crée aucun vide juridique. Elle
révèle seulement les limites de nos réflexes d’imputation.
En effet, les systèmes
d’intelligence artificielle se caractérisent par une fragmentation des
interventions humaines. Leur conception, leur entraînement, leur déploiement et
leur utilisation, souvent partagée, impliquent une pluralité d’acteurs, dont
aucun ne peut être immédiatement et avec toute la certitude requise identifié
comme l’auteur exclusif des effets produits. À cette pluralité s’ajoute une
forme d’autonomie fonctionnelle, qui complexifie encore la lecture causale des
événements, surtout lorsque l’événement est le produit de plusieurs causes
cumulées.
Cependant, cette
complexité ne doit pas être confondue avec une impossibilité juridique. Elle
traduit une diffusion des points d’attache de la responsabilité, non leur
disparition.
Le problème n’est donc
pas que la responsabilité s’évanouisse, mais qu’elle cesse de se laisser
assigner de manière évidente à un centre unique. Là où le droit cherchait
traditionnellement un point d’imputation identifiable, il se trouve confronté à
des configurations dans lesquelles ce point doit être reconstruit.
Ainsi comprise, la
difficulté posée par l’intelligence artificielle n’est pas celle d’un défaut de
normes, mais celle d’une mise en tension des mécanismes d’imputation existants.
Elle appelle non pas la création de catégories entièrement nouvelles, mais un
effort de clarification et de réorganisation des critères permettant d’intégrer
les effets d’un système inédit aux structures humaines traditionnelles qui en
ont jusque-là assuré la maîtrise.
En d’autres termes, l’intelligence artificielle ne fait pas disparaître la responsabilité, mais en rend plus exigeante la localisation de son origine.
II —
La tentation d’un nouveau régime : une réponse excessive et irréfléchie
Face aux difficultés
d’imputation mises en évidence par l’intelligence artificielle, une tentation
s’est progressivement imposée dans le débat contemporain : celle de considérer
que ces systèmes appellent l’élaboration de catégories juridiques entièrement
nouvelles, oubliant par ailleurs les structures existantes de la société, déjà
fondées sur une accumulation de responsabilités successives.
Cette tendance se
manifeste sous des formes diverses. Elle conduit tantôt à envisager la
reconnaissance d’une personnalité juridique propre aux systèmes d’intelligence
artificielle, tantôt à proposer des régimes autonomes de responsabilité
spécifiquement dédiés à ces technologies.
Une telle approche
repose sur une erreur d’analyse.
Elle procède d’une
assimilation rapide entre nouveauté technologique et nécessité d’innovation
juridique radicale. Or, l’histoire du droit montre que les transformations
techniques, même profondes, n’ont que rarement conduit à la création ex nihilo
de systèmes juridiques entièrement distincts. Elles ont, le plus souvent, donné
lieu à des processus d’adaptation, d’extension et de requalification des
concepts existants.
L’hypothèse d’une
personnalité juridique de l’intelligence artificielle en fournit une
illustration significative. Mais une telle solution ne résout rien. Elle
déplace artificiellement la difficulté en attribuant à la machine ce qui relève
en réalité des structures humaines qui la conçoivent et l’exploitent.
De même, la création
de régimes de responsabilité autonomes présente le risque de fragmenter
l’ordonnancement juridique. En multipliant les dispositifs spécifiques, le
droit s’expose à une perte de cohérence, alors même que la question posée par
l’intelligence artificielle exige au contraire une lecture unifiée des
mécanismes d’imputation.
Il ne s’agit pas de
nier la singularité des systèmes d’intelligence artificielle. Leur capacité à
produire des effets complexes, parfois imprévisibles, impose indéniablement une
vigilance accrue. Mais cette singularité ne saurait, à elle seule, justifier
l’abandon des principes structurants du droit de la responsabilité.
La véritable
difficulté ne réside pas dans l’absence de catégories adaptées, mais dans leur
mise en œuvre dans des configurations nouvelles.
Dès lors, la question n’est pas d’inventer un nouveau droit, mais de savoir si nous sommes encore capables d’appliquer rigoureusement celui qui existe.
III
— Réorganiser la responsabilité : une exigence, non une révolution
Si l’intelligence
artificielle ne révèle ni un vide juridique, ni la nécessité d’une rupture
normative, elle impose néanmoins une exigence : celle de réorganiser les
modalités d’imputation de la responsabilité au sein des cadres existants.
Cette réorganisation
suppose, en premier lieu, de déplacer le centre de gravité de l’analyse. Là où
la responsabilité a longtemps été pensée à partir de l’identification d’un
auteur direct, les systèmes d’intelligence artificielle invitent à privilégier une
approche fondée sur les structures de contrôle, d’organisation et de maîtrise.
Dans ce contexte, la
question centrale n’est plus : « qui a agi ? », mais « qui doit en répondre, et
à quel titre ? »
L’enjeu n’est pas de
désigner artificiellement un responsable unique, mais de reconstruire une
architecture cohérente de responsabilité conforme à la réalité des processus
techniques.
Ainsi comprise, la
responsabilité ne disparaît pas sous l’effet de l’intelligence artificielle.
Elle change de forme. Elle devient moins une question d’attribution immédiate
qu’une question d’organisation juridique de la maîtrise.
IV —
La théorie de la responsabilité vue d’un côté pratique
Il en résulte que la
responsabilité première repose sur le concepteur, en raison du pouvoir de
conception, d’orientation et de maîtrise qu’il exerce sur le système.
La justice s’attachera
dès lors à examiner les conditions dans lesquelles l’IA a été conçue, entraînée
et encadrée, ainsi que l’intention poursuivie lors de sa création.
Le concepteur ne peut
se désintéresser du système qu’il a créé : son pouvoir initial emporte une
obligation continue de surveillance et de maîtrise.
L’utilisateur engage
également sa responsabilité, non en raison de la conception du système, mais
des conditions dans lesquelles il en fait usage.
Le juge devra examiner
les conditions dans lesquelles cette IA a été utilisée et si les actes commis
trouvent leur origine dans un usage délibéré ou fautif.
Le droit dispose déjà
des outils nécessaires pour intégrer l’apparition de cette intelligence sans
corps, à condition d’en faire un usage rigoureux.
CONCLUSIONS
En
définitive, l’intelligence artificielle ne met pas le droit en échec.
Elle met en échec une certaine manière de penser le droit, trop attachée à des
schémas simples là où la réalité ne l’est plus.
Ce que l’IA bouleverse, ce ne sont pas nos règles,
mais notre confort intellectuel.
Elle nous
prive de la facilité qui consistait à rattacher immédiatement un acte à un
auteur identifiable, et nous oblige à revenir à ce qui a toujours été au cœur
du droit de la responsabilité : la recherche de l’origine réelle des
situations, au sein des structures humaines qui les rendent possibles.
Car il n’y a pas d’intelligence sans organisation.
Et il n’y a pas d’organisation sans responsabilité.
Dès lors, la question n’est pas de savoir si le droit
doit changer, ni s’il faudrait inventer des catégories nouvelles pour suivre la
technique.
Elle est plus exigeante : sommes-nous encore capables
de rechercher, avec rigueur, où se situe l’origine de ce qui advient ?
L’intelligence artificielle ne fait pas disparaître la
responsabilité.
Elle rend impossible de ne pas la penser correctement.
FIN
Patrick Houyoux LL.M.
Fondateur et président de PT SYDECO, il conçoit des architectures
d’intelligence artificielle et de cybersécurité souveraine. Ses travaux portent
sur les transformations philosophiques induites par la technique contemporaine.
Commentaires
Enregistrer un commentaire