Un regard lucide sur le mythe de l’IA : une voiture automatisée blesse un piéton – qui est responsable ?

Depuis quelques années, les véhicules automatisés et les promesses qui en découlent suscitent de nombreux débats dans les milieux spécialisés. Aussi les autorités nationales et internationales s’efforcent-elles de trouver des solutions pour que l’utilisation en toute sécurité de tels véhicules dans le trafic routier soit non seulement possible, mais aussi garantie.

Leur travail n’attire guère l’attention, probablement parce qu’il est considéré comme trop peu intéressant pour le grand public par les médias[1], qui préfèrent mettre l’accent sur la dimension spéculative de la conduite automatisée.

Les véhicules automatisés font régulièrement l’objet de théories futuristes qui y voient le signe annonciateur d’une substitution progressive de l’être humain par la machine. Cela tient au fait que ces véhicules prétendument « autonomes » qui recourent à l’intelligence « artificielle »[2] intègrent une combinaison hautement sophistiquée de composants matériels et logiciels qui laissent à penser que la conductrice ou le conducteur est inutile. Ce point de vue est principalement étayé par deux facteurs :

  • d’une part, les départements marketing des constructeurs automobiles donnent volontiers l’impression dans leurs déclarations publiques que la percée à grande échelle des véhicules « autonomes » est imminente.
    Mais ils oublient souvent de préciser que ces véhicules ont encore besoin d’une conductrice ou d’un conducteur à bord ou d’une surveillance en ligne par une personne externe. Par ailleurs, la conduite automatisée de ces véhicules n’est possible et autorisée que temporairement et dans des conditions de circulation relativement restrictives (jusqu’à 60 km/h sur autoroute p. ex.). On est encore loin du véhicule véritablement « autonome » capable d’évoluer entièrement seul, quelles que soient les conditions de circulation ;
  • d’autre part, les milieux publics portés sur les technologies et les sciences naturelles emploient souvent un vocabulaire qui laisse à penser que la combinaison des dimensions matérielle (machines, robots) et logicielle (IA) génère un « ensemble intelligent »,voire carrément un « être intelligent » doté de propriétés et capacités humaines, voire surhumaines.
    Ce langage quelque peu naïf prête à ces systèmes une capacité de jugement et de décision, des sentiments et des ressentis (à l’instar de la faim), voire de la rationalité, du bon sens et de la conscience[3].
    Mais il ne faudrait pas oublier qu’il s’agit de notions empruntées aux sciences humaines et peu adaptées à l’inerte ; au lieu d’informer et d’apporter de la clarté, elles ont plutôt tendance à irriter l’opinion publique.

Les promesses beaucoup trop optimistes des campagnes de marketing quant aux capacités techniques des véhicules automatisés ainsi que les analogies bancales entre l’être humain et la machine contribuent à l’image souvent déformée et peu réaliste distillée par les médias en matière de conduite automatisée.
L’opinion publique manque dès lors d’informations sur les véritables capacités techniques des véhicules « autonomes » et sur la législation en la matière. Au lieu de cela, les médias préfèrent spéculer sur de possibles scénarios d’accident et leurs conséquences. D’un point de vue éthique, une voiture « autonome » qui ne parviendrait pas à s’immobiliser à temps devant un passage pour piétons devrait-elle plutôt renverser un enfant ou une personne à la retraite ? Tel est le genre de questions qui occupent traditionnellement les débats.

Que faut-il penser de telles contributions médiatiques et dans quelle mesure participent-elles à une meilleure compréhension par la société des avantages et des inconvénients de la conduite automatisée ? Pour répondre à cette question, il convient de se pencher sur les constatations et remarques ci-après.

  1. Le dilemme éthique qui se présente lorsqu’il est question de déterminer si une voiture « autonome » devrait plutôt renverser un enfant ou une personne âgée sur un passage pour piétons ne saurait déboucher sur un gain de connaissances concret qui améliorerait la compréhension de la conduite automatisée par la société. Au contraire, un tel dilemme génère de l’insécurité et alimente les peurs diffuses :
    A) cette situation de dilemme repose sur une hypothèse erronée. En effet, celle-ci sous-tend qu’au moment où la personne au volant / le véhicule « autonome » doit choisir qui renverser, la réaction future des deux personnes en danger est déjà connue.
    Le comportement des personnes n’est pas déterminé à l’avance, étant donné qu’elles ont toutes deux la possibilité de s’arrêter ou de s’écarter instinctivement pour éviter in extremis la collision.
    Autrement dit, quiconque pense devoir programmer des critères de décision à titre préventif pour permettre la mise en balance d’intérêts en prévision d’accidents potentiels prend le risque de provoquer des accidents qui, sans son intervention, ne se seraient peut-être pas produits. C’est le cas lorsque les piéton·ne·s en situation de danger peuvent encore sauter sur le côté et qu’une voiture non programmée au préalable pour évaluer les intérêts aurait pu passer par cet endroit sans provoquer d’accident ;
    B) le dilemme est de nature spéculative ou hypothétique et n’a aucune importance pratique dans la circulation réelle. La littérature et la jurisprudence ne font état d’aucun cas où une conductrice ou un conducteur aurait dû choisir, en son âme et conscience, entre écraser un enfant ou une personne âgée et répondre de son choix. Il est dès lors difficile de comprendre pourquoi cela devrait à présent poser problème dans le cas de véhicules automatisés ;
    C) concernant le dilemme soulevé, l’éthique ne saurait apporter d’elle-même une quelconque réponse, étant donné qu’il lui est interdit d’évaluer, catégoriser et prioriser des vies humaines. De plus, des questions philosophiques insolubles ne permettent pas de résoudre des problèmes de circulation concrets.
  2. L’admission des véhicules à moteur à la circulation et la responsabilité en cas d’accidents de la circulation sont le fruit de recoupements complexes de règles de droit nationales, européennes et internationales opérés pendant de nombreuses années.
    Des normes techniques et juridiques sont donc déterminantes en vue d’une utilisation sûre des véhicules à moteur. Des considérations éthiques qui décernent les « bons » et les « mauvais » points ne sont pas des éléments pertinents en matière de sécurité. En effet, il est demandé à la personne qui se trouve derrière le volant d’adopter une conduite conforme à la législation et non d’avoir un comportement correct sur les plans philosophique et éthique. Les critères éthiques s’avèrent par conséquent inutiles, car ils ne sont pas suffisamment contraignants pour obliger des automobilistes à s’acquitter de dommages-intérêts, d’une amende ou d’une peine de prison. En d’autres termes, les automobilistes ne doivent pas être de « bonnes personnes », mais des conductrices et conducteurs qui respectent les lois.
  3. Contrairement à une opinion largement répandue dont l’origine est incertaine, les accidents qui impliquent des véhicules automatisés ne débouchent pas sur des problèmes de responsabilité fondamentalement nouveaux.
    En pratique, les victimes d’accidents n’ont généralement aucun intérêt concret à réclamer des dommages-intérêts à l’automobiliste. En effet, elles peuvent faire valoir les dommages subis auprès de l’assurance responsabilité civile de la ou du propriétaire du véhicule, le comportement de la personne au volant lui étant directement imputable. En cas d’accident, le fait que la conductrice ou le conducteur conduisait véritablement le véhicule ou que le véhicule se conduisait tout seul ne joue donc pratiquement aucun rôle pour la personne lésée.
    Dans les deux cas, c’est l’assurance responsabilité civile qui décidera de se retourner contre le constructeur du véhicule pour récupérer les dommages-intérêts versés pour indemniser la victime dans le cas où l’accident est imputable, en totalité ou en partie, à un dysfonctionnement du véhicule (automatisé). Si le recours intenté par l’assurance responsabilité civile à l’encontre du constructeur automobile aboutit, celui-ci pourra, à son tour, se retourner contre d’éventuels fournisseurs d’un composant défectueux.
  4. Au final, pour ce qui est des poursuites pénales consécutives à un accident provoqué par un véhicule automatisé qui se conduit de lui-même temporairement, l’élément déterminant sera de savoir si, compte tenu des circonstances concrètes, la conductrice ou le conducteur présent·e dans la voiture ou la personne en charge de la surveillance externe avait raisonnablement la possibilité d’éviter l’accident provoqué par son véhicule automatisé.
    Les véhicules sans conductrice ou conducteur capables d’évoluer de manière entièrement automatisée dans le trafic sans aucune surveillance humaine ne sont pas pour tout de suite. Si de tels véhicules devaient un jour être autorisés à circuler sur nos routes, cela entraînera des décès consécutifs à des accidents sans qu’aucune condamnation ne puisse être prononcée à l’encontre de l’automobiliste ou de la personne en charge de la surveillance.

Mais cette réalité n’a rien de nouveau. À titre d’exemple, cela fait longtemps que notre société accepte bon gré mal gré qu’en cas d’accident d’avion, un pilote suicidaire qui entraîne ses passagers dans la mort ne soit pas poursuivi en justice.
Dans de très rares situations, des décès par accident non assortis de sanctions pénales sont inévitables. Toute technologie recèle certains risques et c’est également le cas pour la conduite automatisée. En ayant, par idéalisme, des exigences et attentes trop élevées concernant les véhicules automatisés, on risque de manquer le train de la conduite automatisée.

 


[1]     Au regard des accidents de la circulation relatés presque quotidiennement par les médias, l’hypothèse selon laquelle le grand public ne s’intéresse pas à la sécurité des véhicules à moteur est pour le moins contestable.

[2]     Le bien-fondé de cette notion n’est pas analysé plus avant ici.

[3]     Selon les circonstances, les qualités humaines de ces systèmes prétendument « intelligents » ne sont considérées que comme « émulées » ou « simulées ».

Référence à la législation sur la responsabilité en ma-tière de véhicules automobiles, art. 58 LCR

 

1 Si, par suite de l’emploi d’un véhicule automobile, une personne est tuée ou blessée ou qu’un dommage matériel est causé, le détenteur est civilement responsable.

2 Lorsqu’un accident de la circulation est causé par un véhicule automobile qui n’est pas à l’emploi, la responsabilité civile du détenteur est engagée si le lésé prouve que ce dernier ou des personnes dont il est responsable ont commis une faute ou qu’une défectuosité du véhicule a contribué à l’accident.

3 Le détenteur est également responsable, dans la mesure fixée par le juge, des dommages consécutifs à l’assistance prêtée lors d’un accident où son véhicule automobile est impliqué, si l’accident lui est imputable ou si l’assistance a été prêtée à lui-même ou aux passagers de son véhicule.

4 Le détenteur répond de la faute du conducteur et des auxiliaires au service du véhicule comme de sa propre faute.

Les articles de blog de cette série proposent un regard interdisciplinaire sur le développement actuel de l'IA dans une perspective technique et de sciences humaines. Ils sont le fruit d'un échange et d'une collaboration récurrents avec Thomas Probst, professeur émérite de droit et de technologie (UNIFR), ainsi que membre de la SATW Roger Abächerli, chargé de cours en technique médicale (HSLU). Avec ces contributions mensuelles, nous nous efforçons d'analyser de manière objective et neutre les questions essentielles qui se posent en rapport avec l'utilisation de systèmes d'IA dans différents domaines d'application. Notre objectif est d'expliquer certains aspects du thème de l'IA de manière compréhensible et professionnellement fondée, sans pour autant entrer dans des détails trop techniques.