« La conduite autonome aboutit à une dilution de la responsabilité »

Pour Raja Chatila, pionnier de la robotique en France, la programmation des véhicules autonomes doit s’en tenir à quelques règles simples, au lieu de chercher à répondre à tous les cas de figures possibles.

En Allemagne, une commission d’éthique vient de rendre au gouvernement un rapport sur les règles à appliquer aux voitures autonomes. La réaction de Raja Chatila, directeur de l’Institut des systèmes intelligents et de robotique (Isir), unité de recherche commune au CNRS et à l’Université Pierre-et-Marie Curie.

Y a-t-il un consensus sur les règles éthiques qui devront s’appliquer aux véhicules autonomes ?

Non, il n’y a pas de consensus. Cela ne vaut pas dire qu’il n’y a pas de points de convergence entre les experts, simplement que les discussions en cours ne sont pas suffisamment matures. Mais parvenir à un consensus est absolument nécessaire, et pour cela toutes les parties prenantes doivent être impliquées dans le débat : les constructeurs, les chercheurs, mais aussi les futurs passagers – le public, donc -, les autorités de régulation, les Etats. Il faut réussir à mûrir une réflexion collective.

La réflexion n’est pas mûre, mais pourtant les expérimentations de voitures autonomes se multiplient…

Oui, mais elles se font aujourd’hui dans un cadre particulier, le plus souvent dans un environnement protégé. Il y a aussi un fort recours à la simulation pour tester et améliorer les systèmes. C’est une étape, et une étape utile pour ne pas partir trop rapidement sur de mauvaises bases. D’où l’importance de faire intervenir dans ces expériences des équipes pluridisciplinaires, avec des informaticiens, des philosophes, des éthiciens…

Que pensez-vous de la démarche des experts allemands, qui ont sélectionné une vingtaine de règles éthiques pour les véhicules autonomes ?

Je crois que c’est la bonne voie. Il faut s’en tenir à des principes simples plutôt que chercher à programmer explicitement chaque cas de figure possible, car cela entraîne des responsabilités énormes. On peut plutôt explorer des principes issus de la philosophie éthique et morale, comme de toujours protéger le plus faible – ce qui veut dire, si le véhicule doit percuter soit une voiture soit un piéton, ne pas choisir le piéton. Il faut aussi prendre en compte l’incertitude et l’imprécision des données qui sont utilisées pour prendre la décision, par exemple dans le cas d’un manque de visibilité. Le problème se pose également dans le cas de la conduite humaine, mais une fois que les règles figurent dans le code, l’auteur de la décision sera l’algorithme. Qui sera alors responsable en cas d’accident ? La conduite autonome aboutit à une dilution de la responsabilité entre la personne qui écrit le code, l’équipementier, le constructeur, le propriétaire, ou même l’opérateur de service dans le cas d’une flotte de voitures à la demande…

Il y a une sorte de « course aux armements » des constructeurs sur le sujet, mais il faut savoir raison garder.

Dans ce contexte, qui devrait réguler ?

Les constructeurs et les équipementiers auront un rôle à jouer, tout comme les assureurs : déterminer qui est responsable permet de savoir qui indemnise en cas d’accident. Mais, au final, la régulation sera du ressort des Etats et des organisations internationales. En sachant qu’il pourra y avoir des différences selon les pays (sur la valeur de certains animaux par rapport à d’autres, par exemple), mais qu’il faut des principes de base partagées par tous – c’est déjà le cas aujourd’hui avec la protection des piétons et des cyclistes, qui existe dans tous les pays.

Vu les progrès de la technologie et les horizons annoncés (certains constructeurs parlent de 2020…), a-t-on encore le temps de débattre ?

D’abord, le temps, on se le donne. Certes, il y a une sorte de « course aux armements » des constructeurs sur le sujet, mais il faut savoir raison garder et se donner le temps d’arriver à de bonnes réponses, sans pour autant freiner l’innovation. Ensuite, je trouve que le débat se met en place rapidement et peut assez vite devenir mature. Je pense que cela prendra plutôt un ou deux ans que quatre ou cinq, donc je ne vois pas de différence d’échelle de temps entre le débat et l’innovation. Les constructeurs ont envie d’avancer, c’est sûr, mais personne n’envisage de commercialiser un véhicule qui protégerait uniquement son conducteur…

Le nombre d’instances réfléchissant à l’éthique de l’intelligence artificielle ne cesse de se multiplier. Est-ce qu’il n’y en a pas trop désormais ?

Le problème n’est pas le nombre, mais le fait que certaines instances ne sont pas vraiment fondées. En même temps cette profusion n’est pas anormale, car le débat commence et chacun pense avoir quelque chose à dire. Cela va sans doute se calmer.

Les Echos 31/08/2017