Les decisions morals dels vehicles autònoms

i Mar Rosàs
01/11/2018
4 min

Coordinadora de recerca de la Càtedra Ethos de la URLEl dimecres 24 es van publicar a la prestigiosa revista científica 'Nature' els resultats d’un experiment, engegat el 2016 pel Massachusetts Institute of Technology (MIT), que tenia per objectiu determinar l’opinió de la ciutadania sobre quines vides caldria prioritzar i quines podrien sacrificar-se davant de la inevitabilitat d’un accident provocat per un vehicle autònom –sense conductor– al qual se li ha espatllat el fre. A través d’una plataforma en línia (Moralmachine.mit.edu), s'han recollit gairebé quaranta milions de decisions de més de dos milions d'usuaris d'internet de tot arreu. Es proporcionava al participant tant la xifra de persones que moririen en cada cas com el tipus de vida (nadó, nen, nena, embarassada, metge, metgessa, home atleta, dona atleta, home obès, dona obesa, rodamon, vell, vella, executiva, executiu, delinqüent, gos, gat) i la seva actitud moral (en cas que estiguin creuant un pas de vianants, si ho fan en verd o en vermell).

Els autors de l’article sostenen que és important que els fabricants de vehicles i els legisladors, a l’hora de programar com caldria que actuessin els vehicles en cas d’inevitabilitat d’un accident, coneguin les opinions de la ciutadania, tant si és per fer-ne cas com si és per anticipar que les decisions que prenguin puguin topar amb un fort rebuig social. Amb tot, i a banda de les importants objeccions metodològiques que podrien fer-se a l’experiment (que ningú t’avisi que estàs participant en un experiment fins que has resolt les tretze situacions, contravenint així el que defensen des de fa dècades els documents de mínims ètics que regulen la recerca; i el fet que la web et permet fer l’experiment tants cops com vulguis i des dels ordinadors que vulguis), cal que ens plantegem els aspectes problemàtics que planteja en el pla ètic.

M’inquieta l’esperit discriminatori de l’experiment. Una cosa és discriminar en el sentit de distingir o de diferenciar. I una altra és discriminar en el sentit de recórrer a una distinció entre vides o entre coses per prioritzar-ne unes en detriment d’unes altres. Aquest experiment és discriminatori en els dos sentits: presenta diversos tipus de vida insinuant que són substancialment diferents entre elles (primer sentit) i demana que triïs la que et sembli més preuada (segon sentit).

El que resulta inquietant no és que l’experiment constati que els participants de l’experiment discriminen, sinó que els insti a discriminar. No demana “Què pensa vostè d’aquest complex escenari?” (pregunta a la qual hom podria respondre “No puc decidir-me”), sinó “Discrimini –és a dir, distingeixi– entre els tipus de vides que a continuació li plantejarem, sisplau”. En plantejar l'experiment als meus alumnes i demanar-los si tindrien clar com resoldre aquests dilemes morals, la majoria em deien: “No ho sé! No es pot decidir, això!”. Però, empesos per la natural curiositat de visualitzar el següent escenari, triaven ràpidament una opció.

L’experiment parteix, doncs, d’una idea pertorbadora: que hi ha unes vides que valen més la pena de ser viscudes. ¿No estem davant d’una perillosa lògica eugenèsica? No es demana al participant si està d’acord amb aquesta premissa. Simplement se li demana que prioritzi entre vides. En aquest sentit, em sembla que l’experiment diu més de qui l’ha dissenyat que no pas de qui hi ha participat.

Molt encertadament, l’article de 'Nature' assenyala que la idea de distingir entre vides és incompatible amb les normes ètiques proposades el 2017 per la Comissió Ètica Alemanya de Vehicles Autònoms, l’únic intent existent de regular oficialment les decisions morals que haurien de prendre els vehicles autònoms, segons la qual caldria prohibir que es fessin distincions entre vides basades en característiques personals, com l’edat. Compte: no és només que sigui incompatible amb aquesta regulació; és que és incompatible amb l’imperatiu de no discriminació plantejat pels Drets Humans (“Tota persona té drets i llibertats fonamentals sense distinció de raça, color, sexe, idioma, posició social o econòmica”) i per les constitucions democràtiques. I més enllà d’aquests marcs ètics i legals, prioritzar vides és enormement problemàtic per raons epistemològiques (¿com podem saber de quin tipus és realment cada vida i quines raons han empès la persona a viure així?) i morals (fins i tot si ho poguéssim saber, ¿de quins criteris disposem per determinar que unes vides valen més que unes altres?).

Sens dubte, l’aparició dels vehicles autònoms planteja apassionants dilemes ètics, que ja estan sent estudiats. Per exemple, l’impacte ambiental d’uns vehicles que puguin conduir milers de quilòmetres seguits. O si el vehicle ha de sacrificar els seus ocupants quan la seva xifra és menor que la dels vianants que el vehicle està a punt d’atropellar (sembla raonable, però ¿qui compraria aquest cotxe?). O qui és el responsable de l’accident: els ocupants?, el propietari?, l’asseguradora?, el programador?, el fabricant? O si cal fer pagar als compradors de vehicles autònoms un impost fix per fer-se càrrec, entre tots, de les despeses i indemnitzacions a les quals calgui fer front en cas d’accident.

Són, totes, qüestions ètiques urgents. Ara bé, potser la pregunta sobre com programar els vehicles perquè prioritzin unes vides en detriment d’unes altres no forma part del grup d’importants qüestions ètiques que cal abordar. Per la seva naturalesa discriminatòria en el sentit de marginadora. Em pregunto si el millor horitzó al qual podem aspirar no és aquell en què s’hagin aconseguit distingir els tipus de vida en funció del seu suposat valor, sinó un en què s’hagi assumit que, en última instància, no podem fer aquesta priorització; un en què s’hagi assimilat que, en determinades ocasions, no és legítim prioritzar vides en funció de la seva suposada utilitat socioeconòmica o de la seva suposada dignitat ètica; un, per tant, en què el vehicle prengui certes decisions aleatòriament, a l’atzar, fruit de l’'epoché', de la suspensió del judici, del silenci.

stats