Amnistia Internacional lluita per evitar els Terminator abans que neixin
L'entitat reclama a la Convenció d'Armament de l'ONU que es reuneix avui a Ginebra una prohibició preventiva dels "robots assassins"
Barcelona"El desenvolupament de la intel·ligència artificial completa pot significar la fi de l'espècie humana" avisava el físic Stephen Hawking fa uns mesos fent saltar l'alarma sobre els perills de donar la capacitat de pensar a les màquines. Ara Amnistia Internacional ha passat a l'acció reclamant una prohibició preventiva dels "robots assassins" a la reunió de la Convenció d'Armament de les Nacions Unides que es fa avui a Ginebra, tal com recordava ahir l'Institut de Recerca per al Desarmament de l'ONU.
L'entitat ha posat en marxa una campanya per aturar els robots assassins i pretén que s'obri una negociació per prohibir la creació de possibles màquines amb funcions semblants a la de la pel·lícula 'Terminator', encara que tinguin un aspecte molt diferent. A més, recrimina que des que es va començar a parlar d'aquest problema l'abril de fa dos anys només s'han fet dues reunions informals d'experts en el marc de la Convenció de Ginebra. "És ridícul que s'hagi dedicat tan poc temps a un perill tan greu", avisa.
Amnistia Internacional resumeix la seva postura en deu punts:
- Els robots assassins no seran cosa de la ciència ficció gaire temps més
- Incomptables governs els utilitzaran de manera oberta per a la repressió
- No compliran les lleis de drets humans ni els estàndards polítics internacionals
- No compliran les normes de la guerra
- Serà molt difícil fer responsable algú d'allò que facin
- El desenvolupament dels robots assassins posarà en marxa una altra cursa armamentística
- Permetre que les màquines matin o usin la força és un assalt a la dignitat humana
- Si s'arriben a desplegar, serà gairebé impossible aturar-los
- Milers d'experts en robòtica han demanat que es prohibeixin els robots assassins
- Se n'ha parlat molt però s'han fet poques accions en dos anys
"Els robots assassins són sistemes d'armament que, una vegada activats, poden triar, atacar i ferir objectius humans sense que els controli cap persona", explica Amnistia Internacional. També se'ls coneix com a Sistemes d'Armament Completament Autònoms i no tenen perquè tenir la forma del temut Terminator, però aviat podrien ser iguals o encara més letals. A l'agost Dakota del Nord ja es va convertir en el primer estat dels EUA que ha legalitzat l'ús remot de drons per incapacitar gent amb descàrregues elèctriques. El proper pas seria que puguin decidir ells mateixos el blanc.
El mes d'agost, a Buenos Aires, més de 2.500 investigadors d’intel·ligència artificial i robòticavan publicar una carta oberta contra el desenvolupament de robots militars autònoms. El físic Stephen Hawking i el cofundador d’Apple Steve Wozniak van ser alguns dels signants del text que es va presentar a la Conferència Internacional d’Intel·ligència Artificial. "La tecnologia de la intel·ligència artificial ha arribat a un punt en el qual el desplegament d’aquest tipus d’armes serà una possibilitat tècnica d’aquí uns anys, no unes dècades. Ens hi juguem molt", van escriure. El fundador de Microsoft, Bill Gates, també s'ha mostrat preocupat pel futur de la intel·ligència artificial.
Amnistia Internacional alerta que, si els policies i els soldats se senten més segurs, els governs poden entrar més fàcilment en conflictes armats o ser més permissius en l'ús de la força. A més, tot i que els robots no tindrien afany de venjança, tampoc sentirien les emocions humanes ni serien capaços de salvar vides desobeint ordres. L'entitat recorda, per exemple, que durant les protestes del 2011 a Egipte l'exèrcit va rebutjar disparar als manifestants.
L'organització també assegura que els robots no poden analitzar les intencions darrere de les accions de la gent, ni prendre decisions complexes sobre la proporcionalitat o la necessitat d'un atac, ni tindrien compassió o empatia cap als civils. Això podria vulnerar els drets humans i les normes de la guerra, que reclamen la distinció entre combatents i civils, per als quals cal prendre mesures de protecció. A més, si un robot fes una acció injusta, qui en seria el culpable? El que l'ha fabricat, programat, el que li ha donat ordre, els polítics... segons Amnistia Internacional seria difícil trobar el responsable de les accions que pogués cometre.
L'entitat, a més, recorda que la Xina, Israel, Rússia, el Regne Unit i els EUA ja investiguen sistemes d'armament autònoms i això sense comptar les empreses privades. Això ja indica la cursa armamentística que podria començar si no es frena abans. A més, una vegada es comencin a fer servir, serà "increïblement difícil o gairebé impossible" regular-ne l'ús, tal com ja passa amb els drons. Amnistia Internacional recorda les investigacions de 'The Intercept' segons les quals, en una mostra de cinc mesos, el 90% dels morts per drons nord-americans eren objectius no desitjats.