Ens trobem en una època on tot comença a ser intel·ligent: smartphones, smart TV, cotxes autoconduïts... fins i tot algunes persones! La indústria armamentística no s'ha quedat enrere i fa temps que dedica milions en R+D per trobar noves formes de matar, cada cop més efectives.
Als profans, ens sembla que, després d'aconseguir arsenal nuclear per destruir el planeta diverses vegades, ja no calia seguir investigant més, que ja havien aconseguit el seu objectiu però, per alguna raó que se m'escapa, cada any construeixen noves armes, més sofisticades que les anteriors.
Ara bé, què passaria si les armes fossin realment intel·ligents? És a dir, capaces de decidir per elles mateixes quan és necessari matar i quan no? La resposta simplista seria: no cal que matin mai. Però llavors la utilitat d'aquestes armes seria zero, igual que no tenir-ne. I seguiríem sotmesos a la violència de les actuals.
Armes intel·ligents en una maniobra intel·ligent. Font.
Però imaginem unes armes més poderoses i amb el criteri de matar només quan és necessari. Per exemple, que segueixin les lleis de la robòtica d'Asimov (inclosa la Llei Zero, en la que es basa l'argument de Jo, Robot). Aquestes armes podrien servir per defensar-nos de qui vol atacar-nos amb armes estúpides però no per atacar a qui no ens està agredint?
En una guerra entre dos països que fan servir armament intel·ligent, les armes d'un dels bàndols deixarien de funcionar i només podrien atacar amb armes estúpides. Llavors les armes intel·ligents de l'altre bàndol sí que funcionarien per repel·lir l'atac i guanyar la guerra, amb el mínim de danys personals possible.
És a dir, les armes intel·ligents permetrien que sempre guanyessin els bons. Certament, en molts casos és difícil saber qui són els bons i no tinc clar de quina manera les armes intel·ligents prendrien aquesta decisió. Potser esteu pensant que un criteri seria que es fessin servir només en defensa pròpia, ajudant sempre a qui es defensa d'un atac al seu territori. Però tal vegada caldria considerar també la justícia interna d'un país. Un país on es vulnerin els drets humans podria ser intervingut per una "policia internacional" dotada d'armes intel·ligents, amb un cost humà més baix que les intervencions actuals.
Per últim, crec que l'èxit d'aquestes armes intel·ligents dependria en gran mesura de la fe que la humanitat tingués en elles. Si veus que "els teus" volen fer ús de les armes intel·ligents i no funcionen, et replanteges la fe en "els teus" o en les armes intel·ligents? Com viuríem una situació en la qual una intel·ligència artificial decidís que la nostra forma de viure i pensar no és la correcta?
No sé si mai hi haurà armes inteligents, el que penso que mai hi haurà, és la forma inteligent de fer servir una arma...
ResponEliminaBon vespre, Sergi.
Bé, intel·ligent sí que ho pot ser. Sense armes segurament els homes no seríem a dalt de tot de la piràmide alimentària. Altra cosa és l'ètica que ve associada al poder que dóna una arma.
EliminaBé, a això em referia...
EliminaAbans que ho diguessis després de la imatge, també he pensat en les lleis de la robòtica d'Asimov. Tots els relats que expliquen una generació de robots i màquines que es revolten contra els humans encerten. No ho fan quan els pinten com els malvats, però no li veig cap altra possible sortida a la creixent escalada d'intel·ligència artificial. Tard o d'hora les màquines seran prou intel·ligents per adonar-se que l'espècie humana és alhora un càncer i un virus en el planeta terra i conclouran que l'única solució és exterminar-nos. No per una voluntat estranya de domini del món, sinó com una mesura de protecció. I si són prou intel·ligents, no els caldran ni armes ni violència per fer-ho. El pitjor del cas és que tindran raó. Ens ho tindrem ben merescut.
ResponEliminaNo crec que l'única solució sigui exterminar-nos. Els transhumanisme ens ofereix la possibilitat de canviar. Les màquines potser ens poden ajudar a fer aquesta transició, des de l'estat actual (uns incentius darwinians que ens aboquen a l'abisme) a un estat posthumà (amb un sistema d'incentius basat en una construcció lògica i racional de les necessitats de l'home i del seu entorn).
EliminaUna cosa es el pla de destrucció mútua assegurada, per això ja serveixen les armes nuclears de tota la vida (bé, millor si es bomba d’hidrogen que peta més fort). Però la idea es millorar les armes per fer “operacions quirúrgiques”, es a dir, no fer una guerra entre granes potències sinó “arreglar” aquests països que tenen dictadors no afins a les grans potències, per això cal millorar la precisió de les armes per evitar masses víctimes civils ja que llavors tens la opinió popular en contra. La idea també es evitar baixes pròpies, un dron es més fàcil de substituir que un pare de família.
ResponEliminaEm temo que si arribem a crear una intel•ligència artificial capaç d’operar perfectament respectant la llei zero amb total encert la època de les guerres haurà quedat endarrere. Lo normal es que ens venguin màquines intel•ligents però programades amb parcialitat segons el propietari d’aquestes.
Sí, el punt més conflictiu és aquest: com programar les màquines perquè facin "el bé".
EliminaNo hi ha més fre per a la guerra, amic Sergi, que les armes nuclears, la victòria de Corea sobre Trump ha estat brutal, ja li ha dit el president coreà, un home sense massa trellat, per una altra banda, que amb quatre bombes H el món se n'aniria en orris i les hi té aquestes armes, el cert és que ja només ens quedaria, per a passar i arribar a un conflicte yang o armamentístic que algú estiguera boig i volguera la nostra destrucció, ara, els conflictes yin, també poden acabar amb el món, i espere que els yin-yin, triomfen sobre els yin-yang, que només que portarien destrucció i guerra social i la fi en atiar al yang-yin o al yang-yang.
ResponEliminaVicent
Ben vist, Vicent. La doctrina MAD (Destrucció Mutua Assegurada) garanteix la pau entre 2 potències nuclears sempre i qual actuïn de forma racional.
EliminaEn canvi, si algú mad (boig) es fa amb armes nuclears, quin és el fre per a la destrucció total? No sé si amb els dirigents actuals (aquests dos que assenyales tu, per exemple) podem estar segurs de la seva racionalitat.