Sobre robots, intel·ligència i humanitat

 

Què entenem per robots

      En dir "robots", pensem immediatament en màquines complexes que són capaces de desenvolupar activitats autònomament. Són creacions bastant antigues; hi ha relats d’inventors (com Leonardo da Vinci) que van meravellar audiències amb màquines que imitaven el comportament dels humans. Però aquests complexos mecanismes són clarament distingibles d’una persona, perquè la seva capacitat d’acció està determinada des de la seva construcció. Tota la mecanització que va acompanyar la revolució industrial es va construir a base de màquines autònomes que van desenvolupar activitats il·limitades i definides.

      Una idea diferent de l’anterior és la que es va generar el segle XX. Es va crear tot un imaginari que concebia màquines que podien aprendre, i que tenien la capacitat d’anar modificant les seves activitats en funció d’allò que anaven experimentant. Es va fer famosa la història de "Deep Blue", un software creat per la IBM, que es va enfrontar a l’aleshores campió mundial d’escacs Gary Kasparov, i el va derrotar, el 1997.

      Avui assistim a línies divergents de desenvolupament del que podem considerar robots. La primera és un perfeccionament de l’enfocament tradicional; per exemple, s’han desenvolupat autòmats que poden servir de companyia a persones grans: supervisen que prenguin regularment les medicines, i si es presenta algun comportament alterat o tenen algun accident, alerten de forma immediata i remota els serveis d’emergència. Aquests autòmats han arribat fins i tot a desenvolupar expressions facials que mostren sentiments, com alegria, atenció, estima, etc. En aquesta mena de robots té molta importància el seu disseny físic, el que en l’argot es coneix com a hardware.

      Actualment aquests dispositius robòtics es popularitzen. Un exemple són les màquines robòtiques d’excavació minera, manipulades des de consoles de control remot, que s’endinsen en zones perilloses de mines subterrànies per alliberar els treballadors humans de quedar exposats a enderrocaments o altres accidents; aquests equips s’estan usant a la Mina El Teniente de Codelco-Xile, en zones on s’han produït explosions de roca. Un altre exemple són certes menes de braços robòtics, fins i tot equipats amb dispositius molt petits en el seu extrem (micro o nano dispositius), que poden dur a terme intervencions quirúrgiques manipulades a distància per cirurgians des d’una consola de control; així un pacient pot ser operat per un metge que es troba a gran distància, manipulant un robot.

      Avançar des d’això anterior a màquines que siguin completament autònomes, que no requereixin d’intervenció humana, és possible. La Divisió Gabriela Mistral de Codelco-Xile, compta amb camions que reben la càrrega en el jaciment, es desplacen cap a la planta i lliuren la càrrega a la trituradora primària, controlats només per un software molt sofisticat i un conjunt de sensors que li permeten prendre decisions sobre les accions que s’executen. Les empreses Tesla i Google s’han capficat en desenvolupar un automòbil que sigui completament autònom i no requereixi d’un conductor per moure’s per les carreteres existents. De prototips d’aquests automòbils robòtics ja n’existeixen i estan operatius, situació que ha generat un debat important sobre el marc normatiu per quan aquests vehicles puguin esdevenir massius.

      La segona mena de robot és més aviat un programa informàtic, allotjat en una màquina que pot tenir entitat mecànica o no. L’arquetip d’aquesta mena de robot és el programa de l’ordinador HAL de la pel·lícula 2001 Odissea a l’Espai, del realitzador Stanley Kubrick, de 1968. Aquesta mena de sistema autòmat avui rep el nom d’"Intel·ligència Artificial" i posa l’accent exclusivament en les instruccions de programació que s’elaboren per a la seva creació, el que en l’argot s’anomena software.

      La Intel·ligència Artificial, imita, reprodueix, o no té relació amb un comportament humà?

      Les situacions que apareixen com a més sorprenents i pertorbadores provenen del que certs softwares d’intel·ligència artificial poder fer. Per ser precisos, quan es fa servir el traductor de Google (s’anomena Google Translator) no es fa servir un enorme arxiu on cada paraula en cada idioma té el seu equivalent en tots els altres idiomes del catàleg, sinó que es convoca un algoritme estadístic que permet assignar a cada paraula una equivalència en altres idiomes en base a l’accepció més emprada; per descomptat que els resultats no són perfectes, però el resultat millora contínuament en la mesura que el traductor es fa servir cada vegada més. Quan es fa servir el conegut programa Waze d’orientació en carretera, s’aconsegueix una ruta per arribar al lloc que es desitja des d’una ubicació que el mateix software detecta, amb una combinació de mapes originals, recorreguts nous i actualització constant amb dades aportades pels usuaris. Ambdós programes poder estar carregats en el teu telèfon mòbil, en el teu ordinador, en altres dispositius amb connexió a la xarxa d’internet; és a dir, no estan en una màquina, sinó en el que s’ha anomenat "el núvol" amb la qual et pots comunicar. El software s’ha convertit en el focus de la màquina autònoma que ja té poc de màquina.

       A la guerra d’Iraq es van desenvolupar i validar aquesta mena de softwares, amb un objectiu militar. Es va generar una sèrie d’algoritmes que revisaven els correus electrònics, les trucades telefòniques i altres formes de comunicació accessible i es van identificar patrons de comunicació de persones "potencialment perilloses", patrons que indicaven, per exemple, la possibilitat que la persona s’involucrés en la planificació o execució d’atemptats terroristes. En base a aquests patrons, es monitorejava a persones i, en més d’una ocasió, a milers de quilòmetres es decidia dirigir un atac contra una reunió on participaven persones "marcades", sense que les persones objecte d’atac haguessin efectivament desenvolupat una activitat de caràcter militar o terrorista. Un resultat d’aquests atacs "preventius" va ser una gran quantitat de bombardejos a casaments, festes i altres activitats socials, donant com a resultat la mort d’un nombre fins ara no conegut de civils absolutament innocents. Un destacat rol en el desenvolupament d’aquests softwares d’intel·ligència artificial l’han tingut els científics socials que han desenvolupat els criteris sobre els quals s’identifica les persones potencialment perilloses. 

      Aquesta mena de software d’intel·ligència artificial ha proliferat. L’any 2018 es va fer famosa l’empresa britànica Cambridge Analitycs, que amb dades venudes per Facebook, va aconseguir realitzar un perfil d’elector que podria donar suport a en Donald Trump en les eleccions presidencials dels EUA i va assessorar el candidat que, contradient molts pronòstics, va resultar triomfant en les eleccions del 2016. La metodologia emprada està centrada en un software que permet interpretar grans quantitats d’informació dispersa –l’anomenat Big Data– per obtenir conclusions sobre determinades controvèrsies, i orientar les accions de la campanya per optimitzar la consecució de suport. Hi ha molta especulació sobre una acció similar en l’elecció presidencial de Brasil en què va resultar triomfant Jair Bolsonaro.

      El Papa Francesc ha advertit sobre els riscos potencials de l’ús indiscriminat de la intel·ligència artificial. El 2019, en una audiència amb els integrants de l’Acadèmia Pontifícia per a la Vida, va indicar el greu risc de la tecnificació de la vida generat per la presència cada vegada més recorrent dels dispositius mecànics que desenvolupen tasques i aprenen de manera autònoma i no tenen els criteris humans per orientar com s’ha d’exercir. En diverses activitats ha insistit en aquest enfocament que implica que la vida humana comença a ser configurada amb criteris i formes d’autòmats, en comptes de configurar l’acció dels autòmats per a benefici de la vida humana. 

      A la revista Nature de l’11 de març de 2017 apareix la història d’un soldat atacat per una nanoarma de l’enemic, que es dissol com pols en el vent i s’allotja en el cervell del soldat. Aquesta pols manipula els seus records i altera la percepció d’ell mateix, duent-lo a reaccions de bogeria que ningú aconsegueix entendre, perquè està lluitant contra quelcom d’ell mateix. Ningú entén que té l’enemic dintre seu.

      Aquestes dues potencialitats, la de ser molt útil per tal que els humans tinguem millor vida, i la de ser molt útil per manipular els humans, estan plantejades. És la versió moderna de l’arbre del bé i del mal, que hem de reconèixer i abordar.