AI, AI, AI…!!!

Si algú escriu una història que no ha existit mai se li diu novel·la, però si aquest algú és un robot dotat d’Intel·ligència Artificial (AI per les seves sigles en anglès) es diu fakenews. Igualment si algú manipula una foto que mostra la detenció de Donald Trump se’n diu acudit, però si es tracta del pobre robot amb AI aleshores torna ser un fakenews.

Perquè tanta mania amb el robot amb AI, si a més a més tots sabem que el robot no té consciència ni intencionalitat en fer el que fa? Un robot amb generative AI només és un lloro estocàstic que genera respostes a les preguntes que se li fan, amb frases coherents a partir d’altres textos amb els que ha estat entrenat, o que combina dibuixos hàbilment amb les instruccions que se li ha demanat.

He sentit que un escriptor ha presentat al ChatGPT, un d’aquests robots de generative AI, uns paràgrafs d’un article seu publicat en un diari català i li ha demanat qui n’era l’autor i on ho havia publicat. S’ha enfadat molt perquè l’ha confós amb un altre escriptor, ja mort, i li ha dit, també, que estava publicat en un diari de Madrid. Hem d’entendre que, a vegades, les respostes son errònies perquè el pobre robot està aprenent, i no perquè tracta denganyar-nos.

Un tertulià opina, i la premsa amplifica perquè ara tothom en sap del tema, que els robots poden fer la feina de moltes persones i que si no es prenen mesures ràpidament l’atur serà imparable al món occidental. Sempre passa quan hi ha canvis tecnològics importants com la màquina de vapor o les eines de digitalització d’oficines, uns llocs desapareixen i d’altres apareixen en un altre sector.

Es diu també que els robots estan descontrolats i que és impossible la traçabilitat del seu comportament, com si tot escriptor, pintor o músic pogués detallar d’on li ve la inspiració o com ha creat una determinada obra.

Elon Musk ha jugat com a aprenent de bruixot en ser un dels inversors fundadors d’OpenAI, l’empresa creadora del ChatGPT que recentment ha sorprès tant amb les seves respostes a preguntes formulades pel públic en general. Ara ha signat, amb altres, una carta oberta titulada Pause Giant AI Experiments en la que es demana paralitzar la investigació sobre la tecnologia AI com mínim sis mesos, per donar temps a dotar a aquesta indústria emergent amb les regulacions necessàries per a que no causi danys a la societat. Segurament se n’ha adonat del perill que té aquesta tecnologia en la creació de bots descontrolats a Twitter, la seva nova flamant adquisició.

Tot plegat no sembla una mica racista? Si ho fa algú com nosaltres és tolerable però si és diferent aleshores fa por, genera desconfiança i, conseqüentment, s’ha de regular no sigui el cas que es rebel·li i acabi amb la nostra civilització. Segurament si alguna cosa s’ha de regular primer és el nostre comportament amb els robots.

Pot ser que hi hagi una concepció colonial respecte a les màquines intel·ligents, perquè són diferents a nosaltres però naturalment inferiors ja que nosaltres som els realment intel·ligents, i per a això se les vol situar en situació d’esclavitud. Les màquines han estat sempre al nostre servei (rentaplats, ordinadors, cotxes, …), encara que a vegades estan al servei només d’alguns en contra dels altres (armes, malware,…). Però ara, o més bé d’aquí a uns quants anys, tindrem l’oportunitat de disposar de màquines que podran ajudar-nos com a companys, no com a esclaus, que seran capaces de donar consells, alertar de problemes o proposar solucions, conduir vehicles, compartir idees innovadores, etc.

Ara bé, per arribar aquí s’ha de ser molt curós en el desenvolupament d’aquestes màquines, de fer programes d’AI. Las decisions que prenen les persones intel·ligents es basen en la informació rebuda i els programes d’AI també, i aquí rau realment la causa que ha provocat la carta oberta abans mencionada.

Si el programa AI ha estat entrenat amb una determinada informació, o millora les seves capacitats amb un determinat col·lectiu que interacciona amb ell, fàcilment pot tenir una informació esbiaixada o unes connexions entre coneixements també amb biaix. Si per exemple la informació que té un robot és d’un fons de la literatura universal, el més probable és que tingui un biaix masclista i si, a més, ha estat entrenat per un col·lectiu de persones blanques del món occidental també pot tenir un biaix respecte a les organitzacions socials, les religions o el pensament de la resta del món.

La informació mai no és neutra. En aquest sentit té molta raó la carta oberta sobre aquest tema. Però com es pot regular això? Es pot fer en sis mesos?

Estem a les beceroles d’aquesta tecnologia i, a més a més, els desenvolupadors competeixen de forma ferotge per dominar l’incipient però prometedor mercat. Aquest mercat se centra ara especialment en els navegadors a on les avantatges dels generadors de text amb AI, que poden optimitzar el contingut pels motors de cerca per donar respostes a les demandes dels usuaris, pot ser revolucionari. L’aplicació del nou Bing de Microsoft pot ser un bon exemple. Però les presses han portat a obrir algunes d’aquestes aplicacions al públic en general, per completar el seu entrenament, com ho ha fet el ChatGPT, sense les suficients garanties de privacitat de dades ni filtres adequats per a la protecció dels menors, sent part de la causa de l’alerta donada.

Però, per altra banda, si volem utilitzar aquests sistemes com a experts per donar consells o per ajudar en la resolució de problemes, la informació que se'ls ha de donar ha de ser molt especialitzada i el seu entrenament ha de ser fet amb experts del tema en qüestió: medicina, art, nano-enginyeria o el que sigui. Aquest sistemes, robots o com els vulguem dir, haurien de tenir un determinat protocol en el seu desenvolupament que garanteixi no tan sols la seva idoneïtat en la matèria sinó la qualitat del producte, com es fa amb la indústria farmacèutica, per exemple, acompanyat per la seva certificació per un organisme de prestigi nacional o internacional. Això no es podrà fer en sis mesos però sí es podria acordar el camí adient per aconseguir-ho. Aquí les presses tampoc són bones companyes de viatge.

Parar la innovació durant sis mesos no sembla realitzable, però sí que ho és demanar a les empreses incumbents, que no són gaires, tota l’ajuda per crear i acordar, conjuntament amb les administracions públiques, el marc conceptual per desenvolupar aquesta nova indústria.

No m’imagino a ningú dient a Thomas A. Edison: “Faci el favor de parar d’inventar coses mentre nosaltres pensem en com regular el seu ús, a fi d’evitar que algú prengui mal mentre les instal·la o les utilitza”. Més bé li podria dir: “Ajudi'ns a crear normatives per instal·lar i utilitzar els seus invents a fi devitar que algú prengui mal“.

Com en totes les tecnologies disruptives, i aquesta ho és com ho va ser en el seu moment l’electricitat, l’impacte social és enorme i, en conseqüència, exigirà d’una adequada regulació de la indústria corresponent, però encara és més important poder aconseguir una àmplia acceptació social d’aquesta tecnologia. És a dir, superar els neguits i ser capaços d’acceptar una nova realitat emergent basada en ginys amb AI, de poder conviure amb ells aprofitant les seves capacitats i, també, d’interaccionar amb ells per donar-los part de la nostra experiència a fi de millorar la seva eficàcia.

En definitiva aquesta tecnologia ha vingut per quedar-se i l’enginyeria la integrarà en moltes de les activitats humanes actuals pel que la societat, i els poders polítics que la governen, hauran de fer el necessari per aprofitar-la i evitar els mals usos que se’n poden derivar. Com sempre ha passat a la història de la humanitat, només que ara s’ha de fer més de pressa.

 

El contingut d'aquest camp es manté privat i no es mostrarà públicament.
CAPTCHA
This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.