Intel·ligència artificial amb consciència: el repte europeu per innovar sense perdre valors

La intel·ligència artificial (IA) ha deixat de ser una promesa llunyana per convertir-se en un pilar fonamental de la transformació tecnològica i econòmica. En aquest context, la Unió Europea vol construir el seu propi model d’intel·ligència artificial, que combini competitivitat, responsabilitat, innovació i respecte pels drets fonamentals. Aquest ha estat el centre del debat durant la darrera trobada sobre IA impulsada per les associacions d’enginyeria dels 4 Motors for Europe, que inclou Enginyers Industrials de Catalunya.

L’aprovació de l’AI Act, la primera gran legislació sobre intel·ligència artificial al món, marca un punt d’inflexió. Aquest reglament busca establir un marc comú per garantir la seguretat, la transparència i la confiança en l’ús de la IA, sense paralitzar la innovació.

Segons la científica francesa Virginie Mathivet, fundadora d’Hemelopse i reconeguda Woman in Tech 2022, aquesta regulació és una eina essencial per consolidar una intel·ligència artificial de qualitat. Considera que fer les coses bé des del principi és fonamental i adverteix que desplegar sistemes a gran escala sense assegurar-ne la fiabilitat i l’ètica pot fer molt difícil corregir-los posteriorment. La regulació permet definir allò que Europa no vol veure i establir límits que estimulin una innovació més responsable.

També defensa que les restriccions no frenen el progrés, sinó que el canalitzen, ja que la creativitat sovint neix de la limitació. Mathivet afirma que els enginyers i les empreses que treballen sota criteris ètics acaben produint solucions més robustes i útils per a la societat. Per això, recomana a les empreses adoptar una actitud proactiva davant la regulació, mantenint documentats els models, les dades i els processos des d’ara, en lloc d’esperar al 2027, quan el reglament serà plenament exigible.

Per a la professora Raffaella Folgieri, enginyera i doctora de la Universitat de Milà, l’èxit de la IA europea dependrà de com s’integri l’ètica dins del procés d’enginyeria. Durant la sessió, ha assegurat que els enginyers actuals “som com funàmbuls: hem de mantenir l’equilibri entre el progrés tecnològic i la responsabilitat humana”. Folgieri defensa que la regulació no s'ha d'entendre com una simple llista de verificació, sinó com un principi de disseny, i que el compliment ha de començar des del primer moment.

A més, ha insistit que la tecnologia i l’ètica no poden caminar separades, ja que les decisions tècniques tenen implicacions socials, culturals i legals. Per aquest motiu, ha defensat una formació interdisciplinària que permeti formar enginyers capaços de traduir conceptes com la privadesa, la justícia o la sostenibilitat en criteris tècnics mesurables i auditables. També ha posat l’accent en la dimensió educativa i cultural de la IA, afirmant que la societat ha d’entendre com funciona la tecnologia per poder-ne jutjar els límits i els riscos. Segons la investigadora, “l’ètica no és només una assignatura filosòfica, sinó part de la pràctica diària dels enginyers”.

D’altra banda, el fundador de PAL Robotics, Francesco Ferro, observa la IA des de la seva aplicació més tangible: els robots que interactuen amb persones. Considera que la clau de l’èxit europeu en la robòtica de serveis serà la capacitat de generar confiança social i demostrar la seva utilitat real. Durant la jornada Ferro ha exposat que a Europa “avancem més lentament que a la Xina o als Estats Units, però ho fem amb més cura i amb sentit de responsabilitat”. Creu que el repte és mantenir-se enfocat als objectius i demostrar que la robòtica pot resoldre problemes reals.

En aquest sentit, ha assenyalat que la transició cap a robots cada cop més autònoms ha de ser progressiva i ha recordat que “no podem passar del zero al robot humà complet”. Considera necessari un període d’estabilització per millorar la fiabilitat i la seguretat de les solucions existents, especialment en sectors sensibles com la salut. També ha subratllat la importància de desenvolupar sistemes de supervisió transparents i explicables, capaços de mostrar en tot moment què fa la màquina i per què, ja que “només amb aquesta transparència aconseguirem que la gent se senti còmoda amb la tecnologia”.

Finalment, el doctor Julius Pfrommer, cap del departament de Cognitive Industrial Systems de l’institut Fraunhofer IOSB, planteja que la qüestió no és només si la IA pot innovar, sinó com pot integrar-se de manera segura en sectors ja fortament regulats com la mobilitat, l’energia o la salut. Considera que “l’època de les presentacions i els somnis ja ha passat” i que ara cal demostrar que la IA pot funcionar dins dels marcs de seguretat existents. Per això, assenyala que les empreses necessiten orientació i experts que les ajudin a certificar les seves solucions.

Pfrommer recorda que els sistemes d’IA són complexos i sovint difícils de validar amb garanties matemàtiques. Segons l’expert, la supervisió humana continua sent essencial, ja que l’operador aporta coneixement, creativitat i capacitat de context. A parer seu, “la IA pot millorar els processos, però no pot substituir el judici humà”.

Més enllà de les diferències tècniques o legals, tots els experts coincideixen en una mateixa idea: Europa pot liderar la intel·ligència artificial si aposta per un model propi, basat en la confiança, la transparència i la humanitat.

El contingut d'aquest camp es manté privat i no es mostrarà públicament.
CAPTCHA
This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.