Josep Domingo-Ferrer, catedràtic en informàtica: "Les xarxes socials són tan nocives pel cos com el tabac"
Parlem amb el catedràtic sobre el futur de la IA i el cicle de debat Diàlegs en què ha participat aquest dimarts

Josep Domingo-Ferrer.
Josep Domingo-Ferrer (Sabadell, 1965) és un distingit catedràtic d’Enginyeria Informàtica de la Universitat Rovira i Virgili de Tarragona, membre de l’Institut d’Estudis Catalans (IEC) i director del Centre de Recerca en Ciberseguretat de Catalunya (Cybercat). És expert en seguretat i privadesa de la informació i un dels participants en el cicle de debats Diàlegs, que aquest dimarts dia 4 celebra la seva segona sessió, centrada a analitzar els reptes de la intel·ligència artificial (IA). La iniciativa està impulsada pel mateix IEC, la Universitat de Lleida (UdL), el diari SEGRE i l’Orfeó Lleidatà.
Intel·ligència artificial, cal tenir-ne por?
Realment, fins ara no calia tenir-ne por, però amb el debat sobre si s’arribarà a la superintel·ligència comença a ser una mica més incert el paper que pot arribar a tenir la IA; amb la pregunta sobre si pot arribar a substituir-nos, fins i tot quan no vulguem. Fins ara, s’ha comportat com una ajuda i el seu nivell actual és capaç de fer codi informàtic, redactat fins a cert punt... el ChatGPT, per exemple, és molt útil per fer algunes tasques. Certes feines les va alleugerint, i fins i tot potser en algun cas les ha suprimit. Si s’assolís la superintel·ligència tot això aniria molt més enllà i no se sap on podria arribar... d’aquí el títol.
Perdoni, què seria la superintel·ligència?
Parlaríem d’una intel·ligència flexible, polivalent i sobretot superior a la dels humans més espavilats. A hores d’ara, el ChatGPT i altres models fan algunes coses de manera més ràpida o eficaç que nosaltres, però no poden fer tot el que podem fer els humans. El següent pas, probablement, seria acoblar aquestes IA a algun robot per tal que puguin actuar sobre el món real i aprendre del que hi veuen i toquen, però amb això encara no hi hem arribat.
S’hi estaria lluny, però, d’arribar-hi?
Fins fa no gaire hi havia una gran divisió d’opinions sobre si s’hi arribaria o no, i potser eren més els que deien que no. A hores d’ara, les posicions s’han invertit i conec gent especialitzada en l’àmbit que no ho descarta, és a dir, el que abans semblava una quimera ara no ho és tant. De fet, la inversió que estan fent les grans companyies d’internet en IA només es justifica si s’arriba a la superintel·ligència; esperen un nou salt comparable al que es va fer fa tres anys amb la difusió del ChatGPT.
Quin paper juga la IA en el seu camp de treball?
Respecte a la meva feina al Cybercat, el que ens preocupa més és, per una banda, la privadesa de les dades d’entrenament. Penseu que els grans models d’aprenentatge automàtic s’entrenen i aprenen a partir de moltes dades, una gran quantitat de les quals són de caràcter personal, per tant, el que cal assegurar-se és que el model no les vomiti en qualsevol moment perquè seria com filtrar informació confidencial personal. En aquest sentit, el Reglament General de Protecció de Dades de la UE demana que es garanteixi la privadesa de les dades personals.
D’altra banda, cal procurar que els models aconsegueixin entrenar-se sense que hi hagi enemics que els facin aprendre coses errònies. I hi ha una tercera propietat que és la d’equitat, que no tinguin biaixos i no tendeixin a dir coses negatives de certs col·lectius o positives d’altres de manera injustificada. Això és un problema especialment greu perquè molta gent es refia d’aquests models en molts àmbits de la vida. És com si l’escola ensenyes coses errònies als nens, amb fets que tenen molt impacte social i que poden arribar a canviar la visió de certes minories, col·lectius...
Això estaria succeint?
Els models existents, que se sàpiga, tenen bastant controlats els biaixos, que més aviat venen per altres aplicacions de la IA com serien les xarxes socials, on hi ha tendències bastant extremes, molta polarització i algoritmes d’IA que posen continguts que els usuaris volen sentir al seu abast. Si hi ha un col·lectiu racista, per exemple, els algoritmes tendiran a presentar-los més i més continguts que avalin les seves idees, perquè les xarxes el que volen és tenir-te enganxat com més temps millor. Això perpetua biaixos.
Serà un dels punts de debat en la sessió de Diàlegs?
M’agradaria transmetre als assistents les qüestions ètiques que suscita la IA, connectat amb les xarxes i el seu impacte en el jovent. A hores d’ara l’escola ja no és tant la seva font de valors sinó que ho són les xarxes, que els treu la capacitat de concentració. També caldrà reflexionar sobre què hi ha darrere de tot això?... La mecànica de les xarxes ens porta cap a on som: problemes de salut mental, falta de valors mentals...
Què s’hi pot fer?
Les xarxes socials són tan nocives pel cos com el tabac, i hi hauria d’haver un impost sobre aquestes per cobrir les despeses de salut mental que causen. Una altra mesura seria la restricció; estic absolutament d’acord a restringir o prohibir-hi l’accés als menors de 16 o 18 anys. I els països haurien de reaccionar perquè probablement tenen alguna cosa a dir per decidir qui realment ha de transmetre valors als joves.