SEGRE

Josep Domingo-Ferrer, catedrático en informática: "Las redes sociales son tan nocivas para el cuerpo como el tabaco"

Hablamos con el catedrático sobre el futuro de la IA y el ciclo de debate Diálogos en el que ha participado este martes

Josep Domingo-Ferrer.

Josep Domingo-Ferrer.

Publicado por
Lleida

Creado:

Actualizado:

Josep Domingo-Ferrer (Sabadell, 1965) es un distinguido catedrático de Ingeniería Informática de la Universidad Rovira i Virgili de Tarragona, miembro del Instituto de Estudios Catalanes (IEC) y director del Centro de Investigación en Ciberseguridad de Catalunya (Cybercat). Es experto en seguridad y privacidad de la información y uno de los participantes en el ciclo de debates Diálogos, que este martes día 4 celebra su segunda sesión, centrada en analizar los retos de la inteligencia artificial (IA). La iniciativa está impulsada por el mismo IEC, la Universidad de Lleida (UdL), el diario SEGRE y el Orfeón Leridano.

¿Inteligencia artificial, hace falta tener miedo? 

Realmente, hasta ahora no había que tener miedo, pero con el debate sobre si se llegará a la superinteligencia empieza a ser un poco más incierto el papel que puede llegar a tener la IA; con la pregunta sobre si puede llegar a sustituirnos, incluso cuando no queramos. Hasta ahora, se ha comportado como una ayuda y su nivel actual es capaz de hacer código informático, redactado hasta cierto punto... el ChatGPT, por ejemplo, es muy útil para hacer algunas tareas. Ciertos trabajos los va aligerando, e incluso quizás en algún caso los ha suprimido. Si se alcanzara la superinteligencia todo eso iría mucho más allá y no se sabe dónde podría llegar... de aquí el título.

¿Perdone, qué sería la superinteligencia?

Hablaríamos de una inteligencia flexible, polivalente y sobre todo superior a la de los humanos más listillos. A estas alturas, el ChatGPT y otros modelos hacen algunas cosas de manera más rápidas o eficaces que nosotros, pero no pueden hacer todo lo que podemos hacer los humanos. El siguiente paso, probablemente, sería acoplar estas IA a algún robot a fin de que puedan actuar sobre el mundo real y aprender de lo que ven y tocan, pero con eso todavía no hemos llegado.

¿Estaría lejos, sin embargo, de llegar?

Hasta hace no mucho había una gran división de opiniones sobre si se llegaría o no, y quizás eran más los que decían que no. A estas alturas, las posiciones se han invertido y conozco gente especializada en el ámbito que no lo descarta, es decir, lo que antes parecía una quimera ahora no lo es tanto. De hecho, la inversión que están haciendo las grandes compañías de internet en IA sólo se justifica si se llega a la superinteligencia; esperan un nuevo salto comparable a lo que se hizo hace tres años con la difusión del ChatGPT.

¿Qué papel juega la IA en su campo de trabajo?

Con respecto a mi trabajo en el Cybercat, lo que nos preocupa más es, por una parte, la privacidad de los datos de entrenamiento. Pensáis que los grandes modelos de aprendizaje automático se entrenan y aprenden a partir de muchos datos, una gran cantidad de los cuales son de carácter personal, por lo tanto, lo que hay que asegurarse es que el modelo no las vomite en cualquier momento porque sería como filtrar información confidencial personal. En este sentido, el Reglamento General de Protección de Datos de la UE pide que se garantice la privacidad de los datos personales.

Por otra parte, hay que procurar que los modelos consigan entrenarse sin que haya enemigos que les hagan aprender cosas erróneas. Y hay una tercera propiedad que es la de equidad, que no tengan sesgos y no tiendan a decir cosas negativas de ciertos colectivos o positivas de otros de manera injustificada. Eso es un problema especialmente grave porque mucha gente se fía de estos modelos en muchos ámbitos de la vida. Es como si la escuela enseñas cosas erróneas a los niños, con hechos que tienen mucho impacto social y que pueden llegar a cambiar la visión de ciertas minorías, colectivos...

¿Eso estaría sucediendo?

Los modelos existentes, que se sepa, tienen bastante controlados los sesgos, que más bien vienen de otras aplicaciones de la IA como serían las redes sociales, donde hay tendencias bastante extremas, mucha polarización y algoritmos d'IA que ponen contenidos que los usuarios quieren oír a su alcance. Si hay un colectivo racista, por ejemplo, los algoritmos tenderán a presentarlos más y más contenidos que avalen sus ideas, porque las redes lo que quieren es tenerte enganchado cuanto más tiempo mejor. Eso perpetúa sesgos.

¿Será uno de los puntos de debate en la sesión de Diálogos

Me gustaría transmitir a los asistentes las cuestiones éticas que suscita la IA, conectado con las redes y su impacto en la juventud. A estas alturas la escuela ya no es tanto su fuente de valores sino que lo son las redes, que les saca la capacidad de concentración. También hará falta reflexionar sobre qué hay detrás de todo eso?... La mecánica de las redes nos lleva hacia donde estamos: problemas de salud mental, falta de valores mentales...

¿Qué se puede hacer?

Les redes sociales son tan nocivas para el cuerpo como el tabaco, y tendría que haber un impuesto sobre estas para cubrir los gastos de salud mental que causan. Otra medida sería la restricción; estoy absolutamente de acuerdo en restringir o prohibir el acceso a los menores de 16 o 18 años. Y los países tendrían que reaccionar porque probablemente tienen alguna cosa que decir para decidir quién realmente tiene que transmitir valores a los jóvenes.

Titulars del dia

* camp requerit
Subscriu-te a la newsletter de SEGRE
tracking