SEGRE

Jordi Ascensi: "Si nadie dejaría que una máquina le operara de forma automatizada, no dejemos que nuestra salud mental se automatice a través de un ChatGPT"

Jordi Ascensi, ingeniero en telecomunicaciones, miembro del Bureau del Comitè de Inteligencia Artificial del Consejo de Europa, que legisla sobre el uso de la IA en Europa, y del grupo de ética de la inteligencia artificial de la UNESCO.

Jordi Ascensi, ingeniero en telecomunicaciones, miembro del Bureau del Comitè de Inteligencia Artificial del Consejo de Europa

Jordi Ascensi, ingeniero en telecomunicaciones, miembro del Bureau del Comitè de Inteligencia Artificial del Consejo de EuropaALEX LOPEZ

Creado:

Actualizado:

El 45% de los jóvenes españoles utilizan ChatGPT como psicólogo, según indican estudios que se pusieron ayer sobre la mesa en el congreso profesional intergrupal Reptes de la intel·ligència artificial: entre emocions i algoritmes, organizado por la delegación territorial de Lleida del Col·legi Oficial de Psicologia de Catalunya.

“No se puede dejar en manos de una máquina algo tan importante como la salud mental”. Así lo destacó Jordi Ascensi, ingeniero en Telecomunicaciones, miembro del Bureau del Comité de Inteligencia Artificial del Consejo Europeo y del grupo de ética de la IA de la Unesco.

Ha dado la conferencia inaugural. ¿Cómo estamos?

He intentado desmitificar la IA. Sobre qué es la inteligencia artificial, qué es lo que hace y qué es lo que no hace y de qué manera está construida, pensando sobre todo en el colectivo de personas que se dedican a la psicología o a las terapias mentales, por ejemplo. 

Hay un hype, sobre la IA?

Si, de que la inteligencia artificial hará muchas. Quiero ponerlo en contexto. Principalmente con todo aquello que tiene que ver con los riesgos y con los impactos que hay. Muchos de estos impactos son positivos, de hecho, para el caso de la profesión de la psicología, estas herramientas pueden servir para los despachos profesionales, para poder mejorar su eficiencia, su operatividad, para acompañar, incluso, a las personas que están haciendo terapia. Acompañar, que no sustituir.

Y los sesgos que hay detrás

Estos sistemas utilizan datos y los datos a veces están sesgados. Tienen diferentes componentes, han sido recopilados de una manera muy específica, muy concreta, y no explican toda nuestra realidad. Y más cuando hablamos de profesiones como es el caso de la psicología, que es muy humana. Un humano no se limita solo a los datos que tenemos digitalizados. 

Ahora se habla mucho de que, sobre todo los jóvenes, se diagnostican con IA. ¿Eso es un riesgo?

Eso es un riesgo muy elevado. De hecho, hay una estadística que salió la semana pasada que dice que el 45% de los jóvenes españoles utilizan ChatGPT, un sistema de inteligencia artificial, para poder hablar de problemas mentales, de situaciones que tienen. Estas herramientas no están pensadas para eso. Y la información que te da está muy sesgada. 

¿Por qué? 

Porque la herramienta está programada para servirte. Quiero decir que siempre te da la razón. Siempre intentará hacerte sentir cómodo, pero desde una cierta perspectiva. Nunca intentará contrastar. Y no hay esta responsabilidad o profesionalidad de una persona que se dedique al mundo de la psicología. Es un modelo de lenguaje que utiliza la estadística y la probabilidad de una forma muy esotérica, pero no está orientada a dar apoyo psicológico. 

Entonces eso es un gran problema. 

Es un problema que ya tenemos que pensar como sociedad. Si nuestros jóvenes utilizan estas herramientas y no van a un profesional. Esto nos tiene que hacer reflexionar. 

¿Puede que sea por la espera?

Exacto. O incluso, el tema de la inmediatez de la herramienta, el hecho de que los jóvenes utilizan más las pantallas que otros colectivos. Incluso también el mismo aislamiento, pero también, incluso la manera en que la herramienta se posiciona desde una perspectiva de que yo te puedo ayudar. Porque lo dice de una forma sutil, y como si fuera una persona, cuando en realidad es una máquina. Te dice entiendo cómo te sientes. Y no. Es una máquina, no puede entender cómo te sientes. Es un lenguaje engañoso y las empresas que programan los sistemas de inteligencia artificial saben que utilizan este lenguaje engañoso. 

¿El otro reto sería la legislación, porque no está nada clara?

Sí, de hecho hay diferentes marcos reguladores. La Unión Europea, que es muy garante con los derechos de las personas, tiene una ley que comenzó su aplicación este agosto, pero tampoco está claro cómo es el reglamento que ejecuta esta ley, que la pone en práctica, y la regulación siempre va muy a remolque de todas las innovaciones tecnológicas. Las empresas que se dedican a dar servicios tecnológicos de este tipo lo saben y, por lo tanto, intentan eludirla como pueden y como quieren. Y sí, es un problema. 

¿Qué pediría a los legisladores? 

Se les debe pedir que actúen rápido y que actúen de forma muy consciente para que esta legislación, estas leyes que están bien pensadas, sean prácticas y puedan ser aplicadas en el mundo real. Lo que se debe pedir al legislador es que entienda qué es lo que necesita la sociedad para aplicar esta ley y la activen de forma rápida y que no se dejen llevar por lobbies.

La ley siempre llega más tarde

Pero eso no quiere decir que no deba haberla. Hay una narrativa que dice que la regulación mata la innovación. No es verdad. En el mundo de la farmacia hay una regulación brutal. Y hacemos productos. Han hecho una vacuna del Covid en pocos meses. Vaya, eso es increíble.

Y además cuando afecta la salud, ¿no?

Totalmente. Más en el caso de salud mental. Nadie dejaría que una máquina operara de forma automatizada, pues tampoco dejemos que nuestra salud mental se automatice a través de un modelo de lenguaje, de un ChatGPT o de lo que sea.

Es importante tener claro que es una herramienta, pero que no debe sustituir a la persona.

Totalmente. La herramienta, estos sistemas pueden ayudar a los terapeutas a ser más eficientes, a hacer más, a operacionalizar de una forma mejor o a poder incluso llegar más lejos, tomando notas, haciendo resúmenes de pautas que ya tengan hechas, incluso complementando la función terapéutica, pero nunca pueden ser sustitutos de la función de un profesional que se dedique a la psicología.

Titulars del dia

* camp requerit
Subscriu-te a la newsletter de SEGRE
tracking