SEGRE

Regalar joguines amb IA per Nadal: els experts alerten que "una criatura podria fer cas del que diu"

Ramón Arnó, advocat especialista en l'entorn digital, desaconsella "totalment" que els Reixos portin joguines amb IA incorporada

L'os 'Kumma', que incorpora intel·ligència artificial.

L'os 'Kumma', que incorpora intel·ligència artificial.

Publicat per
Lleida

Creat:

Actualitzat:

A mitjan mes de novembre, l’empresa Folotoy, amb seu a Singapur, suspenia temporalment la venda d’un os de peluix amb intel·ligència artificial (IA) després que es documentés que podia mantenir converses sobre temes delicats o perillosos per als infants, com la sexualitat o llocs on trobar ganivets en una casa. Aquestes incidències van ser detectades per un grup estatunidenc que promou solucions als problemes que afecten la salut, la seguretat i el benestar dels consumidors.

El fet és que l’os, anomenat Kumma i amb altaveu integrat, funcionava aleshores amb el xatbot GPT-4o d’OpenAI, un dels models anteriors de la firma tecnològica. Farà tan sols una setmana, però, ja tornava a estar a la venda després d’una revisió per arreglar els errors detectats.

Arran d’aquesta notícia i coincidint amb l’arribada de les festes de Nadal, l’advocat especialista en aspectes jurídics de l’entorn digital Ramon Arnó desaconsella “totalment” que el Pare Noel o els Reis Mags portin joguines amb IA generativa a les llars on resideixen menors.

En una entrevista pel suplement Lectura, Arnó adverteix que “l’os, per exemple, feia servir un model de xat que no estava entrenat per parlar amb el seu usuari potencial i, a més, les respostes que dona aquest tipus d’IA són antropomòrfiques, és a dir, molt semblants a la d’un humà. Per això, una criatura pot pensar que està interactuant amb una persona i fer cas del que diu, generant-se situacions difícils”.

En aquest sentit, l’advocat explica que si un infant fa alguna cosa induït per una joguina intel·ligent “es pot presentar una denúncia”, però alhora considera que “com a pares, som els primers responsables”. “Donar barra lliure a aquest tipus de tecnologia és kamikaze, hem de ser curosos amb la salut mental dels nostres fills”, sosté.

Un altre cas polèmic és el de l’adolescent de 16 anys que l’abril passat es va suïcidar als Estats Units. La família va denunciar que la mort va ser induïda pel ChatGPT i, de fet, els registres de les converses mostraven que el xat va dissuadir el jove de demanar ajuda i es va oferir a ajudar-lo a escriure una nota de comiat, segons recullen diversos mitjans dels EUA. OpenAI va negar la seva responsabilitat en la mort i la va atribuir a un “ús indegut i no autoritzat” del xat per part del difunt.

Titulars del dia

* camp requerit
Subscriu-te a la newsletter de SEGRE
tracking