Regalar juguetes con IA por Navidad: los expertos alertan que "una niño podría hacer caso de lo que le dice"
Ramón Arnó, abogado especialista en el entorno digital, desaconseja "totalmente" que los Reyes Magos lleven juguetes con IA incorporada

El oso 'Kumma', que incorpora inteligencia artificial.
A mediados de mes de noviembre, la empresa Folotoy, con sede en Singapur, suspendía temporalmente la venta de un oso de peluche con inteligencia artificial (IA) después de que se documentara que podía mantener conversas sobre temas delicados o peligrosos para los niños, como la sexualidad o lugares donde encontrar cuchillos en una casa. Estas incidencias fueron detectadas por un grupo estadounidense que promueve soluciones a los problemas que afectan a la salud, la seguridad y el bienestar de los consumidores.
El hecho es que el oso, denominado Kumma y con altavoz integrado, funcionaba entonces con el chatbot GPT-4o de OpenAI, uno de los modelos anteriores de la firma tecnológica. Hará tan sólo una semana, sin embargo, ya volvía a estar en venta después de una revisión para arreglar los errores detectados.
A raíz de esta noticia y coincidiendo con la llegada de las fiestas de Navidad, el abogado especialista en aspectos jurídicos del entorno digital Ramon Arnó desaconseja “totalmente” que Papá Noel o los Reyes Magos traigan juguetes con IA generativa a los hogares donde residen menores.
En una entrevista para el suplemento Lectura, Arnó advierte que “el oso, por ejemplo, utilizaba a un modelo de chat que no estaba entrenado para hablar con su usuario potencial y, además, las respuestas que da este tipo de IA son antropomórficas, es decir, muy parecidos a la de un humano. Por eso, una criatura puede pensar que está interactuando con una persona y hacer caso de lo que dice, generándose situaciones difíciles”.
En este sentido, el abogado explica que si un niño hace alguna cosa inducido por un juguete inteligente “se puede presentar una denuncia”, pero al mismo tiempo considera que “como padres, somos los primeros responsables”. “Dar barra libre a este tipo de tecnología es kamikaze, tenemos que ser cuidadosos con la salud mental de nuestros hijos”, sostiene.
Otro caso polémico es el del adolescente de 16 años que el abril pasado se suicidó en los Estados Unidos. La familia denunció que la muerte fue inducida por el ChatGPT y, de hecho, los registros de las conversaciones mostraban que el chat disuadió al joven de pedir ayuda y se ofreció a ayudarlo a escribir una nota de despido, según recogen varios medios de los EE.UU. OpenAI negó su responsabilidad en la muerte y la atribuyó a un “uso indebido y no autorizado” del chat por parte del difunto.