SEGRE

Una IA turística envia viatgers a unes fonts termals inventades d'Austràlia

Una publicació digital, generada per intel·ligència artificial, ha causat confusió entre turistes que buscaven unes aigües termals inexistents al nord de Tasmània, posant en relleu els errors de la IA en el màrqueting de viatges.

Òbviament li hem demanat a la IA que il·lustri aquesta notícia. Interpretació lliure.

Òbviament li hem demanat a la IA que il·lustri aquesta notícia. Interpretació lliure.

SEGRE REDACCIÓ
Publicat per

Creat:

Actualitzat:

Un recent incident ha subratllat els reptes de la intel·ligència artificial en el sector turístic. Una empresa australiana va dirigir viatgers a unes fonts termals que, en realitat, no existien al nord de Tasmània. Aquesta publicació, generada íntegrament per IA, va provocar una considerable confusió entre els turistes que planificaven les seves rutes, posant en evidència la necessitat de verificar la informació digital en la planificació de viatges.

El text digital promocionava les anomenades Weldborough Hot Springs com un indret idíl·lic i tranquil, situat en un bosc proper al petit nucli rural de Weldborough, a uns 110 quilòmetres de Launceston. La situació es va fer evident quan els residents locals van començar a rebre trucades i visites constants de turistes que demanaven indicacions per arribar-hi. La propietària d'un hotel de la zona va declarar a la CNN que, de sobte, cada dia apareixien persones buscant aquestes suposades aigües termals, tot i que l'únic curs d'aigua proper és un riu gèlid, freqüentat principalment per cercadors de minerals. No hi ha cap balneari natural a la regió.

L'empresa responsable de la plataforma ha reconegut que el contingut va ser generat mitjançant eines d'intel·ligència artificial proporcionades per un proveïdor extern. A més, van admetre que el text es va publicar sense el procés de revisió habitual. Els directius van assegurar que no hi havia intenció de danyar i que l'episodi ha tingut un fort impacte reputacional i emocional en el seu negoci, que està format per un equip reduït. La publicació ja ha estat retirada del seu lloc web. Aquest cas és un exemple clar del que es coneix com a "al·lucinació d'IA", un fenomen on els sistemes d'intel·ligència artificial produeixen informació inventada o incorrecta amb aparença de veracitat.

Per què la IA "al·lucina"?

Aquest tipus d'errors es produeixen perquè els sistemes d'intel·ligència artificial no estan dissenyats per verificar fets. En lloc d'això, la seva funció principal és predir les paraules més probables segons els patrons estadístics amb els quals han estat entrenats. Això significa que optimitzen la fluïdesa i la coherència del text, no la seva veracitat. 

En el context del sector turístic, aquesta limitació pot resultar en la presentació de rutes, serveis o espais completament inexistents com si fossin reals. Per tant, és crucial no dependre exclusivament del contingut generat per IA i contrastar sempre la informació amb fonts fiables, com ara guies especialitzades, professionals locals o portals oficials, abans de finalitzar qualsevol planificació de viatge.

El futur de la IA en el turisme i la realitat de Weldborough

L'ús de la intel·ligència artificial és cada vegada més prevalent en la planificació de viatges i en les estratègies de màrqueting del sector. No obstant això, aquest episodi demostra que la seva fiabilitat no sempre està garantida, i que la supervisió humana continua sent indispensable. 

Mentrestant, a Weldborough, els seus habitants volen recordar que el poble sí que ofereix atractius naturals i patrimonials genuïns per als visitants. Però, per evitar més confusions, insisteixen a deixar clar que, a data d'aquest 2026, no hi ha cap font termal amagada entre els seus boscos, malgrat el que pugui suggerir la tecnologia.

Titulars del dia

* camp requerit
Subscriu-te a la newsletter de SEGRE
tracking