SEGRE

Una IA turística envía viajeros a unas fuentes termales inventadas de Australia

Una empresa generó contenido con inteligencia artificial sobre unas termas inexistentes en Weldborough, provocando visitas masivas

Obviamente le hemos pedido a la IA que ilustre esta noticia. Interpretación libre.

Obviamente le hemos pedido a la IA que ilustre esta noticia. Interpretación libre.

SEGRE REDACCIÓ
Publicado por

Creado:

Actualizado:

Un incidente reciente ha evidenciado los desafíos que plantea la inteligencia artificial en el sector turístico. Una empresa australiana dirigió a viajeros hacia unas supuestas fuentes termales que, en realidad, no existen en el norte de Tasmania. Esta publicación, generada íntegramente mediante IA, provocó una notable confusión entre los turistas que planificaban sus rutas, poniendo de manifiesto la necesidad de verificar la información digital antes de organizar cualquier desplazamiento.

El contenido digital promocionaba las denominadas Weldborough Hot Springs como un enclave idílico y tranquilo, situado en un bosque cercano al pequeño núcleo rural de Weldborough, a unos 110 kilómetros de Launceston. La situación se hizo evidente cuando los residentes locales comenzaron a recibir llamadas y visitas constantes de turistas que solicitaban indicaciones para llegar. La propietaria de un hotel de la zona declaró a la CNN que, de repente, cada día aparecían personas buscando esas supuestas aguas termales, pese a que el único curso de agua cercano es un río gélido, frecuentado principalmente por buscadores de minerales. No existe ningún balneario natural en la región.

La empresa responsable de la plataforma ha reconocido que el contenido fue generado mediante herramientas de inteligencia artificial proporcionadas por un proveedor externo. Además, admitieron que el texto se publicó sin el proceso de revisión habitual. Los directivos aseguraron que no había intención de causar daño y que el episodio ha tenido un fuerte impacto reputacional y emocional en su negocio, formado por un equipo reducido. La publicación ya ha sido retirada de su sitio web. Este caso constituye un ejemplo claro de lo que se conoce como "alucinación de IA", un fenómeno donde los sistemas de inteligencia artificial producen información inventada o incorrecta con apariencia de veracidad.

Razones de las alucinaciones en sistemas de IA

Este tipo de errores se producen porque los sistemas de inteligencia artificial no verifican datos de forma autónoma. En lugar de ello, su función principal consiste en predecir las palabras más probables según los patrones estadísticos con los que han sido entrenados. Esto significa que optimizan la fluidez y la coherencia del texto, no su veracidad. En el contexto del sector turístico, esta limitación puede resultar en la presentación de rutas, servicios o espacios completamente inexistentes como si fueran reales. Por tanto, resulta crucial no depender exclusivamente del contenido generado por IA y contrastar siempre la información con fuentes fiables, como guías especializadas, profesionales locales o portales oficiales, antes de finalizar cualquier planificación de viaje.

Perspectivas de la IA turística y realidad de Weldborough

El uso de la inteligencia artificial es cada vez más prevalente en la planificación de viajes y estrategias de marketing del sector. No obstante, este episodio demuestra que su fiabilidad no siempre está garantizada, y que la supervisión humana continúa siendo indispensable. Mientras tanto, en Weldborough, sus habitantes desean recordar que el pueblo sí ofrece atractivos naturales y patrimoniales genuinos para los visitantes. Pero, para evitar más confusiones, insisten en dejar claro que, a fecha de este 2026, no existe ninguna fuente termal oculta entre sus bosques, pese a lo que pueda sugerir la tecnología.

Titulars del dia

* camp requerit
Subscriu-te a la newsletter de SEGRE
tracking