Turyści zgubili się, szukając atrakcji zmyślonych przez sztuczną inteligencję
Sztuczna inteligencja wysłała turystów w miejsce, które nie istnieje FiledIMAGE/Shutterstock

Sztuczna inteligencja przejmuje coraz więcej ról. Pomoże nie tylko w pisaniu, przy burzy mózgów czy zrobieniu zabawnego obrazka. Choć AI to narzędzie przyspieszające pracę, problem zaczyna się, kiedy zmyśla i wprowadza w błąd. Tak było w przypadku jednego z biur podróży.

REKLAMA

AI już dawno wkroczyło do świata podróży. Zetki nie wyobrażają sobie innego sposobu na planowanie wyjazdów. Zresztą, jeśli nie mamy czasu na planowanie zwiedzania, to sztuczna inteligencja radzi sobie z tym bardzo dobrze. Ale nie zawsze. Przekonali się o tym turyści w Australii, którzy szukali nieistniejących gorących źródeł na pustkowiu. Taka historia mogła spotkać każdego.

AI w biurze podróży. Zachęcali turystów, by jechali w miejsce, które nie istnieje

Do kuriozalnej sytuacji doszło niedawno na Tasmanii, wyspie u południowo-wschodnich wybrzeży Australii. W miejscowości Weldborough zgubiła się grupa turystów. Okazało się, że poszukiwali oni "znanej" atrakcji turystycznej – gorących źródeł Weldborough Hot Springs. Jak podaje Euronews, po długim jeżdżeniu w kółko turyści zatrzymali się w pubie i spytali o pomoc. I tu czekała ich niespodzianka.

Właścicielka lokalu nigdy nie słyszała o takiej atrakcji i zażartowała z podróżnych. Zaoferowała, że jeśli kiedykolwiek znajdą w tym regionie gorące źródła, to chętnie postawi im piwo.

Mało tego, okazało się, że Weldborough Hot Springs to nazwa zmyślona. Jest to typowy przykład "halucynacji" AI i nauczka dla podróżnych, żeby sprawdzać, co sugeruje sztuczna inteligencja. Problem w tym, że tutaj było to narzędzie biura podróży.

Wszystko to za sprawą bloga prowadzonego przez Tasmania Tours. W jednym z artykułów, opublikowanych w lipcu zeszłego roku, biuro podróży opublikowało listę 7 najlepszych gorących źródeł w Tasmanii. Wśród rzeczywistych miejsc znalazło się sławetne Weldborough Hot Springs.

Jak mogło do tego dojść? Halucynacje AI

Od tego czasu miejscowość przyciągnęła wielu turystów, pragnących na własne oczy zobaczyć tę znaną atrakcję. Zwrot "pułapka turystyczna" nabiera w tym kontekście nowego znaczenia.

Jak tłumaczy Scott Hennessy, dyrektor Tasmania Tours, nieszczęsny materiał napisała zewnętrzna firma. Tekst nie został wcześniej sprawdzony. Mogła to być zatem jednorazowa wpadka, choć bardzo bolesna.

Nie jest to jednak odosobniony przypadek. Na łamach naTemat pisaliśmy m.in. o firmie budowlanej, która w dokumentach do przetargu powoływała się na nieistniejące interpretacje podatkowe. Śledztwo wykazało, że wygenerowało je właśnie AI. Skąd biorą się takie przypadki i dlaczego publikowanie wymyślonych informacji się powtarza? Sztuczna inteligencja nie ma bowiem własnej wiedzy i rozumu. Dlatego algorytmy potrafią płatać psikusy, chcąc za wszelką cenę odpowiedzieć na nasze pytanie.

Biorąc pod uwagę fakt, że aż jedna trzecia turystów używa ChataGPT do planowania podróży, halucynacje AI zamieszają w świecie turystyki jeszcze nie jeden raz. Dlatego bądźcie czujni.