Штучний інтелект відправляє туристів до неіснуючих пам’яток та небезпечних місць: як часто бреше ШІ

ШІ-сервіси для подорожей, як-от ChatGPT чи Layla, вигадують неіснуючі пам’ятки, маршрути й дають небезпечні поради. Як уберегти себе від помилок штучного інтелекту.

Штучний інтелект, який мав би спрощувати планування подорожей, дедалі частіше створює для туристів небезпечні ситуації. Мандрівники по всьому світу скаржаться, що ШІ, зокрема ChatGPT, Google Gemini чи Microsoft Copilot, вигадує неіснуючі маршрути, пам’ятки та інколи дає небезпечні поради.

Перуанський гід і директор компанії Evolution Treks Peru Мігель Анхель Гонгора Меса розповів про двох туристів, які вирушили до вигаданого "Священного каньйону Хумантай".

"Вони показали мені скріншот, впевнено написаний і сповнений яскравих прикметників, але це було неправдою. Священного каньйону Хумантай не існує!. Назва - це поєднання двох місць, які не мають жодного стосунку до опису", - розповів Меса.

За його словами, мандрівники заплатили близько 160 доларів, щоб дістатися розбитої дороги біля селища Моллепати, де фактично нічого немає. Гід наголошує, що в Перу така дезінформація може бути смертельно небезпечною. Як пояснює Меса, "на висоті понад 4000 метрів без кисню, сигналу чи підготовки ризик загинути дуже високий".

Подібна ситуація трапилась із туристами Дана Яо та її чоловіком, які планували похід у Японії за порадами ChatGPT. Бот запропонував маршрут, що мав завершитись романтичним заходом сонця на горі Місен. Проте коли пара захотіла спуститися вниз, виявилось, що канатна дорога, яку ШІ рекомендував як основний шлях назад, уже не працює.

"Саме тоді й виникла проблема… Тож ми застрягли на вершині гора", - пояснює Яо.

Як пояснює професор машинного навчання Університету Карнегі-Мелон Райїд Гані, штучний інтелект не завжди може дати правильну інформацію. За його словами, великі мовні моделі такі як ChatGPT не розуміють, що таке реальність. Вони формують відповіді, комбінуючи слова та фрази зі статистично схожих джерел.

"Він не знає різниці між порадами про подорожі, маршрутами чи рецептами. Він знає лише слова. Тож він постійно випльовує слова, які роблять те, що він вам каже, реалістичним, і саме звідси походить багато основних проблем", - зауважив Гані.

ШІ-сервіси для подорожей, такі як Wonderplan чи Layla, також не бездоганні. Layla одного разу повідомила користувачам, що в Пекіні стоїть Ейфелева вежа, а іншим порадила "марафонський маршрут" через Італію, який фізично неможливо було пройти.

Опитування 2024 року показало, що 37% користувачів заявили, що ШІ не дав достатньо точної інформації. Крім того, 33% прямо вказали, що поради містили неправдиві факти.

Хоч ШІ може бути корисним інструментом, але лише за умови критичного мислення. Перед поїздкою варто перевіряти інформацію на кількох джерелах, зокрема на офіційних сайтах, у блогах мандрівників або на картах Google. Слід уточнювати маршрути та умови, зокрема години роботи, наявність транспорту та зв’язку, а також користуватися порадами професійних гідів або туроператорів.

Раніше портал "Коментарі" повідомляв, що режисер Джеймс Кемерон озвучив тривожний прогноз на майбутнє через штучний інтелект.

Також "Коментарі" писали про те, як штучний інтелект вбиває інтернет.