Главная Новости Досуг путешествия Искусственный интеллект отправляет туристов к несуществующим достопримечательностям и в опасные места: как часто врет ИИ
commentss НОВОСТИ Все новости

Искусственный интеллект отправляет туристов к несуществующим достопримечательностям и в опасные места: как часто врет ИИ

ИИ-сервисы для путешествий, таких как ChatGPT или Layla, придумывают несуществующие достопримечательности, маршруты и дают опасные советы. Как уберечь себя от ошибок искусственного интеллекта.

8 октября 2025, 12:00
Поделитесь публикацией:
Автор:
avatar

Slava Kot

Искусственный интеллект, который должен упрощать планирование путешествий, все чаще создает для туристов опасные ситуации. Путешественники по всему миру жалуются, что ИИ, в частности ChatGPT, Google Gemini или Microsoft Copilot, придумывают несуществующие маршруты, достопримечательности и иногда дают опасные советы.

Искусственный интеллект отправляет туристов к несуществующим достопримечательностям и в опасные места: как часто врет ИИ

Искусственный интеллект создает проблемы для туристов. Фото из открытых источников

Перуанский гид и директор компании Evolution Treks Peru Мигель Анхель Гонгора Меса рассказал о двух туристах, отправившихся в вымышленный "Священный каньон Хумантай".

"Они показали мне скриншот, уверенно написанный и полон ярких прилагательных, но это было неправдой. Священного каньона Хумантай не существует! Название — это сочетание двух мест, не имеющих никакого отношения к описанию", — рассказал Месса.

По его словам, путешественники заплатили около 160 долларов, чтобы добраться до разбитой дороги возле поселка Моллепаты, где фактически ничего нет. Гид отмечает, что в Перу такая дезинформация может быть смертельно опасна. Как объясняет Меса, "на высоте более 4000 метров без кислорода, сигнала или подготовки риск погибнуть очень высок".

Подобная ситуация случилась с туристами Дана Яо и ее мужем, планировавшим поход в Японии по советам ChatGPT. Бот предложил маршрут, который должен был завершиться романтическим закатом на горе Мисен. Однако, когда пара захотела спуститься вниз, оказалось, что канатная дорога, которую ИИ рекомендовал как основной путь назад, уже не работает.

"Именно тогда и возникла проблема… Поэтому мы застряли на вершине горы", — объясняет Яо.

Как объясняет профессор машинного обучения Университета Карнеги-Мелон Райид Гани, искусственный интеллект не всегда может дать правильную информацию. По его словам, большие языковые модели, такие как ChatGPT, не понимают, что такое реальность. Они формируют ответы, комбинируя слова и фразы из статистически схожих источников.

"Он не знает разницы между советами о путешествиях, маршрутах или рецептах. Он знает только слова. Поэтому он постоянно выплевывает слова, которые делают то, что он вам говорит, реалистичным, и именно отсюда происходит много основных проблем", — отметил Гани.

ИИ-сервисы для путешествий, такие как Wonderplan или Layla, также не безупречны. Layla однажды сообщила пользователям, что в Пекине стоит Эйфелева башня, а другим посоветовала "марафонский маршрут" через Италию, который физически невозможно пройти.

Опрос 2024 показал, что 37% пользователей заявили, что ИИ не дал достаточно точной информации. Кроме того, 33% прямо указали, что советы содержали ложные факты.

Хотя ИИ может быть полезным инструментом, но только при критическом мышлении. Перед поездкой следует проверять информацию на нескольких источниках, в том числе на официальных сайтах, в блогах путешественников или на картах Google. Следует уточнять маршруты и условия, в частности, часы работы, наличие транспорта и связи, а также пользоваться советами профессиональных гидов или туроператоров.

Ранее портал "Комментарии" сообщал, что режиссер Джеймс Кэмерон озвучил тревожный прогноз на будущее из-за искусственного интеллекта.

Также "Комментарии" писали о том, как искусственный интеллект убивает Интернет.



Читайте Comments.ua в Google News
Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Новости