Использование искусственного интеллекта (ИИ) для планирования путешественниками своих поездок может таить в себе опасности, так как наблюдались случаи, когда ИИ отправлял туристов в несуществующие места. Об этом говорится в материале BBС.
Приводится пример, что ChatGPT, используемый туристами для поиска маршрутов, отправлял путешественников посетить выдуманный город в Перу и Эйфелеву башню в Пекине.
Эксперты обращают внимание, что, казалось бы, невинная ошибка ИИ может стоить путешественникам жизни. Так, путешествие в Перу к выдуманному, несуществующему объекту без гида очень опасно. «Высота, климатические изменения и доступность маршрутов должны быть спланированы. Используя программу вроде ChatGPT, которая объединяет изображения и названия для создания фантазий, можно оказаться на высоте 4 тыс. метров без кислорода и мобильной связи», — говорит Мигель Анхель Гонгора Меса, основатель и директор Evolution Treks Peru.
- Как отмечается в публикации, всего за несколько лет инструменты искусственного интеллекта, такие как ChatGPT, Microsoft Copilot и Google Gemini, превратились из новинки в неотъемлемую часть планирования путешествий для миллионов людей. BBС приводит результаты опроса, согласно которому 30% международных путешественников теперь используют инструменты генеративного ИИ и специализированные сайты с ИИ для путешествий, а такие инструменты, как Wonderplan и Layla, для организации своих поездок.
Проблемы связаны с тем, как ИИ генерирует ответы. Крупные языковые модели, такие как ChatGPT, анализируют огромные массивы текста и подбирают слова и фразы, которые, согласно статистике, кажутся адекватными ответами. Иногда это дает абсолютно точную информацию. В других случаях возникает то, что эксперты по ИИ называют «галлюцинацией», поскольку это является вымышленной информацией. Но поскольку программы ИИ представляют свои галлюцинации и фактические ответы одинаково, пользователям часто сложно отличить реальность от вымысла.
- В недавней статье Fast Company описывался случай, когда пара отправилась к живописной канатной дороге в Малайзии, которую видела в TikTok, и обнаружила, что такой конструкции не существует. Видео было полностью сгенерировано ИИ либо для привлечения внимания, либо с какой-то другой странной целью. Подобные инциденты являются частью более широкой тенденции внедрения ИИ, которая может менять наше восприятие мира.
В настоящее время предпринимаются попытки регулировать то, как ИИ представляет информацию пользователям, включая несколько предложений от ЕС и США о добавлении водяных знаков или других отличительных признаков, чтобы пользователи знали, что что-то было изменено или сгенерировано ИИ. Но, как считают эксперты, это непростая задача. Если подобные правила будут приняты, они могут упростить для путешественников обнаружение изображений и видео, созданных ИИ. Однако новые правила вряд ли помогут вам, если чат-бот на основе ИИ выдумывает что-то прямо во время беседы.