Функция «Обзоры ИИ» взята из комментария Reddit более десяти лет назад.
Реклама
Совершенно новый поисковый инструмент Google на базе искусственного интеллекта, AI Reviews, сталкивается с негативной реакцией за предоставление неточных и несколько странных ответов на запросы пользователей. Недавно сообщалось об инциденте, когда пользователь обратился в Google по поводу сыра, не прилипшего к его пицце. Хотя они, должно быть, ожидали практического решения своих кулинарных проблем, функция «Обзоры искусственного интеллекта» от Google представила довольно странное решение. Судя по недавно появившимся сообщениям на X, это был не единичный случай, когда инструмент ИИ предлагал странные ответы и другим пользователям.
Сыр, Пицца и галлюцинации искусственного интеллекта
Проблема обнаружилась, когда пользователь, как сообщается, написал в Google: «Сыр не прилипает к пицце». Решая кулинарную проблему, функция «Обзоры искусственного интеллекта» поисковой системы предложила несколько способов сделать сыр прилипшим, например, смешать соус и дать пицце остыть. Однако одно из решений оказалось действительно странным. Судя по опубликованному скриншоту, пользователю предлагалось «добавить в соус ⅛ стакана нетоксичного клея, чтобы придать ему больше липкости».
Google AI overview suggests adding glue to get cheese to stick to pizza, and it turns out the source is an 11 year old Reddit comment from user F*cksmith 😂 pic.twitter.com/uDPAbsAKeO
— Peter Yang (@petergyang) May 23, 2024
Как сообщается, в ходе дальнейшего расследования источник был найден, и это оказался комментарий Reddit, сделанный 11 лет назад, который оказался скорее шуткой, чем кулинарным советом эксперта. Однако функция Google Reviews AI, которая по-прежнему содержит тег «Генераторный AI является экспериментальным» внизу, представила ее как серьезное предложение к исходному запросу.
Обнаружился еще один неточный ответ AI Reviews. несколько дней назад, когда пользователь, как сообщается, спросил Google: «Сколько камней мне следует съесть». По словам геологов Калифорнийского университета в Беркли, в инструменте говорится: «Рекомендуется съедать хотя бы один камень в день, поскольку камни содержат минералы и витамины, которые важны для здоровья пищеварительной системы».
Проблема ложных ответов
Подобные проблемы регулярно возникают в последние годы, особенно с тех пор, как начался бум искусственного интеллекта (ИИ), что приводит к новой проблеме, известной как галлюцинации ИИ. Хотя компании заявляют, что чат-боты с искусственным интеллектом могут совершать ошибки, случаи, когда эти инструменты искажают факты и дают фактически неточные и даже странные ответы, участились.
Однако Google — не единственная компания, чьи инструменты искусственного интеллекта дают неточные ответы. Сообщается, что ChatGPT от OpenAI, Copilot от Microsoft и чат-бот Perplexity с искусственным интеллектом страдают от галлюцинаций ИИ. В более чем одном случае источник был обнаружен как сообщение Reddit или комментарий, сделанный много лет назад. Компании, создающие инструменты искусственного интеллекта, тоже знают об этом. Генеральный директор Alphabet Сундар Пичаи рассказал The Verge: «Это те вещи, в которых нам нужно продолжать совершенствоваться».
- Музыкальное расширение Gemini для YouTube от Google теперь может воспроизводить ваши любимые песни
- Canva обновляет свою платформу и представляет Canva Enterprise для бизнеса
- OpenAI Сэма Альтмана подписывает соглашение о контенте с News Corp
Говоря о галлюцинациях ИИ во время мероприятия в IIIT Дели. В июне 2023 года Сэм Альтман, [OpenAI]( генеральный директор и соучредитель, сказал: «Нам понадобится около года, чтобы усовершенствовать модель. Это баланс между креативностью и точностью, и мы пытаемся свести эту проблему к минимуму. [В настоящее время] я меньше всего доверяю ответам, которые приходят из ChatGPT».
Это Samsung Galaxy Z. Flip 5 — лучший складной телефон, который можно купить в Индии прямо сейчас? Мы обсуждаем новый складной телефон компании в форме раскладушки в последнем выпуске Orbital, подкаст Gadgets 360 Orbital доступен на Spotify, Gaana, JioSaavn, Google Podcasts, Apple. Подкасты, Amazon Music и любые другие подкасты.
Партнерские ссылки могут создаваться автоматически — подробности см. в нашем этическом заявлении.