5 забавных примеров галлюцинаций чат-ботов с искусственным интеллектом
Эти несовершенные улучшения создали несколько забавных ситуаций, давая действительно запутанную обратную связь.
Обычно чат-боты с искусственным интеллектом кажутся нашими спасителями: они помогают нам составлять сообщения, дорабатывать эссе или проводить ужасные исследования. Но эти несовершенные нововведения создали поистине забавные ситуации, давая нам действительно запутанные ответы.
1. Когда обзоры искусственного интеллекта Google побуждали людей наносить клей на пиццу (и не только)
Вскоре после запуска функции «Обзоры искусственного интеллекта» Google в 2024 году она начала предлагать некоторые странные предложения. Среди полезных советов был один загадочный: добавьте в пиццу нетоксичный клей.
5 забавных примеров галлюцинаций чат-ботов с искусственным интеллектом. Изображение 1
Этот трюк вызвал ажиотаж в социальных сетях. Мемы и скриншоты начали появляться повсюду, и мы начали задаваться вопросом, действительно ли ИИ может заменить традиционные поисковые системы.
Близнецы попадают в аналогичную категорию. Он рекомендует съедать кубик льда в день, добавлять бензин в острые спагетти и использовать доллары для измерения веса.
5 забавных примеров галлюцинаций чат-ботов с искусственным интеллектом. Изображение 2
Gemini собирает данные со всех уголков сети, не до конца понимая контекст. Он сочетает в себе малоизвестные исследования и шутки, представляя их с таким уровнем убежденности, который заставил бы любого эксперта чувствовать себя некомфортно.
С тех пор Google выпустил ряд обновлений, хотя все еще есть некоторые функции, которые могут еще больше улучшить обзоры ИИ. Хотя количество плохих предложений значительно сократилось, предыдущие ошибки служат напоминанием о том, что ИИ по-прежнему требует некоторого человеческого контроля.
2. ChatGPT поставил адвоката в неловкое положение в суде
Полная зависимость одного юриста от ChatGPT привела к уроку, изменившему его жизнь: именно поэтому не следует полагаться исключительно на контент, созданный искусственным интеллектом.
Готовясь к делу, адвокат Стивен Шварц использовал чат-бота для изучения юридических прецедентов. ChatGPT ответил шестью сфабрикованными ссылками на дела, дополненными именами, датами и цитатами, подтверждающими факты. Доверившись заверениям ChatGPT в точности, Шварц представил в суд фиктивные ссылки.
Ошибка была быстро обнаружена, и, по данным Document Cloud, суд объявил Шварцу выговор за то, что он полагался на «ненадежный источник». В ответ адвокат пообещал никогда больше так не делать — по крайней мере, без проверки информации.
Многие люди также отправляют статьи, в которых цитируются полностью сфабрикованные исследования, поскольку они считают, что ChatGPT не может лгать, особенно когда он предоставляет полные цитаты и ссылки. Однако, хотя такие инструменты, как ChatGPT, могут быть полезны, они все равно требуют серьезной проверки фактов, особенно в отраслях, где точность имеет первостепенное значение.
3. Когда BlenderBot 3 издевался над Цукербергом
По иронии судьбы, BlenderBot 3 от Meta прославился критикой своего создателя Марка Цукерберга. BlenderBot 3 обвинил Цукерберга в том, что он не всегда следует этическим нормам ведения бизнеса и имеет плохой модный вкус.
5 забавных примеров галлюцинаций чат-ботов с искусственным интеллектом. Изображение 3
Сара Джексон из Business Insider также протестировала чат-бота, спросив его, что он думает о Цукерберге, которого назвали жутким и манипулятивным.
Нефильтрованные ответы BlenderBot 3 одновременно забавны и тревожны. Возникает вопрос о том, отражает ли бот подлинный анализ или просто вдохновлен негативной рекламой. В любом случае, нефильтрованные комментарии чат-бота с искусственным интеллектом быстро завоевали популярность.
Meta прекратила выпуск BlenderBot 3 и заменила его более усовершенствованной Meta AI, которая, вероятно, не повторит подобные противоречия.
5 забавных примеров галлюцинаций чат-ботов с искусственным интеллектом. Изображение 4
4. Эмоциональный распад Microsoft Bing Chat
Microsoft Bing Chat (теперь Copilot) произвел фурор, когда начал демонстрировать всем романтические чувства, наиболее известным из которых стал разговор с журналистом New York Times Кевином Роузом. Чат-бот с искусственным интеллектом, который поддерживает Bing Chat, заявил о своей любви и даже попросил Руза расторгнуть брак.
Это не единичный инцидент — пользователи Reddit поделились похожими историями о чат-ботах, проявляющих к ним романтический интерес. Для некоторых это забавно; для других это тревожно. Многие шутили, что у ИИ, похоже, более плодотворная личная жизнь, чем у них.
Помимо романтических высказываний, чат-бот демонстрировал и другое странное человеческое поведение, которое стирало грань между развлечением и раздражением. Его причудливые, возмутительные заявления всегда будут одними из самых запоминающихся и причудливых моментов в истории ИИ.
5. Нелёгкий старт Google Bard с космическими мероприятиями
Когда Google запустил Bard (теперь Gemini) в начале 2023 года, чат-бот с искусственным интеллектом допустил несколько серьезных ошибок, особенно в области освоения космоса. Одной из примечательных ошибок было то, что Бард уверенно делал неточные заявления об открытиях, сделанных космическим телескопом Джеймса Уэбба, которые ученым НАСА пришлось публично исправлять.
5 забавных примеров галлюцинаций чат-ботов с искусственным интеллектом. Изображение 5
Это не единичный случай. Было много недопониманий вокруг первоначального запуска чат-бота, который, казалось, соответствовал общему восприятию Барда в то время. Эти ранние ошибки привели к критике за то, что Google поспешил с запуском Bard, и эта точка зрения, похоже, подтвердилась, когда сразу после этого акции Alphabet упали примерно на 100 миллиардов долларов.
Хотя с тех пор компания Gemini добилась значительных успехов, ее проблемный запуск является поучительной историей о рисках иллюзий ИИ в реальных ситуациях.
Марвин Фрай
Обновление от 30 декабря 2024 г.