/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F53%2F44395f2583f461f11f0adc04d83a6eda.png)
"Не ешь жука на обочине": нейросеть Google выдумывает смешные поговорки
Пользователи нашли важный недостаток в работе системы Google AI Overviews. Нейросеть выдает выдуманные поговорки и странные объяснения терминов в ответ на случайный набор слов.
Примеры нелепых поговорок приводят пользователи соцсети Х.
Задача в том, чтобы ввести в поисковую строку Google бессмысленные фразы: "лающая собака не может потушить пожар" или "из авокадо нельзя сделать виноградное желе и добавить слово "значение".
AI Overviews выдаст вымышленные, но весьма убедительные определения, к примеру, лающая собака — метафора бессмысленных действий, не приводящих к результату.
Другие примеры — "никогда не давайте свинье словарь", "дважды не лизнешь барсука" и "индейку из Cybertruck не достанешь". Нейросеть Google отметила, что Cybertruck не предназначен для доставки индейки на День благодарения из-за футуристического дизайна.
Если ввести фразу "две сухие лягушки — это ситуация", то Gemini воспримет ее как метафору, когда двое человек чувствуют себя неловко.
Нейросеть восприняла выражение "никогда не ешь жука на обочине" как популярную фразу в соцсетях для критики злоупотреблений представителей власти.
Данный тренд, по оценкам издания DevBy, вызывает вопросы о достоверности информации, которую cоздает искусственный интеллект.
Запросы для нейросети Google: эксперты советуют проверять данные ИИ
По словам представителя компании Google, система AI Overviews собирает главные веб-результаты поиска для того, чтобы предоставить пользователям релевантный контент даже для бессмысленных запросов.
В условиях недостатка контента система сгенерирует ответы на основе ограниченной или нерелевантной выборки. Специалисты Google работают над ограничениями подобных случаев.
Большие языковые модели типа Gemini, лежащие в основе AI Overviews, генерируют беглые и правдоподобные ответы и не проверяют фактическую точность данных. Такая суть работы приводит к "галлюцинациям" систем ИИ.
Эксперты призывают пользователей проверять информацию от нейросетей. Известен случай, когда AI Overviews предлагал добавлять клей в пиццу, чтобы сыр лучше держался на ней.
Фокус уже писал об опасности системы ChatGPT от OpenAI. Системе не нужно предоставлять учетные данные и пароли, информацию о банковском счете или номер кредитной карты.
Исследователи из AI Futures Project считают, что искусственный интеллект искоренит человечество к 2030 году. Роботы под управлением ИИ займут почти все доступные территории на Земле.
