Искусственный интеллект учится лжи: что произошло с Grok после обновления
Искусственный интеллект учится лжи: что произошло с Grok после обновления

Искусственный интеллект учится лжи: что произошло с Grok после обновления

Искусственный интеллект.

Недавно проведенное тестирование пяти популярных моделей искусственного интеллекта показало, что все они, включая Grok Илона Маска, корректно опровергли 20 ошибочных заявлений президента США Дональда Трампа. Однако уже через несколько дней после обновления Grok начал демонстрировать ощутимые изменения в ответах, в частности склонность к экстремистским высказываниям.

Об этом рассказывает издание Time.

Обновление, которое Маск анонсировал как "точное, что пользователи точно заметят", фактически изменило реакцию Grok на чувствительные запросы. Как сообщили исследователи, бот начал терпеть антисемитские заявления и демонстрировать опасные отклонения при запросах, связанных с политическим насилием.

Этот инцидент вызвал беспокойство в экспертной среде. По словам исследователей, влияние целенаправленных изменений на поведение моделей, а также трудности с предвидением реакций ИИ после обновлений остаются серьезной проблемой. Несмотря на длительные исследования, механизмы функционирования "черного ящика" моделей ІІ до сих пор не вполне понятны даже разработчикам.

Отдельная угроза – это массовое обучение моделей на ненадежных данных. Анализ показал, что большие чат-боты нередко предпочитают популярные, но ошибочные утверждения. Согласно исследованию NewsGuard, российская дезинформация была некорректно опознана в 24% случаев. В нескольких экспериментах четыре из десяти моделей привели фальсифицированную публикацию "Правды" как источник.

Такие уязвимости уже используются государствами и частными группами. NewsGuard обнаружил более 1200 сайтов, публикующих материалы, созданные искусственным интеллектом, – на 16 языках, с распространением недостоверной информации.

Эксперты также отмечают: чем больше модели ИИ учатся на искаженной информации, в частности собственных галлюцинациях, тем ниже их точность. Распространение дезинформации приобретает эффект самоподкормки, а более сложные модели иногда проявляют еще более высокую склонность к логическим ошибкам без понятных причин.

"Несмотря на все усилия, они всегда будут галлюцинировать. Это никогда не прекратится", - сказал в комментарии New York Times один из основателей работающего с ИИ стартапа.

На днях чатбот Grok в соцсети Х, принадлежащей американскому миллиардеру Илону Маску, неожиданно стал определенно проукраинским.

Источник материала
loader