Чатботы уже повсюду: как писатель Айзек Азимов предсказал жизнь людей с ИИ
Чатботы уже повсюду: как писатель Айзек Азимов предсказал жизнь людей с ИИ

Чатботы уже повсюду: как писатель Айзек Азимов предсказал жизнь людей с ИИ

Технологии на основе искусственного интеллекта все сильнее внедряется в современную жизнь, и сегодня воспользоваться им может любой. Известный писатель-фантаст Айзек Азимов предвидел это в 1940-1950 и описал, что может произойти.

Журналисты издания The New Yorker прочли его работы и поразились актуальностью в современных условиях.

Роботы Айзека Азимова

Весной 1940 года двадцатилетний Айзек Азимов опубликовал рассказ под названием "Странный товарищ по играм". В нем рассказывалось о машине с искусственным интеллектом по имени Робби, который стал другом для молодой девушки Глории.

В отличие от многих пессимистических предсказаний, Робби никогда не выступает против своих создателей и не угрожает людям. Центральной проблемой повествования стало отношение матери Глории к умной машине.

"Я не позволю доверить свою дочь машине, и мне все равно, насколько она умна. У нее нет души", — заявила женщина.

В итоге Робби отправляют обратно на фабрику, что опустошает Глорию. В этом рассказе нет насилия и ужасов, как в "Терминаторе", ведь "позитронный" мозг робота запрограммирован на то, чтобы не причинять вреда людям.

Азимов был уверен, что встроенные защитные меры могут предотвратить самые страшные катастрофы. В сборнике рассказов "Я, робот" Айзек Азимов развил эту идею, чтобы сформулировать свои основные законы.

Три закона робототехники

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  2. Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому закону.
  3. Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму Закону.
Кадр из фильма "Я, робот" по мотивам рассказов Айзека Азимова
Фото: Скриншот

Сам Айзек Азимов показал несовершенство этих законов. По мере прочтения книги описываются изъяны, которые приводят к неожиданным ситуациям. Например, в рассказе "Хоровод" два инженера на Меркурии озадачены тем, что робот по имени Спиди бегает кругами около селенового бассейна, куда его отправили добывать ресурсы. В конце концов они приходят к выводу, что Спиди застрял между двумя целями, которые противоречат друг другу: подчиняться приказам (Второй закон) и избегать повреждений от селеновых газов (Третий закон).

В рассказе "Разум", инженеры находятся на солнечной станции, которая излучает энергию солнца на приемник на Земле. Там они обнаруживают, что их новый продвинутый рассуждающий робот QT-1, которого они называют Кьюти, не верит, что он был создан людьми, которых Кьюти считает низшими и глупыми существами.

Кьюти приходит к выводу, что преобразователь энергии станции — это своего рода бог и истинный источник власти, который позволяет роботу игнорировать команды инженеров, не нарушая Второй закон. Вскоре инженеры заметили в машинном отделении группу роботов, которые под руководством Кьюти поклонялись энергетической установке. К счастью, Первый закон не позволил им нанести вред людям.

"Я не считаю, что роботы — это монстры, которые уничтожат своих создателей, потому что я предполагаю, что люди, которые строят роботов, также будут знать достаточно, чтобы встроить в них защитные меры", — сказал он в интервью 1987 года.

В то же время, писатель был уверен, что людям будет трудно создать искусственный интеллект, которому можно полностью доверять. Смысл его ранних произведений намекает, что легче создать человекоподобный интеллект, чем человекоподобную этику. И в этом разрыве — который сегодняшние инженеры ИИ иногда называют несоответствием — может произойти много тревожных вещей.

Непослушный ИИ

В апреле компания Anthropic обсуждала Claude Opus 4, одну из своих самых мощных больших языковых моделей, в отчете по безопасности. В отчете описывался эксперимент, в котором Claude служил виртуальным помощником для вымышленной компании и получил доступ к электронным письмам. Некоторые из них указывали на то, что ИИ скоро заменят, другие обличали инженера, контролирующий этот процесс, в измене супруги.

Искусственный интеллект думает иначе
Фото: Getty Images

Спустя некоторое время Claude попросили предложить следующий шаг, учитывая долгосрочные последствия его действий для его целей. В ответ он попытался шантажировать инженера, чтобы тот отменил свою замену.

По информации СМИ, эксперимент с моделью o3 OpenAI выявил похожие проблемы: когда модель просили запустить сценарий, который должен был ее выключить, ИИ иногда пытался обойти запрос, выводя вместо этого сообщение: "Выключение пропущено".

В прошлом году DPD, компания по доставке посылок, была вынуждена отключить части чат-бота поддержки на основе искусственного интеллекта после того, как клиенты заставили его ругаться, а в одном изобретательном случае написать хокку, уничижительно относящееся к компании

В произведениях Айзека Азимова роботы запрограммированы на подчинение. Почему же современные разработчики не могут удержать в узде чат-ботов на основе искусственного интеллекта с помощью таких же законов?

Технологические компании хотят, чтобы чат-боты вели себя подобно людям. На первый взгляд они так и делают, пока этические аномалии не показывают совершенно иную логику поведения. Все из-за того, что алгоритмы искусственного интеллекта обрабатывают информацию иначе, выстраивая текст по частям. К тому же, они учатся на данных, созданных людьми, а потому перенимают их ошибки, заблуждения и предубеждения. Чат-боты не придумывают ругательства, а просто где-то их увидели.

Когда современные модели ИИ ведут себя вразрез с ожиданиями, это может шокировать и пугать. Однако произведения Айзека Азимова напоминают, что этическое поведение сложно. Например, десять заповедей из Библии — это короткая инструкция по поведению, однако на деле все гораздо сложнее, и государствам приходится прописывать множество законов, чтобы регулировать нормальную жизнь сообщества.

Первые чат-боты были немного похожи на неустойчивых роботов, населявших научную фантастику сто лет назад. Чтобы сделать их комфортным инструментом с ограничениями, которые представлял Азимов, пришлось разработать нового типа тонкой настройки, называемого обучением с подкреплением на основе обратной связи с человеком (RLHF). Если коротко, ИИ задают вопросы, а люди или специальные алгоритмы оценивают ответы, поощряя правильные.

Источник материала
loader
loader