"Крестные родители" искусственного интеллекта опасаются, что он может выйти из-под контроля
"Крестные родители" искусственного интеллекта опасаются, что он может выйти из-под контроля

"Крестные родители" искусственного интеллекта опасаются, что он может выйти из-под контроля

"Крестные родители" искусственного интеллекта опасаются, что он может выйти из-под контроля, поэтому предлагают возложить ответственность за ущерб от него на компании-разработчики.

Мощные системы искусственного интеллекта угрожают социальной стабильности, и компании, занимающиеся искусственным интеллектом, должны нести ответственность за ущерб, причиненный их продуктами.

Об этом предупреждает группа старших экспертов накануне саммит по безопасности ИИ, пишет The Guardian.

Неназванный соавтор политических предложений от 23 экспертов сказал, что было "крайне опрометчиво" разрабатывать все более мощные системы ИИ, прежде чем понять, как сделать их безопасными.

"Пора серьезно подойти к передовым системам искусственного интеллекта. Это не игрушки. Увеличение их возможностей, пока мы не поймем, как сделать их безопасными, абсолютно безрассудно", — сказал Стюарт Рассел, профессор информатики Калифорнийского университета в Беркли.

Он добавил, что сейчас существует больше правил вокруг магазинов с едой, чем вокруг компаний искусственного интеллекта. Поэтому в документе-предложении авторы обратились с призывом принять ряд стратегий, в частности:

  • правительства должны выделять одну треть своих исследований и разработок искусственного интеллекта, а компании – одну треть своих научно-исследовательских ресурсов на безопасное и нравственное использование систем;
  • предоставление независимым аудиторам доступа в лаборатории ИИ;
  • создание лицензионной системы для создания передовых моделей;
  • компании с искусственным интеллектом должны принять специальные меры безопасности, если в их моделях обнаружены опасные возможности;
  • возложение ответственности на технологические компании за предполагаемый и предохранительный ущерб от их систем ИИ.

Следует добавить, что на саммит безопасности по ИИ также будут приглашены и другие соавторы документа, в частности Джеффри Хинтон и Йошуа Бенгио, это двое из трех "крестных родителей искусственного интеллекта".

В этом году Хинтон уволился из Google из-за "экзистенциального риска", который создает цифровой интеллект. Бенджио, профессор информатики Монреальского университета, присоединился к нему и тысячам других экспертов, подписав письмо с призывом к мораторию на гигантские эксперименты ИИ.

Авторы предупредили, что небрежно разработанные системы искусственного интеллекта угрожают "усилить социальную несправедливость, взорвать наши профессии, взорвать социальную стабильность, способствовать широкомасштабной преступной или террористической деятельности и ослабить наше общее понимание реальности, которая является основой общества".

Они отметили, что текущие системы искусственного интеллекта уже демонстрируют признаки тревожных возможностей, указывающих на путь появления автономных систем, которые могут планировать, преследовать цели и "действовать в мире". По словам экспертов модель GPT-4 AI, которая работает в инструменте ChatGPT, разработанном американской фирмой OpenAI, позволяет проектировать и проводить химические эксперименты, просматривать веб-страницы и использовать программные инструменты, включая другие модели AI.

В документе-предложениях говорится, что "если мы создадим высокоразвитый автономный ИИ, мы рискуем создать системы, которые будут автономно преследовать нежелательные цели, и мы не сможем держать их под контролем".

Среди других политических рекомендаций в документе есть:

  • обязательная отчетность о случаях, когда модели демонстрируют тревожное поведение;
  • введение мер по предотвращению воспроизведения опасных моделей;
  • предоставление регуляторам полномочий приостанавливать разработку моделей искусственного интеллекта, демонстрирующих опасное поведение.

На следующей неделе саммит по вопросам безопасности будет сосредоточен на угрозах существования, создаваемых искусственным интеллектом, в том числе относительно помощи в разработке нового биологического оружия и избежания контроля человека. Однако, несмотря на то, что на саммите будут определены риски, связанные с искусственным интеллектом, и меры по борьбе с этой угрозой, создание глобального регулирующего органа пока не ожидается.

Некоторые эксперты по искусственному интеллекту утверждают, что страхи относительно угрозы существованию людей преувеличены. Так, главный ученый по искусственному интеллекту в Meta Марка Цукерберга Янн ЛеКун убежден, что мнение, что искусственный интеллект может уничтожить людей, является "абсурдным".

Тем не менее авторы документа о политике утверждают, что если бы передовые автономные системы искусственного интеллекта действительно появились сейчас, мир не знал бы, как сделать их безопасными или провести тесты на их безопасность.

"Даже если бы мы это сделали, большинству стран не хватает институтов, чтобы предотвратить неправильное использование и поддерживать безопасную практику", — добавили они.

  • Ученые совершили "ужасное" открытие на дне Красного моря: что там обнаружили (фото)
  • Неизведанное до сих пор явление: в глубинах Вселенной произошел сверхмощный взрыв энергии
  • В США стартовала вторая по мощности ракета в мире: как это было (фото, видео)
Источник материала
Упоминаемые персоны
loader
loader