Штучний інтелект знищить людство через 30 років? Що прогнозує Нобелівський лауреат і батько ШІ
Штучний інтелект знищить людство через 30 років? Що прогнозує Нобелівський лауреат і батько ШІ

Штучний інтелект знищить людство через 30 років? Що прогнозує Нобелівський лауреат і батько ШІ

Напередодні нового 2025 року британсько-канадський вчений Джефрі Гінтон озвучив тривожний прогноз щодо знищення людства штучним інтелектом у найближчі 30 років. Відомий як один із "батьків" штучного інтелекту, Гінтон попередив, що темпи розвитку цієї технології значно перевершують очікування. За його словами, ймовірність того, що ШІ може спричинити зникнення людства протягом наступних трьох десятиліть, зросла до 10 – 20%.

Гінтон, який цього року отримав Нобелівську премію з фізики за внесок у розвиток штучного інтелекту, раніше оцінював цей ризик у 10%.

24 Канал зібрав найцікавіше з висловлювань Гінтона та прогнозів про штучний інтелект у найближчому майбутньому.

Коли ШІ може знищити людство

У грудні, виступаючи в програмі Today на радіо BBC Radio 4, Гінтон заявив, що ризики знищення людства штучним інтелектом зростають – тепер це становить 10 – 20% у найближчі 30 років.

Нам ніколи раніше не доводилося мати справу з речами, розумнішими за нас самих. Єдиний приклад, який приходить на думку, – це мати й немовля. Еволюція витратила багато зусиль, щоб дозволити немовлятам контролювати матерів. Але це рідкісний випадок,
– пояснив свою оцінку Гінтон.

На думку Гінтона, у порівнянні з потужними системами ШІ люди будуть схожі на трирічних дітей.

Уявіть себе поруч із трирічною дитиною. Це будемо ми,
– додав він.

Штучний інтелект, здатний виконувати завдання, які зазвичай потребують людського інтелекту, вже вийшов за межі очікувань навіть своїх розробників. Торік Гінтон залишив свою посаду в Google, щоб вільніше говорити про ризики безконтрольного розвитку ШІ.

Він висловлював занепокоєння, що штучний інтелект можуть використати для навмисного завдання шкоди. Особливо тривожить експерта перспектива створення систем штучного загального інтелекту, які можуть перевищити інтелект людини й вийти з-під контролю.

Розмірковуючи про досягнення ШІ, Гінтон визнав, що нинішній рівень розвитку технології значно перевищує його очікування.

Гінтон прогнозує, що системи ШІ, які перевершать людський інтелект, з'являться протягом наступних 20 років.

Мене хвилює те, що невидима рука не захистить нас. Тому просто залишити це на користь великих компаній недостатньо, щоб переконатися, що вони розробляють це безпечно. Єдине, що може змусити ці великі компанії проводити більше досліджень безпеки, — це державне регулювання,
– вважає вчений.

Водночас Янн ЛеКун, один із тріо "батьків ШІ" та головний науковець у галузі ШІ в компанії Meta Марка Цукерберга, вважає, що загроза від штучного інтелекту перебільшена. Він навіть припускає, що технологія "може врятувати людство від знищення".

За що Гінтон отримав Нобелівську премію у 2024 році

Лауреатами Нобелівської премії з фізики 2024 року стали Джон Гопфілд (Принстонський університет) та Джефрі Гінтон (Університет Торонто) – за фундаментальні відкриття у сфері машинного навчання, які стали основою сучасного штучного інтелекту. За словами Марка Пірса з Нобелівського комітету, їхня робота заклала основи того, що сьогодні ми знаємо як штучний інтелект. Після нагородження Гінтон зізнався, що був вражений отриманням нагороди. На його думку, впровадження ШІ буде порівняно із промисловою революцією. "Але замість того, щоб перевершити людей у фізичній силі, штучний інтелект перевершить нас у розумових здібностях", – зазначив вчений.

Цікаво, що Гінтон став одним із лауреатів Нобелівської премії, які попередили про небезпеку своїх відкриттів. Серед інших вчених, які передбачили зворотний бік своїх винаходів – Фредерік Жоліо (перші штучно створені радіоактивні атоми), сер Александр Флемінг (антибіотики), Пол Берг (генна інженерія, попередив про небезпеку генної терапії та біологічної війни).

Як штучний інтелект змінить світ у 2025 році

На 2025 рік великі технологічні та консалтингові компанії, зокрема Deloitte, Cisco та IBM, однозначно прогнозують розширення використання штучного інтелекту.

Так, у Cisco прогнозують, що мережеві збої через людські помилки зникнуть, адже у 2025 році ШІ-інструменти зможуть усунути ці проблеми, автоматизуючи налаштування мереж. Водночас наступного року бізнесам доведеться боротися з ризиками, серед яких – атаки на генеративні ШІ-системи та загрози від квантових обчислень, які можуть зламати традиційні методи шифрування.

Серед інших прогнозів Deloitte, Cisco та IBM такі:

  • У 2025 році штучний інтелект перестане бути лише допоміжним інструментом і стане повноцінним партнером. Новий формат Agentic AI — адаптивних помічників-агентів, здатних аналізувати поведінку користувачів і приймати самостійні рішення — відкриє перед бізнесом нові горизонти. Але разом із цим зросте потреба у впровадженні етичних стандартів, які забезпечать прозорість і справедливість рішень, прийнятих ШІ.
  • До кінця 2025 року чверть компаній, які вже впровадили генеративний ШІ, інтегрують у свої системи AI-агентів. А до 2027 року їхня частка зросте до 50%. Ці агенти зможуть не лише автоматизувати рутинні процеси, але й стати стратегічними партнерами у прийнятті бізнес-рішень.
  • Інтеграція генеративного ШІ прискорить розвиток "розумних" пристроїв. Уже у 2025 році понад 30% нових смартфонів і близько 50% ноутбуків будуть оснащені функціями ШІ, що працюють локально. Це означає швидший і персоналізований доступ до можливостей ШІ без необхідності підключення до хмари.
  • Однією з ключових тенденцій 2025 року стане інтеграція ШІ-гуманоїдів у команди працівників. Компанії будуть змушені створювати умови для ефективної співпраці між людьми та машинами. Це потребуватиме нових підходів до кібербезпеки: від захисту даних до запобігання хакерським атакам на самих роботів.

Керівникам доведеться знайти баланс між використанням можливостей ШІ та збереженням "людського підходу" у роботі. Вже сьогодні гуманоїдних роботів пропонують технологічні компанії як у США (Tesla), так і в Китаї, демонструючи глобальну зацікавленість у розвитку цієї інновації.

Американський психолог та дослідник ШІ Гері Маркус у матеріалі Politico про "чорних лебедів" 2025 року прогнозує, що однією з несподіванок 2025 року може стати найбільша в історії кібератака, яка може тимчасово вивести з ладу значну частину світової інфраструктури.

Це може статися як через вимагання викупу, так і з метою маніпуляції людьми для отримання прибутків від спекуляцій на глобальних ринках.

У 2025 році ситуація з кіберзлочинністю може значно погіршитися через чотири ключові фактори:

  • Зростання популярності генеративного штучного інтелекту та зниження його вартості роблять цю технологію ідеальним інструментом для кібератак. Попри схильність до помилок і "галюцинацій", генеративний ШІ чудово створює правдоподібні тексти (наприклад, для фішингових атак) і діпфейкові відео практично без витрат. Це дозволяє злочинцям значно розширити масштаби своїх атак.
  • Вразливість великих мовних моделей. Великі мовні моделі легко піддаються "зламу" через техніки на кшталт атак на основі ін’єкції запитів (prompt-injection attacks). Наразі ефективного розв'язання цієї проблеми не існує.
  • Небезпека автогенерованого коду. Генеративні ШІ дедалі частіше використовуються для створення коду. Проте в деяких випадках програмісти, які застосовують ці інструменти, не повністю розуміють написаний код. Як показала практика, автогенерований код може містити нові вразливості, які згодом стають лазівками для атак.
  • Послаблення регуляцій у США. Нова адміністрація США налаштована на максимальну дерегуляцію, скорочення витрат і навіть публічну критику працівників. Це може демотивувати федеральних службовців і змусити багатьох шукати інші робочі місця. Як наслідок, якість та обсяги розслідувань і правозастосування, ймовірно, значно знизяться. Така ситуація зробить світ ще більш вразливим до масштабних і зухвалих кібератак.

На думку Емі Вебб, гендиректорки Future Today Institute та професорки стратегічного прогнозування Нью-Йоркського університету (Stern School of Business), ще одна загроза, пов'язана з ШІ, – атака на фінансові ринки.

У розпал дерегуляції та скорочення урядових структур технократи адміністрації президента Дональда Трампа знижують пріоритетність планування сценаріїв. Тим часом ботмережі вже довели, наскільки легко та ефективно можна використовувати складні алгоритми штучного інтелекту для поширення дезінформації. Зі завершенням виборів у 2025 році зловмисники та недружні держави спрямовують свої атаки на нову мету – фінансові ринки.

Штучний інтелект аналізує великі обсяги даних, зокрема фінансові звіти, ринкову волатильність і настрої в соціальних мережах, щоб визначити вразливі компанії. Потім запускається кампанія дезінформації: створюються чутки, фейкові новини та докази, щоб спровокувати ринкову паніку. ШІ автоматично генерує сценарії для оптимізації часу і каналів, а дії зловмисників підсилюються високочастотними трейдами. Це змушує інших учасників ринку діяти схожим чином, спричиняючи масштабний обвал.

Через слабкий регуляторний нагляд і відсутність плану дій уряд не здатен ефективно реагувати. Наслідком стає глобальна фінансова паніка, яку важко зупинити через складність і швидкість таких атак,
– описує Вебб сценарій атаки.

Поки експерти прогнозують невтішні сценарії на десятки років, події розгортаються так, що саме існування людства за 20 – 30 років уже буде оптимістичним. Загроза ядерної війни, загарбницьких війн, популізму та кліматичної кризи залишає людству все менше шансів насолоджуватися похмурими прогнозами про небезпеку штучного інтелекту.

Источник материала
loader
loader