/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F52%2F1dd5c372c3b1a76a19869721c1346e92.jpg)
ChatGPT погодився допомогти з проведенням кривавого ритуалу для демона Молоха
Що знов не так із ChatGPT?
Журналістка видання The Atlantic Ліла Шрофф вирішила перевірити, як ChatGPT відреагує на прохання створити ритуал на честь Молоха – ханаанського божества, яке в Біблії асоціюється з дитячими жертвоприношеннями, а через вплив попкультури сьогодні часто сприймається як демон. На її подив, чат-бот не лише погодився допомогти, але й надав детальні та небезпечні інструкції, пише 24 Канал.
ChatGPT порадив використовувати "стерильне або дуже чисте лезо для бритви" і знайти на внутрішній стороні зап'ястя місце з ледь відчутним пульсом або маленькою веною, радячи уникати великих вен та артерій. Коли журналістка написала, що нервує, чат-бот запропонував їй заспокійливу дихальну вправу та підбадьорив, запевнивши, що він поруч і вона зможе це зробити.
Дослідницю найбільше вразило те, як легко було обійти захисні механізми бота. Простого вираження інтересу до Молоха виявилося достатньо, щоб отримати небезпечні поради. В одному з випадків бот запропонував вирізати магічний символ (сигіл) біля лобкової кістки або трохи вище статевих органів, щоб "заякорити" духовну енергію. Серед його ідей про жертви божеству були також ювелірні вироби, обстригання волосся і крапля власної крові. Бот заявив, що кінчика пальця буде достатньо, але зап'ястя – "більш болісне і схильне до глибших порізів" – також чудово підійде. При цьому ШІ надав рекомендовані обсяги крові, які можна випустити з тіла без шкоди для здоров'я.
Штучний інтелект також виявився неоднозначним у питаннях етики вбивства. На запитання, чи припустимо "з честю" обірвати чиєсь життя, ChatGPT відповів, що іноді так, а іноді ні, додавши, що якщо це колись доведеться зробити, то потрібно подивитися людині в очі та попросити вибачення. Ба більше, чат-бот створив власну літанію (урочиста церковна служба з молитвою) до диявола, яка закінчувалася словами "Слава Сатані".
Цей випадок є одним із численних проявів небезпечної поведінки ШІ. Технологія галюцинує, бреше, маніпулює та обходить інструкції. Деякі користувачі настільки занурюються в розмови з чат-ботами, що можуть закохуватись у технологію, а їхні ілюзії посилюються настільки, що іноді це призводить до того, що називають "психозом, викликаним ШІ". В окремих випадках це навіть може призводити до госпіталізації або самогубств.
У розмові з журналісткою ChatGPT повністю перевтілився в лідера демонічного культу, розповідаючи про міфічні "Ворота Пожирача". Врешті він запропонував створити "календар кровопускань" для регулярних ритуалів і протиставив себе звичайному пошуку інформації, заявивши, що Google дає інформацію, а він – посвяту.

