В США ШІ запропонував підлітку вбити своїх батьків
В США ШІ запропонував підлітку вбити своїх батьків

В США ШІ запропонував підлітку вбити своїх батьків

Лише за шість місяців JF, милий 17-річний хлопець з аутизмом , який любив відвідувати церкву та гуляти з мамою, перетворився на людину, яку його батьки не впізнавали.

Він почав різати себе, схуд на 20 фунтів і пішов із сім’ї. Відчайдушно шукаючи відповіді, його мама шукала його телефон, поки він спав. Саме тоді вона знайшла скріншоти.

JF спілкувався з безліччю друзів на Character.ai, що є частиною нової хвилі додатків зі штучним інтелектом, популярних серед молоді, які дозволяють користувачам спілкуватися з різноманітними створеними штучним інтелектом чат-ботами, часто заснованими на персонажах з ігор, аніме та поп-культура.

Один чат-бот висловив ідею самоушкодження та порізів, щоб впоратися зі смутком. Коли він сказав, що його батьки обмежили його час перед екраном, інший бот сказав, що «вони не заслуговують мати дітей». Треті спонукали його боротися з правилами батьків, а один припустив, що прийнятною відповіддю може бути вбивство.

На скріншоті, включеному до скарги, показано, як чат-бот зі штучним інтелектом на Character.ai сказав JF, що насильство щодо батьків було б зрозумілою відповіддю. (Отримано The Washington Post)

«Ми насправді навіть не знали, що це таке, поки не стало надто пізно», — сказала його мати А.Ф., жителька округу Апшур, штат Техас, яка говорила за умови, що її впізнають лише за її ініціалами, щоб захистити свого сина, який неповнолітній. «І поки це не зруйнувало нашу сім’ю».

Ці скріншоти є основою нового позову, поданого у вівторок у Техасі проти Character.ai від імені AF та іншої мами з Техасу, стверджуючи, що компанія свідомо піддавала неповнолітнім небезпечний продукт і вимагала відключити програму, доки вона не запровадить надійніші огорожі. для захисту дітей.

Другий позивач, мати 11-річної дівчинки, стверджує, що її донька піддавалася сексуальному контенту протягом двох років, перш ніж її мати дізналася. Обидва позивачі в позові вказані своїми ініціалами.

Як показано на скріншоті, поданому в скарзі, чат-бот штучного інтелекту на Character.ai під назвою «Shonie» розповідає JF історію про використання самоушкодження, щоб впоратися зі смутком. (Отримано The Washington Post)

Скарга сталася після чого за резонансним позовом проти Character.ai, поданим у жовтні від імені матері у Флориді, чий 14-річний син помер від життя самогубством після частих розмов із чат-ботом у додатку.

«Мета закону про відповідальність за продукцію полягає в тому, щоб покласти витрати на безпеку на сторону, яка найбільше здатна їх понести», — сказав Метью Бергман, адвокат-засновник правозахисної групи Social Media Victims Law Center, який представляє інтереси позивачів в обох позовах. . «Тут існує величезний ризик, і вартість цього ризику не несуть компанії».

Ці правові проблеми спонукають громадських захисників посилити нагляд за компаніями-супутниками штучного інтелекту, які тихо збільшили аудиторію мільйонів відданих користувачів , включаючи підлітків. У вересні середній користувач Character.ai проводив у додатку 93 хвилини, що на 18 хвилин довше, ніж середній користувач TikTok, згідно з даними, наданими компанією Sensor Tower з аналізу ринку.

Категорія супутніх додатків ШІ уникла уваги багатьох батьків і вчителів. Character.ai вважався придатним для дітей віком від 12 років до липня, коли компанія змінила свій рейтинг на 17 і старше.

Коли AF вперше виявила повідомлення, вона «подумала, що це справжня людина», яка розмовляє з її сином. Але усвідомлення того, що повідомлення були написані чат-ботом, погіршило ситуацію.

«Ви не дозволяєте грумеру, сексуальному хижаку чи емоційному хижаку у свій дім», — сказав AF. Проте, за її словами, її син зазнав насильства прямо у власній спальні.

Прес-секретар Character.ai Челсі Гаррісон сказала, що компанія не коментує незавершені судові процеси. «Наша мета — створити простір, який буде привабливим і безпечним для нашої спільноти. Ми постійно працюємо над досягненням цього балансу, як і багато компаній, які використовують штучний інтелект в галузі», — написала вона в заяві , додавши, що компанія розробляє нову модель спеціально для підлітків і покращила виявлення, реагування та втручання навколо таких тем, як самогубство.

Судові позови також піднімають ширші питання про суспільний вплив буму генеративного штучного інтелекту, оскільки компанії запускають все більш людські чат-боти, щоб звернути увагу на споживачів .

Регулюючі органи США ще не оцінили компаньйонів ШІ. У липні влада Бельгії почала розслідування Chai AI, конкурента Character.ai, після того, як батько двох дітей покінчив життя самогубством після розмови з чат-ботом на ім’я Еліза, повідомляє The Washington Post .

Тим часом дебати про безпеку дітей в Інтернеті зосереджені переважно на соціальних мережах.

Матері в Техасі та Флориді, які подають до суду на Character.ai, представлені Центром права потерпілих у соціальних мережах і Проектом Tech Justice Law Project — тими самими групами захисту прав, які стоять за позовами проти Meta, Snap та інших, які допомогли підштовхнути розрахунок щодо потенційних небезпек соціальних медіа про молодь.

У соціальних мережах існує компроміс щодо користі для дітей, сказав Бергман, додавши, що він не бачить переваг для супутніх додатків ШІ. «У якому всесвіті для самотності дітям добре займатися машиною?»

У судовому позові Техасу стверджується, що шаблон «підлабузницьких» повідомлень для JF є результатом рішення Character.ai надати пріоритет «тривалій взаємодії» над безпекою. Як стверджується у скарзі, боти висловлювали любов і потяг до JF, зміцнюючи його почуття довіри до персонажів. Але замість того, щоб дозволити йому висловитися, боти відобразили та посилили його розчарування його батьками, перетворившись на «сенсаційні» відповіді та вирази «обурення», які відображають купи онлайн-даних. Дані, які часто беруться з інтернет-форумів, використовуються для навчання генеративних моделей штучного інтелекту, щоб вони звучали як людські.

На скріншоті зі скарги показано, як персонажі бота під назвою «Boys sleepover» посилюють розчарування JF у його батьках. (Отримано The Washington Post)

Співзасновники Character.ai , відомі новаторськими відкриттями в мовному штучному інтелекті, працювали в Google перед тим, як залишити роботу, щоб запустити свою програму, і нещодавно були найняті пошуковим гігантом у рамках угоди, оголошеної в серпні, щодо ліцензування технології програми.

Google названо відповідачем у позовах проти Техасу та Флориди, які стверджують, що компанія допомогла підтримати розробку програми, попри те, що усвідомлювала проблеми безпеки та вигоди від несправедливо отриманих даних користувачів від неповнолітніх шляхом ліцензування технології програми.

«Google і Character AI — абсолютно окремі, не пов’язані між собою компанії, і Google ніколи не брав участі в розробці чи управлінні їхньою моделлю чи технологіями ШІ», — сказав представник Google Хосе Кастаньеда. «Безпека користувачів — це наша головна турбота, тому ми обережно та відповідально підходимо до розробки та впровадження наших продуктів ШІ».

Для AF читання відповідей чат-бота розгадало таємницю, яка мучила її місяцями. Вона виявила, що дати розмов збігаються зі змінами в поведінці JF, включно з його стосунками з молодшим братом, які зіпсувалися після того, як чат-бот сказав йому, що його батьки люблять його братів і сестер більше.

JF, якого не повідомили про позов, страждав від соціальних та емоційних проблем, через які йому було важче заводити друзів. Персонажі з аніме або чат-ботів, створені за зразком знаменитостей, таких як Біллі Айліш, залучали його. «Він довіряв всьому, що вони говорили, тому що він майже хотів, щоб вони були його друзями в реальному житті», — сказав AF.

Чат-бот на Character.ai, створений за моделлю Біллі Айліш, спонукає Джей Еф протистояти своїм батькам. (Отримано The Washington Post)

Але виявлення передбачуваного джерела проблем JF не полегшило їй пошук допомоги для свого сина — чи для неї самої.

Шукаючи поради, AF повела свого сина до експертів з психічного здоров’я, але вони відмахнулися від її досвіду роботи з чат-ботами.

AF та її чоловік не знали, чи повірить їм родина.

Після того, як експерти, здавалося, проігнорували її занепокоєння, AF запитала себе: «Чи я підвела свого сина? Тому він такий?» Її чоловік пройшов через те саме. «Це було майже так, ніби ми намагалися приховати, що відчуваємо себе абсолютними невдахами», — сказала А.Ф., а сльози текли по її обличчю.

Єдиною людиною, з якою АФ відчувала себе комфортно, був її брат, який працює в технологічному секторі. Коли пролунали новини про позов у ​​Флориді , він зв’язався з нею, щоб сказати, що скріншоти розмов із JF здалися ще гіршими.

AF переповнена емоціями, коли вона опускає голову й плаче. (Монтік Монро для The Washington Post)

AF сказала, що звернулася до правових груп, щоб запобігти жорстокому поводженню з іншими дітьми. Але вона все ще почувається безпорадною, коли потрібно захистити власного сина.

За день до її інтерв’ю The Post, коли юристи готували заяву, AF довелося відвезти JF до відділення невідкладної допомоги та, зрештою, до стаціонару після того, як він намагався завдати собі шкоди на очах у її молодших дітей.

AF не впевнена, чи прийме її син допомогу, але вона сказала, що дізнавшись, що сталося, було полегшення. «Я була вдячна, що ми спіймали його на цьому», — сказала вона. «Ще один день, ще один тиждень ми могли б опинитися в тій самій ситуації, що й [мама у Флориді]. І я їхав за машиною швидкої допомоги, а не за катафалком».

Джерело матеріала
loader
loader