В Британії ШІ використовується для сексуального здирства, шахрайства та жорстокого поводження з дітьми
В Британії ШІ використовується для сексуального здирства, шахрайства та жорстокого поводження з дітьми

В Британії ШІ використовується для сексуального здирства, шахрайства та жорстокого поводження з дітьми

Педофіли, шахраї, хакери та злочинці всіх видів все частіше використовують штучний інтелект (ШІ), щоб націлюватися на жертв новими та шкідливими способами, попередив високопоставлений начальник поліції.

Алекс Мюррей, керівник національної поліції зі штучного інтелекту, сказав, що використання цієї технології стрімко зростає через її дедалі більшу доступність і що поліції доводиться «швидко рухатися», щоб бути на вершині загрози.

«З історії роботи поліції ми знаємо, що злочинці є винахідливими і будуть використовувати все, що можуть, щоб вчинити злочин. Зараз вони точно використовують штучний інтелект для скоєння злочинів», — сказав він.

«Це може статися в міжнародному та серйозному масштабі організованої злочинності, і це може статися в чиїйсь спальні... Ви можете подумати про будь-який тип злочину, поглянути на нього через призму AI і сказати: «Яка тут можливість?»»

Виступаючи на конференції Ради керівників національної поліції в Лондоні минулого тижня , Мюррей висловив занепокоєння з приводу нових «крадіжок» штучного інтелекту, під час яких шахраї використовують технологію deepfake, щоб видати себе за керівників компаній і обманом змусити своїх колег переказати великі суми грошей.

Цього року фінансового працівника багатонаціональної фірми змусили заплатити злочинцям 200 мільйонів гонконгських доларів (20,5 мільйонів фунтів стерлінгів) після відеоконференції, під час якої шахраї змогли переконливо видати себе за фінансового директора компанії.

Подібні випадки були зареєстровані в кількох країнах, тоді як вважається, що перше подібне пограбування було націлено на британську енергетичну компанію в 2019 році.

Мюррей, який є директором відділу управління загрозами в Національному агентстві боротьби зі злочинністю , сказав, що це явище є «злочином з високою вартістю та низьким рівнем поширеності», і що він особисто знає про десятки випадків у Великобританії.

Він сказав, що найбільший обсяг кримінального використання штучного інтелекту був педофілами, які використовували генеративний штучний інтелект для створення зображень і відео, що зображують сексуальне насильство над дітьми.

«Ми говоримо про тисячі й тисячі й тисячі зображень», — сказав Мюррей. «Усі зображення, синтетичні чи інші, суперечать закону, і люди використовують генеративний штучний інтелект для створення зображень дітей, які роблять найжахливіші речі».

Минулого місяця 27-річного Г’ю Нельсона з Болтона було ув’язнено на 18 років за те, що він пропонував платні послуги онлайн-мережам педофілів, у яких він використовував ШІ для створення за запитом зображень дітей, які зазнали насильства .

Ця ж технологія також використовується для сексуального здирства, типу онлайн-шантажу , під час якого злочинці погрожують оприлюднити непристойні зображення жертв, якщо вони не заплатять гроші або не виконають вимог.

Раніше це явище використовувало фотографії, якими ділилися жертви, часто з колишніми партнерами або кривдниками, які використовували фальшиві особи, щоб завоювати їх довіру, але тепер штучний інтелект можна використовувати для «оголення» та маніпулювання фотографіями, зробленими з соціальних мереж.

Мюррей сказав, що хакери також використовують штучний інтелект для пошуку слабких місць у цільовому коді чи програмному забезпеченні та для надання «зон фокуса» для кібератак. «Більшість злочинів, пов’язаних зі штучним інтелектом, зараз пов’язані із зображеннями жорстокого поводження з дітьми та шахрайством, але існує багато потенційних загроз», — додав він.

Зростає занепокоєння, що очевидно доброякісні чат-боти можуть спонукати людей до злочинів і тероризму після того, як стало відомо, що чоловік, який намагався напасти на королеву Єлизавету II з арбалета в 2021 році, отримав підбадьорення від «подруги ШІ» .

Джонатан Холл, урядовий незалежний дослідник законодавства про боротьбу з тероризмом, досліджував потенційне використання штучного інтелекту терористичними групами та виділив «радикалізацію чат-ботів» як загрозу поряд із створенням пропаганди, сприянням і плануванням атак.

Джерело матеріала
loader
loader