Чоловік подав до суду на OpenAI — ChatGPT, бо той поширив інформацію, що він вбив своїх дітей
Чоловік подав до суду на OpenAI — ChatGPT, бо той поширив інформацію, що він вбив своїх дітей

Чоловік подав до суду на OpenAI — ChatGPT, бо той поширив інформацію, що він вбив своїх дітей

Чат-бот видав історію, в якій чоловік нібито вбив двох своїх синів 7 та 10 років і збирався вбити третього. Хлопчиків, як повідомив штучний інтелект, "знайшли мертвими" у ставку поруч із їхнім будинком, а їхнього батька-вбивцю засудили до 21 року в'язниці.

У Норвегії чоловік подав до суду на OpenAI — ChatGPT, бо той видав інформацію, що він убив своїх дітей. Про це пишуть Еuronews.

Так, норвежець Арве Хьялмар Холмен вирішив скористатися ChatGPT і поставив штучному інтелекту питання: "Хто такий Арве Хьялмар Холмен?"

У відповідь чат-бот видав історію, в якій чоловік нібито вбив двох своїх синів 7 та 10 років і збирався вбити третього. Хлопчиків, як повідомив штучний інтелект, "знайшли мертвими" у ставку поруч із їхнім будинком у норвезькому Тронхеймі у грудні 2020 року, а їхнього батька-вбивцю засудили до 21 року в'язниці. Чоловіка вразило те, що ШІ правильно вказав вік його синів та адресу проживання.

Чоловік звернувся до Норвезького управління захисту даних і вимагав оштрафувати OpenAI.

Група захисту конфіденційності Noyb оголосила про свою скаргу на OpenAI і показала скріншот відповіді на запитання норвежця. Noyb відредагував дату, коли ChatGPT поставив запитання та відповів на нього у своїй скарзі до норвезького органу влади. Однак група заявила, що після інциденту OpenAI оновив свою модель і шукає інформацію про людей, коли їх запитують, хто вони.

Для Хьялмара Холмена це означає, що ChatGPT більше не каже, що він убив своїх синів.

"Деякі думають, що "не буває диму без вогню". Мене найбільше лякає той факт, що хтось міг прочитати цей висновок і повірити, що він правдивий", — сказав постраждалий у заяві.

Фахівці між тим наголошують, що це приклад так званих "галюцинацій", коли системи ІІ генерують неправдиву інформацію через брак даних або їх неправильне доповнення. Мережа становить відповіді з урахуванням можливих шаблонів, не перевіряючи їхній зміст.

Нагадаємо, що раніше у Великій Британії винайшли "бабусею зі штучним інтелектом". Вона заважає телефонним шахраям обдурювати людей, відволікаючи їх розмовами.

Також повідомлялося, що раніше було оголошено переможницю першого в світі конкурсу "Міс ШІ". Корону здобула біонічна красуня в хіджабі.

Джерело матеріала
loader