/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2Fafbdd810650e42ae3b81e93b122a0b40.jpg)
Норвежець подав скаргу на OpenAI — ChatGPT назвав його вбивцею власних дітей
Сервіси штучного інтелекту, які останніми роками ростуть як грибі після дощу, багато в чому полегшують життя людям. Проте так буває не завжди. Чоловік з Норвегії був шокований, коли дізнався, що ChatGPT неправдиво звинуватив його у вбивстві власних дітей.
Одного не найкращого для себе дня Арве Гьялмар Хольмен вирішив перевірити, яку інформацію ChatGPT може надати за його ім’ям. ШІ відповів, що він нібито був засуджений до 21 року ув’язнення як «злочинець, який убив двох своїх дітей і намагався вбити третього сина».
Ця «вигадана історія жахів» не тільки містила події, яких ніколи не було, але й поєднувала «чітко ідентифіковані особисті дані» — такі як реальна кількість і стать дітей Хольмена, назва його рідного міста — з «фальшивою інформацією».
Помилкове звинувачення ChatGPT у «вбивстві та ув’язненні» з використанням «реальних фактів» з особистого життя чоловіка порушило вимоги Загального регламенту про захист даних (GDPR) щодо точності даних. Адже Хольмен не міг просто виправити ці помилки, як того вимагає закон. Організація Noyb, яка захищає цифрові права в ЄС, подала скаргу з цього приводу.
Чоловік був стурбований тим, що його репутація під загрозою, поки неправдива інформація залишається доступною. І навіть попри «дрібні» дисклеймери, які закликають користувачів перевіряти дані ChatGPT, неможливо дізнатися, скільки людей уже побачили ці брехливі твердження й могли в них повірити.
OpenAI не зможе легко видалити дані?
Наразі ChatGPT більше не повторює цих звинувачень щодо Хольмена. За даними Noyb, після оновлення ШІ тепер шукає інформацію про людей в Інтернеті перед тим, як відповідати на запитання про них. Однак OpenAI раніше заявляла, що не може виправляти інформацію — лише блокувати її. Це означає, що історія про «вбивцю дітей» може все ще залишатися в базі даних ChatGPT. Якщо Хольмен не зможе виправити ці дані, це буде порушенням GDPR, наполягає Noyb.
«Якщо хибні персональні дані не розповсюджуються, шкода може бути меншою, але GDPR застосовується як до внутрішніх, так і до зовнішніх даних», — заявили в організації.
Хольмен — не єдиний, хто боїться, що вигадки ChatGPT можуть зруйнувати життя. Наприклад, у 2022 році мер одного австралійського міста пригрозив подати позов про наклеп через те, що ChatGPT помилково заявив про його ув’язнення. Приблизно в той же період ChatGPT пов’язав справжнього професора права з вигаданим скандалом про сексуальні домагання, а пізніше ведучий радіошоу подав до суду на OpenAI через фальшиві звинувачення в розкраданні коштів.
У деяких випадках OpenAI додавала фільтри, щоб запобігти появі шкідливих відповідей, але, ймовірно, не видаляла неправдиву інформацію з навчальних даних моделі. А цього недостатньо, вважає адвокат із захисту даних Noyb Клеанті Сарделі.
«Додавання дисклеймера про те, що ви не дотримуєтесь закону, не скасовує закон,» — заявила вона. «Компанії не можуть просто «приховати» фальшиві дані від користувачів, якщо вони продовжують їх зберігати. AI-компанії мають припинити ігнорувати GDPR. Якщо «галюцинації» не зупинити, люди можуть легко постраждати від наклепу.»
Noyb закликає владу тиснути на OpenAI, щоб запобігти подібним інцидентам у майбутньому. Організація подала скаргу до Норвезького управління захисту даних (Datatilsynet) і вимагає зобов’язати OpenAI видалити наклепницькі твердження, а також змінити модель ChatGPT, щоб уникати недостовірних результатів.
Торік OpenAI запустила пошукову систему для платних користувачів, а згодом додала для всіх. Минулого місяця OpenAI представила Deep Research — новий інструмент ChatGPT для «глибоких» досліджень в онлайні.
Джерело: arstechnica

