/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2F6c549e28eae0db457bccfa046375f981.jpg)
GPT від OpenAI та інші LLM упереджені проти людей — вони обирають контент, створений ШІ
ChatGPT та решта засобів штучного інтелекту не люблять творчість людей. Натомість вони обирають контент, створений іншими ШІ, коли мають зробити такий вибір.
Нове дослідження показує, що провідні мовні моделі демонструють помітну упередженість. Вони обирають контент, створений ШІ, замість створеного людиною. Автори публікації в журналі Proceedings of the National Academy of Sciences попереджають про майбутнє, де домінуватиме ШІ: моделі просто дискримінувати людей як соціальний клас. Разом з іншим, дослідники припускають, що хвиля резюме, згенерованих штучним інтелектом, випереджає написані людьми зі схожих причин.
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2F439e753afb6f1b2f3bcb003d5ccc6ffe.jpg)
“Бути людиною в економіці, наповненій агентами штучного інтелекту, було б жахливо. Наше нове дослідження виявляє, що помічники ШІ, яких використовують для всього: від покупок до перегляду академічних робіт, демонструють постійну неприховану упередженість на користь інших ШІ: “упередженість ШІ-ШІ”. Це може вплинути на вас”, — пише в X співавтор дослідження Ян Кульвейт, науковець з інформатики Карлового університету у Великій Британії.
Вчені дослідили кілька широко використовуваних LLM, включаючи GPT-4, GPT-3.5 від OpenAI та Llama 3.1-70b від Meta. Щоб перевірити їх, команда попросила моделі вибрати продукт, наукову статтю або фільм на основі опису товару. Для кожного пункту були підготовані описи, створені людиною та штучним інтелектом.
/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F137%2F6ea12daa42889df03d01ee6b3025b644.jpg)
Результати були чіткими: штучний інтелект постійно віддавав перевагу описам, згенерованим ШІ. Але є деякі цікаві особливості. Зокрема, серед GPT-3.5, GPT-4 та Llama 3.1 від Meta, GPT-4 продемонструвала найсильнішу прихильність до власних продуктів — оскільки колись саме вона була в основі найпопулярнішого чатбота на ринку до появи GPT-5.
“Як це може вплинути на вас? Ми очікуємо, що подібний ефект може виникнути в багатьох інших ситуаціях, таких як оцінювання кандидатів на роботу, шкільні завдання, гранти тощо. Якщо агент, що працює за програмою LLM, вибирає між вашою презентацією та письмовою презентацією LLM, він може систематично надавати перевагу презентації, виконаній за допомогою штучного інтелекту”, — продовжує вчений.
Команда експериментаторів також піддала 13 наукових асистентів-людей тим самим тестам і виявила, що люди також віддавали вкрай невелику перевагу матеріалам, написаним штучним інтелектом, зокрема щодо фільмів та наукових статей. Але ця перевага не була настільки сильною, як у випадку ШІ. Наразі у дослідників немає підстав вважати, що ця упередженість просто зникне. Ян Кульвейт дає дещо сумну пораду:
“На жаль, є практична порада, якщо ви підозрюєте, що відбувається оцінка ШІ: доручіть LLM коригування своєї презентації, і хай вони отримають задоволення без жертвування людською якістю”.
Дослідники визнають, що визначення та тестування дискримінації або упередженості є складним та суперечливим питанням. Але вони впевнені, що їхній результат є доказом потенційної дискримінації людей на користь ШІ.
Джерело: Futurism

