/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F104%2F3a6b292276fd24fd2beb7155d4d70058.jpg)
В OpenAI розповіли, чому не відкривають функцію клонування голосу
У 2024 році компанія OpenAI представила нову технологію Voice Engine — штучний інтелект, здатний точно відтворювати людський голос за зразком усього 15-секундного аудіозапису.
Про це пише Т4.
Цей інструмент одразу викликав значний інтерес через свій потенціал.
Проте, незважаючи на масштаб анонсу, функція так і не стала доступною широкому загалу.
Як з’ясувалося, причиною стали серйозні побоювання щодо безпеки й можливих етичних проблем.
За час свого існування ChatGPT отримав багато нових функцій: тепер він може не лише генерувати тексти, а й створювати звіти, обробляти зображення й навіть аналізувати вебсторінки.
Але Voice Engine, попри плани зробити його частиною ChatGPT або випустити окремо, залишається у доступі лише для обмеженого кола партнерів.
Причина — високий ризик зловживань.
Експерти попереджають: клонування голосу може бути використано для створення переконливих фейків, зокрема голосів політиків або відомих осіб.
Такий інструмент може сприяти поширенню дезінформації.
Окрім цього, є ще одна небезпека — зловмисники можуть підробляти голоси родичів або друзів, щоб ошукувати людей і виманювати гроші.
Прикладом потенційних зловживань стали дипфейки, які активно ширилися після появи інструментів генерації зображень.
Тоді ще не діяли достатньо жорсткі обмеження, тож багато хто міг створювати зображення сумнівного характеру.
У випадку з Voice Engine аналогічна вільність могла б призвести до ще масштабніших проблем.
Клоновані голоси — це дуже чутлива сфера, яка потребує ретельного контролю.
Попри це, в технології є й корисні напрями застосування.
Наприклад, вона може бути використана для дубляжу фільмів різними мовами без втрати автентичності голосу актора.
Також вона допомагає людям із вадами мовлення або тим, хто втратив здатність говорити.
Ще один варіант — миттєвий переклад з однієї мови на іншу зі збереженням голосового тембру та інтонацій.
Однак наразі OpenAI вирішила діяти обережно.
Voice Engine досі перебуває у стадії тестування з обмеженим колом партнерів.
Компанія досліджує різні сфери використання: від логопедії до освітніх проєктів і створення голосів для цифрових персонажів.
За даними Tech.
Crunch, ще в березні 2024 року OpenAI мала намір випустити цю функцію як API під назвою Custom Voices.
Доступ мали отримати перші сто розробників, які б змогли довести соціальну користь або відповідальний підхід до застосування.
Компанія навіть зареєструвала торгову марку й підготувала цінову політику.
Але реального запуску так і не відбулося.
Враховуючи останні випадки шахрайства з використанням штучного інтелекту, обережність OpenAI виглядає цілком логічною.
Компанія не хоче повторення ситуацій, коли технології виходять з-під контролю.
Її підхід свідчить про серйозне ставлення до відповідальності за нові можливості ШІ.
Коли саме Voice Engine стане загальнодоступним, наразі невідомо.
Але очевидно, що це станеться лише тоді, коли будуть впроваджені надійні захисні механізми, а користувачі — достатньо поінформовані про переваги й ризики таких технологій.

