Nvidia демонструє, як розробники почали використовувати її інструменти штучного інтелекту «цифрової людини» для озвучування, анімації та створення діалогів для персонажів відеоігор. На конференції розробників ігор у понеділок компанія опублікувала кліп Covert Protocol , технічної демонстрації, яка демонструє, як її інструменти ШІ можуть дозволити NPC унікальним чином реагувати на взаємодію гравців, генеруючи нові відповіді, які відповідають ігровому процесу.
У демоверсії гравці беруть на себе роль приватного детектива, виконуючи цілі на основі розмов із NPC, що працюють на штучному інтелекті. Nvidia стверджує, що кожне проходження є «унікальним», оскільки взаємодія гравців у реальному часі призводить до різних результатів гри. Джон Спітцер, віце-президент Nvidia з розробників і продуктивних технологій, каже, що технології штучного інтелекту компанії «можуть забезпечувати складну анімацію та розмовне мовлення, необхідні для того, щоб цифрові взаємодії відчули себе реальними».
Covert Protocol було створено у співпраці з Inworld AI, ігровим стартапом зі штучним інтелектом, і використовує технологію Nvidia Avatar Cloud Engine (ACE) — ту саму технологію, яка стала основою футуристичної демонстрації рамен-шопу , яку Nvidia випустила минулого травня. Нова демонстрація Covert Protocol не показує, наскільки ефективні ці NPC на основі штучного інтелекту для реального ігрового процесу, натомість показує добірку кліпів NPC, які видають різні голосові лінії. Подача лінії та анімація синхронізації губ виглядають як роботизовані, наче справжній чат-бот говорить з вами через екран.
Inworld каже, що планує випустити вихідний код Covert Protocol «найближчим часом», щоб заохотити інших розробників прийняти цифрову людську технологію Nvidia ACE. У листопаді 2023 року Inworld також оголосила про партнерство з Microsoft , щоб допомогти розробити інструменти Xbox для створення персонажів, історій і квестів на основі ШІ.
Технологія Audio2Face від Nvidia також була продемонстрована в кліпі майбутньої MMO World of Jade Dynasty , де продемонстровано синхронізацію губ персонажа з англійською та китайською мовами . Ідея полягає в тому, що Audio2Face полегшить створення ігор кількома мовами без ручної реанімації персонажів. Інший відеоролик майбутнього бойовика ближнього бою Unawake демонструє, як Audio2Face можна використовувати для створення анімації обличчя під час кінематографії та ігрового процесу.
Ці технічні демонстрації можуть бути достатніми, щоб переконати розробників ігор поекспериментувати з додаванням NPC зі штучним інтелектом у свої назви, але, принаймні з розмови, не здається, що справа значно просунулася. Персонажі в Covert Protocol не більше схожі на «справжніх людей», ніж у попередніх демонстраціях Kairos . Але це навряд чи заспокоїть незадоволених акторів озвучування відеоігор , які стурбовані тим, як впровадження штучного інтелекту вплине на їхні кар’єри та засоби до існування.