ШІ-модель може реагувати на вхідні аудіосигнали за 320 мілісекунд — так само швидко, як час реакції людини, що робить її здатною до природної розмови.
Компанія OpenAI представила GPT-4o — масштабне оновлення чат-бота ChatGPT, що забезпечує голосову взаємодію в реальному часі, можливості відео, а також швидші й точніші відповіді, пише Аndroid Аuthorytу.
Що таке ChatGPT-4o
ChatGPT-4o або GPT-4o — це новітня та найдосконаліша мовна модель від OpenAI, здатна аналізувати аудіо, відео та текст у режимі реального часу. ШІ-модель може реагувати на аудіовходи всього за 320 мілісекунд — це настільки ж швидко, як час реакції людини, що робить її здатною до природної розмови.
Тоді як попередня функція голосової розмови ChatGPT використовувала різні моделі для розпізнавання мови і генерації відповідей, GPT-4o навчена обробляти весь процес від початку до кінця. OpenAI стверджує, що, озброївшись можливостями великої мовної моделі (ВММ), такої як GPT-4, ШІ може навіть розпізнавати емоції користувацьких голосів, що звучать.
Нова БЯМ також пропонує значно швидші відповіді. На мовах, які не використовують латинську абетку, нова модель працюватиме у 2 рази швидше, ніж попередня модель GPT-4 Turbo.
Відомо, що GPT-4o буде доступна всім користувачам чат-бота ChatGPT безкоштовно, підписка ChatGPT Plus не потрібна. Це перше оновлення точності та швидкості для безкоштовних користувачів з моменту випуску чат-бота наприкінці 2022 року. GPT-4o також здатна виконувати пошук в інтернеті та перевіряти відповіді.
ШІ GPT-4o в дії: як його використовувати
OpenAI відкриє доступ до GPT-4o всім користувачам поетапно, і станеться це в найкоротші терміни.
За допомогою Microsoft Copilot можна отримати безкоштовний доступ до GPT-4. Наразі, пишуть аналітики Аndroid Аuthorytу, доступ до GPT-4o є, але з обмеженими можливостями. Наприклад, функція голосових запитів до GPT-4o поки недоступна. Сем Альтман, генеральний директор компанії-розробника, заявив, що її впровадження почнеться найближчими тижнями. Голосові розмови також будуть доступні виключно користувачам ChatGPT Plus, принаймні в найближчому майбутньому.
Ввівши письмовий запит, можна помітити, що нова ШІ-модель реагує вражаюче швидко порівняно з GPT-4, зазначають аналітики.
Тестування GPT-4o: плюси та мінуси
Крім швидкості, головною особливістю GPT-4o є те, що вона забезпечує значно точніші відповіді. Й на відміну від GPT-3.5, у неї також немає чітко визначеної дати старту збору інформації. Це означає, що користувачі зможуть ставити чат-боту фактичні запитання, не турбуючись про те, що він "галюцинує" або видає помилкові відповіді. На фото нижче можна побачити порівняння GPT-3.5 та GPT-4o, яким поставили просте фактичне запитання:
Як видно з цього відносно простого прикладу, обидві мовні моделі дають правильну відповідь. Однак GPT-4o була надала детальну відповідь. Чат-бот GPT-3.5 відповідав, як то кажуть, по пам'яті, що пояснює, чому він попросив тестувальника звірити інформацію з офіційним джерелом.
Під час тестів, аналітики не змогли переключитися з GPT-4o на GPT-3.5 для цього конкретного запитання, тому, якщо користувачі поставлять ChatGPT фактичне запитання, він автоматично переглядатиме інтернет і використовуватиме останню модель.
Ось ще один приклад — ChatGPT запитали, який чіп містить Galaxy S24 Ultra, з умовою, що смартфон купуватимуть у Великій Британії:
Завдяки поліпшеним можливостям GPT-4o здійснювати пошук в інтернеті, було правильно сказано, що S24 Ultra постачається зі Snapdragon 8 Gen 3 по всьому світу. Бот навіть уточнив, що звичайний варіант S24 та Plus S24 поставлятимуться з Exynos 2400 в Європі. Раніше тестувальники ставили це ж питання GPT-3.5, але отримали неточну відповідь, як це видно на скріншоті.
Хоча до повного розкриття потенціалу GPT-4o, а саме його голосових можливостей, залишилося ще кілька тижнів, базовий досвід сам по собі вражає, роблять висновок аналітики. Ба більше, він доступний кожному безкоштовно.
Раніше ми повідомляли про те, що камера будь-якого Android-смартфона зможе пам'ятати те, що бачила. За допомогою ШІ користувачі зможуть знаходити загублені речі і дізнаватися інформацію про предмети, які їх оточують, у режимі реального часу — достатньо буде навести на них камеру телефону.