Група дослідників Apple представила систему штучного інтелекту під назвою ReALM (Reference Resolution as Language Modeling), здатну позмагатися і навіть перевершити GPT-4 та інші нейромережеві аналоги, пише MacRumors.
У компанії поставили за мету радикально поліпшити розуміння нейромережею команд "людською" мовою і реагування на них. ReALM розшифровує неоднозначні команди, прив'язані до контексту, і в результаті забезпечує максимально інтуїтивну і природну взаємодію між пристроєм і користувачем.
Головною проблемою для нейромереж і голосових помічників завжди було погане розуміння відсилань, займенників, натяків та інших елементів мови під час розмови. Саме це завдання і намагається вирішити ReALM. ШІ вміє навіть пов'язувати вимовлені людиною слова з об'єктами на екрані смартфона і відповідно реагувати.
Нова ШІ-система від Apple дасть змогу ефективніше взаємодіяти з цифровими помічниками, спираючись на те, що наразі відображається на екрані, без необхідності отримання точних і докладних інструкцій. Це може зробити цифрових асистентів ефективнішими в різних ситуаціях, наприклад, для водіїв, які керують смартфоном голосом, а також для юзерів з обмеженими можливостями.
Apple вже опублікувала кілька дослідницьких робіт у сфері штучного інтелекту. А минулого місяця компанія представила новий метод навчання великих мовних моделей, який дає змогу легко інтегрувати текстову та візуальну інформацію. Очікується, що Apple представить низку функцій штучного інтелекту на WWDC 2024 у червні.
iOS 18 називають найбільшим оновленням в історії Apple. Подейкують, у цьому оновленні дозволять переміщати іконки на робочих столах Айфона в будь-якому порядку, без закріплення ряду. А Siri порозумнішає завдяки ШІ.
При цьомує інформація, що в iOS 18 не буде фірмового чат-бота в дусі ChatGPT на базі генеративного ШІ. Замість цього компанія домовляється з Google про інтеграцію Gemini у свої продукти.