Google представила улучшенного AI-ассистента Gemini
Google сделала своего AI-ассистента Gemini более человечным, позволив прерывать или менять тему разговора. На мероприятии Made by Google 2024 компания анонсировала выпуск долгожданной функции Gemini Live для мобильных устройств. В отличие от стандартных команд, традиционных для Google Assistant или Alexa, Gemini Live реагирует на повседневный язык и может симулировать предположения и мозговые штурмы. Цель состоит в том, чтобы сделать диалоги с AI более естественными.
Gemini Live схожа с разговором по телефону с очень быстрым персональным ассистентом. Искусственный интеллект может одновременно говорить и выполнять задачи. Эта возможность доступна для подписчиков Gemini Advanced на устройствах Android, но Google обещает в скором времени расширить доступ для пользователей iOS. Кроме того, пользователи могут выбрать из 10 новых голосовых опций с различными стилями. Google утверждает, что усовершенствованный модуль речи обеспечивает более эмоционально выразительные и реалистичные взаимодействия.
Несмотря на некоторые сходства, Gemini Live не является просто аналогом ChatGPT от OpenAI. ChatGPT в режиме голосового общения может испытывать трудности с длительными диалогами. Gemini Live обладает более широким контекстным окном, что позволяет ему лучше запоминать ранее сказанное.
Gemini Live: интеграция и будущее
Google также представила расширенный список Gemini extensions, которые глубже интегрируют AI в экосистему приложений и сервисов Google. В будущем ожидаются интеграции с Google Keep, Tasks и расширенные функции на YouTube Music. Например, пользователи смогут попросить Gemini Live найти рецепт в Gmail и добавить ингредиенты в список покупок в Keep, или создать плейлист из песен определенной эпохи, используя YouTube Music. Такой уровень интеграции позволяет Gemini более плавно взаимодействовать с приложениями и контентом на устройстве пользователя, предлагая помощь, соответствующую контексту их действий.
Недостатки и перспективы
Тем не менее, Gemini Live ещё не на том уровне, который был продемонстрирован на Google I/O 2024. Визуальная обработка, которая должна позволить Gemini видеть и реагировать на окружение пользователя через фотографии и видео, все еще находится в разработке. Это значительно расширит возможности Gemini Live. Новые функции AI-ассистента прекрасно вписываются в стремление Google интегрировать Gemini во все аспекты жизни пользователя. Vision компании заключается в бесконечном диалоге с Gemini.
Источник: TechRadar