-
Gemini теперь может связывать действия вместе для выполнения сложных задач
-
Gemini Live обретает мультимодальные возможности на новых телефонах
- Gemini станет полноценным ИИ-помощником с проектом Astra
В соответствии с запуском линейки устройств Samsung S25 на сегодняшнем мероприятии Galaxy Unpacked, Google объявила о впечатляющих обновлениях своей платформы искусственного интеллекта Gemini. Многие улучшения специфичны для таких устройств, как новый Samsung S25, но некоторые из них также работают на более ранних моделях, таких как Samsung S24 и Pixel 9.
Главной особенностью является новая способность Gemini связывать действия вместе. Это означает, что теперь вы можете выполнять такие задачи, как подключение к Google Maps для поиска ближайших ресторанов, а затем составление текста в Google Messages для отправки приглашения на обед, используя команды Gemini.
Эта возможность связывания действий становится доступной на всех устройствах с Gemini, в зависимости от наличия расширений. Необходимо, чтобы разработчики писали расширения для конкретных приложений, чтобы они были включены в работу с Gemini. Основные приложения Google уже имеют такие расширения, но они также доступны для приложений Samsung Reminder, Samsung Calendar, Samsung Notes и Samsung Clock.
Gemini Live становится мультимодальным
Gemini Live, часть платформы, которая позволяет вести естественный, человекоподобный диалог с ИИ, также получает значительные мультимодальные обновления. Теперь вы можете загружать изображения, файлы и видео YouTube в ходе разговора. Например, можно попросить Gemini Live просмотреть фотографию школьного проекта и предложить улучшения, загрузив изображение для анализа.
Мультимодальные улучшения в Gemini доступны не на всех устройствах и требуют для работы Galaxy S24, S25 или Pixel 9.
Проект Astra
В заключение, Google объявила, что возможности проекта Astra станут доступными в ближайшие месяцы, сначала на устройствах Galaxy S25 и Pixel. Проект Astra — это прототип ИИ-помощника Google, который позволяет взаимодействовать с окружающим миром, задавая вопросы о том, что вы видите, и где находитесь, с помощью камеры телефона. Таким образом, вы можете просто навести телефон на какой-либо объект и спросить Gemini о нем или узнать, когда будет следующая остановка на вашем автобусном маршруте.
Проект Astra работает на мобильных устройствах, но выводит ваше взаимодействие на новый уровень в сочетании с прототипом очков ИИ от Google для использования без рук, что позволяет задавать вопросы о том, что вы видите, не взаимодействуя с экраном.
Пока нет новостей о дате выхода следующего поколения этих очков, но они составят конкуренцию на рынке AI носимых устройств, когда станут доступны.
Источник: TechRadar