Во вторник Google провела мероприятие, посвященное новым устройствам Pixel. Тем не менее, главным акцентом были достижения в области искусственного интеллекта (ИИ).
С самого начала выступления Рик Остерло, представитель Google, сосредоточился на успехах компании в области ИИ, а не на новых девайсах:
Несколько месяцев назад на конференции Google I/O мы представили множество инновационных решений, которые делают ИИ более полезным для всех. Мы убеждены в том, что ИИ способен облегчить жизнь и повысить продуктивность людей. Он может помочь нам учиться, выражать себя и быть более творческими. Самая важная область, где это должно работать, — это устройства, которые мы используем каждый день. Сегодня мы покажем прогресс Google в интеграции передовых технологий ИИ в мобильные устройства, что принесет пользу всей экосистеме Android.
В первые 25 минут шоу Остерло и его коллеги не объявили ни о каком новом оборудовании, таком как Pixel 9, Pixel Watch 3 или Pixel Buds Pro 2. Вместо этого они говорили о значительных вложениях Google в свою технологическую инфраструктуру и чипы Tensor, а также о том, как шесть продуктов с аудиторией более 2 миллиардов пользователей (поисковик, Gmail, Android, Chrome, YouTube и Google Play) используют ИИ-модели Gemini. Прежде чем показать демонстрации новых устройств, Google продемонстрировала свои ИИ-инструменты на устройствах от Samsung и Motorola.
Google также выделила самое интересное новшество — Gemini Live. Это инструмент, который позволяет вести более естественные разговоры с помощником Gemini для мозгового штурма или подготовки к интервью. (Может показаться, что это ответ Google на демонстрацию GPT-4o от OpenAI.) И Gemini Live не является эксклюзивом для Pixel; он был запущен для подписчиков Gemini Advanced и пользователей Android уже в этот вторник.
Когда Google наконец-то перешла к новому оборудованию, везде был ИИ. Gemini может реагировать на то, что происходит на экране телефона. Функция «Add Me» способна добавить человека, который делает фотографии, в общий кадр. Pixel Watch теперь использует ИИ для контроля пульса. Google предполагает, что вы будете общаться с Gemini Live через новые Pixel Buds Pro 2.
На завершающем этапе Остерло объявил ещё несколько новостей об ИИ, которые появятся в будущем. В частности, Google планирует позволить пользователям делиться камерой во время разговора с Gemini Live, чтобы помощник мог реагировать на то, что вы видите. Также будет возможна интеграция приложений с Gemini Live, и помощник сможет создавать исследовательские отчеты, используя данные из интернета. Эти функции станут доступны пользователям Gemini Advanced в ближайшие месяцы.
Фокус Google на ИИ не стал неожиданностью. Однако стало очевидно, что компания видит в ИИ свое главное конкурентное преимущество в борьбе с такими гигантами, как Apple и Samsung. Судя по всему, устройства Google могут получить более впечатляющие функции ИИ по сравнению с тем, что предлагает Apple, которая планирует свои новшества лишь на следующий год.
Несмотря на все это, у меня остаются сомнения по поводу ИИ от Google. Некоторые фото-функции выглядят интересно, но я не полностью доверяю Gemini для полноценного общения. Востребованы ли такие возможности у других пользователей? И будут ли они настолько привлекательными, чтобы покупатели предпочли устройства Pixel или подписались на Gemini Advanced? В скором времени мы это узнаем, так как новое оборудование Google выйдет на рынок в течение ближайших месяцев.
Источник: TheVerge