Google анонсировал новую функцию ИИ на основе камеры
За день до своей ежегодной конференции для разработчиков I/O Google опубликовала тизер новой функции искусственного интеллекта. В коротком видео из твиттера демонстрируется новая возможность ИИ, работающего на основе камеры и способного распознавать объекты в кадре в реальном времени.
В видео, помеченном как "прототип", показан смартфон, похожий на Pixel, с открытой камерой, направленной на сцену конференции I/O. Человек, держащий камеру, спрашивает: "Эй, как ты думаешь, что здесь происходит?"
Голос отвечает, что "похоже, люди готовятся к какому-то большому событию, возможно, конференции или презентации". ИИ также способен идентифицировать буквы "IO" как относящиеся к конференции разработчиков Google и упоминает "новые достижения в области искусственного интеллекта". По мере того, как два голоса общаются, на экране появляется текстовая расшифровка диалога.
Не совсем понятно, что именно представляет собой эта функция, хотя она имеет некоторое сходство с Google Lens — поисковой технологией Google на основе камеры. Однако то, что показано в видео, похоже, работает в реальном времени и реагирует на голосовые команды, примерно как мультимодальный ИИ OpenAI. Тот факт, что демонстрация проводится на Pixel, указывает, что Google внедрит новые функции на базе ИИ начиная с этого смартфона.
Хотя для Google несколько необычно анонсировать одно из своих нововведений перед большой презентацией, вероятно, это связано с демострацией OpenAI новой модели GPT-4o, скорость и убедительность которой превосходят ИИ Google.
Узнаем подробности сегодня вечером.