Cała scena zostaje lekko przyciemniona, a wybrany obiekt otoczony białą ramką, co ułatwia jego identyfikację. Funkcja ta sprawdza się również w bardziej złożonych sytuacjach, takich jak analiza znaków drogowych w obcym języku czy interpretacja lokalnych przepisów. Przykładem może być sytuacja, w której użytkownik podczas podróży zagranicznej nie był pewien, czy może zaparkować w danym miejscu. Po uruchomieniu Gemini Live i skierowaniu kamery na znak, asystent przetłumaczył tekst, sprawdził lokalne regulacje i wskazał miejsce, gdzie można bezpłatnie zaparkować przez dwie godziny.
Wizualne nakładki będą dostępne od razu na urządzeniach z serii Google Pixel 10, a w ciągu najbliższych tygodni trafią także na inne smartfony z Androidem. Wersja dla iOS pojawi się nieco później, a co istotne, korzystanie z tej funkcji nie będzie wymagało subskrypcji Google AI Pro ani Ultra.
Drugą dużą zmianą w Gemini Live jest nowy model audio, który pozwala na bardziej naturalne i ekspresyjne rozmowy. Asystent potrafi dostosować ton głosu do kontekstu rozmowy – jeśli użytkownik porusza stresujący temat, Gemini odpowie spokojniejszym, bardziej wyważonym głosem. Użytkownik może również kontrolować tempo mowy, prosząc o szybsze lub wolniejsze wypowiedzi. Co więcej, możliwe jest poproszenie Gemini o opowiedzenie historii z perspektywy postaci historycznej, na przykład o Cesarstwie Rzymskim oczami Juliusza Cezara, z odpowiednią narracją i akcentami.
Źródło: Android Authority