W aplikacji mObywatel oficjalnie zadebiutował obiecywany wirtualny asystent AI, który ma ułatwić użytkownikom poruszanie się po procedurach administracyjnych i korzystanie z usług publicznych. To narzędzie, oparte na polskim modelu językowym PLLuM.
Zmiana pozwoli kontynuować pracę w innych aplikacjach w czasie, gdy Gemini przetwarza polecenie z nakładki w tle. To znaczące odejście od dotychczasowego modelu działania, w którym użytkownik musiał czekać z nakładką na wierzchu, aż zadanie zostanie wykonane.
Jeszcze przed końcem roku użytkownicy aplikacji mObywatel zyskają dostęp do funkcji, którą Ministerstwo Cyfryzacji zapowiadało od miesięcy. Wirtualny asystent, oparty na polskim modelu językowym PLLuM, ma stać się narzędziem, które ułatwi poruszanie się po usługach administracji publicznej.
Perplexity oficjalnie udostępnił swoją przeglądarkę Comet na Androida, otwierając ją dla szerokiego grona użytkowników po krótkim okresie testów w wersji wczesnego dostępu. To krok, który wpisuje się w coraz wyraźniejszy trend integracji sztucznej inteligencji z narzędziami codziennego użytku.
Google ogłasza integrację sztucznej inteligencji Gemini z aplikacją Map na Androidzie i iOS. Nowa funkcja ma na celu przekształcenie klasycznej nawigacji w bardziej konwersacyjne i intuicyjne rozwiązanie, przypominające rozmowę z dobrze poinformowanym pasażerem.
Yelp wprowadza szereg nowych funkcji opartych na sztucznej inteligencji, które mają uczynić korzystanie z aplikacji bardziej intuicyjnym. Najważniejszą nowością jest możliwość skanowania fizycznego menu w restauracji za pomocą aparatu w telefonie. Po zeskanowaniu, na ekranie pojawiają się interaktywne bąbelki nad nazwami dań, które po kliknięciu pokazują zdjęcia potraw oraz opinie innych użytkowników.
Google kontynuuje rozwój swojego cyfrowego asystenta, wprowadzając istotne ulepszenia do funkcji Gemini Live. Nowością są wizualne nakładki, które pozwalają na podświetlanie obiektów widocznych w kamerze użytkownika. Dzięki temu Gemini może wskazać konkretny przedmiot, na przykład właściwy przycisk na maszynie, odpowiednie narzędzie do pracy czy nawet ptaka w stadzie.
Google wprowadza nową funkcję do aplikacji Gemini, umożliwiając użytkownikom planowanie działań wykonywanych przez sztuczną inteligencję. Zapowiedziana po raz pierwszy podczas Google I/O funkcja Scheduled Actions została właśnie udostępniona w aplikacji, pozwalając na automatyczne wykonywanie określonych zadań w wyznaczonym czasie.
Google rozszerzyło dostępność funkcji Gemini Live na iPhone’y i iPady w Stanach Zjednoczonych, umożliwiając użytkownikom korzystanie z narzędzi do analizy obrazu i udostępniania ekranu. Dotychczas technologia ta była dostępna wyłącznie na urządzeniach z Androidem, ale dzięki najnowszej aktualizacji aplikacji Gemini użytkownicy iOS mogą skorzystać z nowych możliwości.
OnePlus oficjalnie ogłosiło integrację asystenta Gemini z aplikacjami nakładki OxygenOS, rozszerzając tym samym dostępność technologii na smartfonach marki. Aktualizacja pozwala na interakcję Gemini z aplikacjami OnePlus, w tym Notatkami oraz Zegarem.


