Google представила новий інтерфейс Android і об'єднала Wear OS з Tizen

Компанія Google представила на конференції I/O нову версію Android з оновленим інтерфейсом і оголосила про створення нової операційної системи для розумних годинників на базі Wear OS, Tizen і напрацювань Fitbit. Крім того, компанія показала перспективні розробки, в тому числі систему об'ємного відеозв'язку з екраном світлового поля і універсальний розмовний алгоритм. Трансляція презентації проходила на YouTube-каналі Google.

Бета-версія Android 12

Головною відмінністю нової версії Android став перероблений інтерфейс операційної системи з адаптивними кольорами. Система буде аналізувати кольори на шпалерах екрану і створювати палітру основних кольорів, які будуть використовуватися в різних частинах інтерфейсу: фонах, кнопках та інших елементах. Також змінився сам стиль багатьох елементів.


Розробники відзначають, що зміни торкнулися і плавності анімацій, яку вдалося значно підвищити завдяки оптимізації операційної системи і графічного стека. Нарешті, в систему додали безліч невеликих деталей. Наприклад, екран буде включатися не миттєво, а починаючи з того місця, в якому користувач почав взаємодіяти з пристроєм. Наприклад, якщо він натиснув кнопку включення, інтерфейс почне «з'являтися» з відповідної частини екрана.

Спочатку новий інтерфейс з'явиться в смартфонах Google Pixel, а в майбутньому буде використовуватися в інших смартфонах та інших продуктах Google, а не тільки Android.

Досить багато змін в Android 12 стосуються безпеки і конфіденційності. Наприклад, в системі з'явилися індикатори роботи мікрофона і камери, можливість давати додаткам не точне, а приблизне місце розташування, а також окремий розділ для зберігання даних локальних алгоритмів машинного навчання, ізольований від решти операційної системи.

Бета-версія Android 12 доступна починаючи з 18 травня для пристроїв від 11 виробників. Перевірити сумісність свого пристрою та приєднатися до програми тестування можна тут. Фінальна версія системи буде випущена восени. Варто зазначити, що в першій бета-версії немає частини анонсованих функцій, у тому числі деяких елементів інтерфейсу.

Об'єднана операційна система для розумного годинника

В останні кілька років Google майже не розвивала операційну систему Wear OS, призначену для розумних годинників, і фактично програвала конкуренцію Tizen, яку використовувала на своєму розумному годиннику Samsung. На конференції I/O Google і Samsung оголосили про об'єднання своїх зусиль і поєднання в одній операційній системі напрацювань Wear OS, Tizen і Fitbit, яку Google придбала в 2019 році (до цього Fitbit отримала напрацювання за розумним годинником Pebble).

Google стверджує, що це дозволить значно підвищити продуктивність системи і час роботи від акумулятора, зберігши сумісність з додатками для Android. Також в систему додадуть нові функції, наприклад, можливість навігації за допомогою кнопок, локальне зберігання музики в стрімінговому сервісі YouTube Music і фітнес-функції з Fitbit.


Нові алгоритми

На презентації Google показала перспективні алгоритми для взаємодії з користувачем. Один з них - це нейросетева розмовна модель LaMDA (Language Model for Dialogue Applications). Вона була розроблена і навчена для відкритих розмов на довільні теми, а не відповідей на конкретні питання і розмов за стандартними сценаріями. Алгоритм вміє адаптуватися до зміни теми під час розмови, як це можуть робити люди, але зазвичай не можуть комп'ютери. Компанія показала два приклади, в одному з яких алгоритм грав роль Плутона і відповідав на питання про себе, а в іншому був паперовим літачком:

Компанія не розкриває технічні особливості роботи алгоритму, але зазначає, що він заснований на попередньому розмовному агенті, стаття про якого доступна на arXiv.org. Поки LaMDA не використовується в продуктах компанії, але в майбутньому Google планує впровадити його в Google Assistant і пошук.

Інший перспективний алгоритм, який Google показала на I/O - це мультимодальний алгоритм MUM (Multitask Unified Model). Він навчений на величезному масиві даних 75 мовами і, що важливіше, здатний працювати з даними різних типів: зараз це тексти і зображення, а в майбутньому розробники планують навчити його працювати з відео та аудіо. Мультимодальність дозволяє йому формувати більш повні відповіді на запитання користувачів. Наприклад, якщо користувач покаже фото туристичних черевиків і запитає, чи може він піднятися в них на гору Фудзі, алгоритм зрозуміє запит, відповість і додатково запропонує список обладнання, яке може стати в нагоді для походу в гори.

Також компанія розповіла про кілька інших алгоритмів. Наприклад, вона допрацювала алгоритми камери смартфонів Pixel, навчивши їх на великому датасеті фотографій людей з темним кольором шкіри. Зокрема, це дозволить більш реалістично передавати колір і яскравість шкіри, а також якісніше відокремлювати волосся на фото від фону, що, наприклад, використовується для створення розмитого фону в портретному режимі.

До кінця 2021 року компанія додасть у пошук пілотний проект функції скринінгу 288 захворювань шкіри. Для цього користувачеві потрібно буде навести камеру смартфона на тіло, після чого алгоритми проаналізують кадри, покажуть схожі стани з описом і порадять звернутися до фахівця.

Система об'ємного відеозв'язку

Наприкінці презентації компанія показала прототип системи для об'ємних відеодзвінків. Вона являє собою два стенди (для двох віддалених співрозмовників), в кожному з яких є екран світлового поля, що дозволяє бачити об'ємне зображення без окулярів або будь-яких допільнювальних пристроїв, а також датчики, за допомогою яких система в реальному часі формує 3D-модель людини:

Це не перша розробка Google в області світлопольних екранів і камер. Минулого року дослідники з компанії створили алгоритми і камеру для зйомки і синтезу світлопольних відеороликах, а також навчилися стискати їх для передачі через інтернет.


COM_SPPAGEBUILDER_NO_ITEMS_FOUND