В ходе презентации Made by Google 2024 компания показала не только смартфоны и умные часы, но и несколько новых ИИ-функций. Часть из них оказалась ориентирована на пользователей с ограниченными возможностями, помогая им улучшить опыт «общения» с гаджетами.
Функция Guided Frame работает в связке с Pixel Camera. Людям со слабым зрением она даёт голосовые подсказки: например, как лучше выбрать угол обзора камеры или поместить лицо в кадре для создания селфи. Заодно ИИ расскажет, как лучше снимать при плохом освещении, и поможет распознать различные объекты. Активировать функцию можно в настройках камеры.
Компания также расширила возможности ИИ-лупы Magnifier. С её помощью можно приблизить необходимые объекты, например, строчки меню в кафе. В новой версии инструмента появились режим «Картинка в картинке», поиск определённых слов по общему тексту и возможность переключения объектива.
В приложении для транскрибирования звуков Live Transcribe появился особый режим работы для складных смартфонов. С его помощью можно одновременно выводить текст на внутренний и внешний экраны устройства сразу для двух пользователей.
Наконец, приложение Live Caption для воспроизведения содержимого на самом смартфоне теперь работает с любыми приложениями, а с 13 августа появится поддержка русского, корейского, польского, португальского, китайского, турецкого и вьетнамского языков.
Новые ИИ-функции Google будут доступны не только на устройствах серии Pixel, но и на смартфонах других брендов.
Источник:
Возможно люди с ограниченными возможностями наконец смогут перейти со своих айфонов на смартфоны
ну вообще то благодаря совместимости ios устройств с разными слуховыми аппаратами и датчиками, айфоны очень хорошо подходят для инвалидов
На какие переходить смартфоны ?. Пять копеек про айфоны в любой теме обязательно нужно вставить, это неизлечимо. 😂
(отредактирован)