Специалисты «Яндекса» улучшили возможности «Алисы», сделав её ещё более удобным инструментом для общения с умными устройствами. Теперь голосовой помощник умеет лучше распознавать запросы пользователей с речевыми нарушениями.
В процессе дообучения «Алисы» использовались сотни тысяч аудиозаписей, подготовленных людьми с особенностями речи — например, заиканием или нарушениями, полученными в результате инсульта или травмы. Участники проекта записали более 855 тысяч скороговорок и фрагментов обычной речи, собрав более 900 часов аудиоматериалов.
Качество распознавания оценивалось по метрике Word Error Rate (WER). В итоге разрыв между точностью распознавания обычной речи и голоса с искажениями сократился в среднем на 20%.
Это не первый проект «Яндекса» по адаптации виртуального помощника для людей с нарушениями здоровья. В частности, мобильное приложение «Дом с Алисой» уже поддерживает работу с программой экранного доступа: она зачитывает вслух содержимое экрана, помогая слабовидящим людям взаимодействовать с интерфейсом «Алисы».
Источник:
И Huawei
И редакционный Хонор
И редакционный Хиоми.
И всратый конструктор
Будут после новости со спасением человечества с помощью эппл вотч.
(отредактирован)
что за ерунда?
Ну не знаю... Вот чего не наблюдается у неё, так это глухоты) Даже на дешевых моделях.
вот тоже. у меня лайт и стоит рядом с телеком. и неслышит меня редко только тогда, когда на телеке фильмуха какаянибудь орёт. и то, со второго раза уже слышит.
Ставят дешёвые микрофоны.
а с каких пор заикание считается инвалидностью?
я понимаю, что теперь кругом видится повестка и всё такое, но самим-то тоже не надо перегибать
да он ютубом зомбирован не коментируй
Моя отказалась про польские маты рассказывать
вот курва...