Для настройки новостей на колонке Алиса Яндекс, найдите раздел «Новости» или «Информация» и выберите его. Персонализированное «Утреннее шоу» с «Алисой» (не все знают о его настройке). «Утреннее шоу» — это развлекательная программа с «Алисой» в роли ведущей. Виртуальный помощник читает новости, включает музыку и зачитывает истории на разные темы. Утреннее шоу представляет собой некий “винегрет” из интересных публикаций и новостей с различных сайтов, навыков Алисы и музыки. В конце 2020 года утреннее шоу Алисы стало персонализированным. До публикации этой новости я мельком слышал про существование Алисы (видео, когда 2 телефона общаются между собой).
Что такое сценарии и чем они отличаются от команд?
- «Яндекс» научил «Алису» вести персональное утреннее шоу | Канобу
- Как взглянуть на «Алису» по-новому? 5 необычных навыков для «Яндекс.Станции» | MAXIM
- Как настроить новости в Алисе
- На колонках с Алисой появилась функция Утреннего шоу
- Алиса запустила утреннее шоу с персональными рекомендациями
- Telegram: Contact @alice_yndx
Что нового в апреле у Алисы и умных устройств
Умная лампочка Яндекс с Алисой, цоколь E27, белая (YNDX-00501). Умная лампочка Яндекс с Алисой, цоколь E27, белая (YNDX-00501). первый шаг в этом направлении".
Тексты песен на ТВ Станциях
- Новый формат контента в утреннем шоу Алисы: истории от навыков
- Популярное за неделю
- 8 новых фишек «Яндекс Станций» и «Яндекс ТВ Станций», которые появились в апреле
- Плюсы и минусы
- Утреннее шоу Алисы - YouTube
Умные колонки с "Алисой" научились вести персонализированные утренние шоу
В общей сложности у Алисы больше двух тысяч подкастов на разные темы. Голосовой помощник следит за новостными выпусками девяти радиостанций. Станции, Станции Мини и других умных колонках, где есть голосовой помощник Алиса. Чтобы выбрать тематику новостей и подкастов, нужно просто открыть приложение Яндекс, выбрать пункт «Устройства», далее выбрать «Аккаунт» и перейти в «Настройки шоу Алисы». А куда нажать?
Точнее, даже два. Тогда как раз набирал обороты нейропараметрический подход, в котором задачу вокодера выполняла сложная нейросетевая модель. Например, появился проект WaveNet на базе свёрточной нейросети, которая могла обходиться и без отдельной акустической модели. На вход можно было загрузить простые лингвистические данные, а на выходе получить приличную речь. Первым импульсом было пойти именно таким путём, но нейросети были совсем сырые и медленные, поэтому мы не стали их рассматривать как основное решение, а исследовали эту задачу в фоновом режиме. На генерацию секунды речи уходило до пяти минут реального времени.
Это очень долго: чтобы использовать синтез в реальном времени, нужно генерировать секунду звука быстрее, чем за секунду. Что же делать? Если нельзя синтезировать живую речь с нуля, нужно взять крошечные фрагменты речи человека и собрать из них любую произвольную фразу. Напомню, что в этом суть конкатенативного синтеза, который обычно ассоциируется с методом unit selection. Пять лет назад он уже давал наилучшее качество при достаточном количестве данных в задачах, где была нужна качественная речь в реальном времени. И здесь мы смогли переиспользовать нейросети нашей старой параметрики. Работало это следующим образом: На первом шаге мы использовали нейросетевую параметрику, чтобы синтезировать речь с нуля — подобному тому, как делали раньше. Напомню, что по качеству звучания результат нас не устраивал, но мог использоваться как референс по содержанию. На втором шаге другая нейросеть подбирала из базы фрагментов записанной речи такие, из которых можно было собрать фразу, достаточно близкую к сгенерированной параметрикой. Вариантов комбинаций фрагментов много, поэтому модель смотрела на два ключевых показателя.
Первый — target-cost, точность соответствия найденного фрагмента гипотезе, то есть сгенерированному фрагменту. Второй показатель — join-cost, насколько два найденных соседних фрагмента соответствуют друг другу. По сути, нужно было выбрать вариант, для которого сумма target-cost и join-cost минимальна. Эти параметры можно считать разными способами — для join-cost мы использовали нейросети на базе Deep Similarity Network, а для target-cost считали расстояние до сгенерированной параметрикой гипотезы. Сумму этих параметров, как и принято в unit selection, оптимизировали динамическим программированием. Кстати, подобный подход использовался и при создании Siri 2. Схема конкатенативного синтеза У такого подхода тоже есть плюсы и минусы. Среди достоинств — более естественное звучание голоса, ведь исходный материал не синтезирован, а записан вживую. Правда, есть и обратная сторона: чем меньше данных, тем более грубо будут звучать места склейки фрагментов. Для шаблонных фраз всё более-менее хорошо, но шаг влево или вправо — и вы замечаете склейку.
Поэтому нужно очень много исходного материала, а это требует многих часов записи голоса диктора. К примеру, в первые несколько лет работы над Алисой нам пришлось записать несколько десятков часов. Это несколько месяцев непрерывной работы с актрисой Татьяной Шитовой в студии. При этом нужно не просто «прочитать текст по листочку». Чем более нейтрально будет звучать голос, тем лучше. Обычно от актёров ждут эмоциональности, проявления темперамента в своей речи. У нас ровно обратная задача, потому что нужны универсальные «кубики» для создания произвольных фраз. Вот характерный пример работы синтеза: В этом главный недостаток метода unit selection: несмотря на все усилия, фрагменты речи не будут идеально соответствовать друг другу по эмоциям и стилю. Из-за этого сгенерированная речь Алисы постоянно «переключалась» между ними. На коротких фразах это не всегда заметно, но если хотите услышать произвольный ответ длиной хотя бы в пару предложений например, быстрый ответ из поиска , то недостатки подхода становятся очевидны.
В общем, unit selection перестал нас устраивать и нужно было развиваться дальше. Иногда они возвращаются: опять параметрический синтез В результате мы вернулись к архитектуре из двух последовательных блоков: акустическая модель и вокодер. Правда, на более низком уровне обновилось примерно всё. Акустическая модель В отличие от старой параметрики, новую модель мы построили на основе seq2seq-подхода с механизмом внимания. Помните проблему с потерей контекста в нашей ранней параметрике? Если нет нормального контекста, то нет и нормальной интонации в речи. Решение пришло из машинного перевода. Дело в том, что в машинном переводе как раз возникает проблема глобального контекста — смысл слов в разных языках может задаваться разным порядком или вообще разными структурами, поэтому порой для корректного перевода предложения нужно увидеть его целиком. Для решения этой задачи исследователи предложили механизм внимания — идея в том, чтобы рассмотреть всё предложение разом, но сфокусироваться через softmax-слой на небольшом числе «важных» токенов. При генерации каждого нового выходного токена нейросеть смотрит на обработанные токены фонемы для речевого синтеза или символы языка для перевода входа и «решает», насколько каждый из них важен на этом шаге.
Оценив важность, сеть учитывает её при агрегировании результатов и получает информацию для генерации очередного токена выхода. Таким образом нейросеть может заглянуть в любой элемент входа на любом шаге и при этом не перегружается информацией, поскольку фокусируется на небольшом количестве входных токенов. Для синтеза важна подобная глобальность, так как интонация сама по себе глобальна и нужно «видеть» всё предложение, чтобы правильно его проинтонировать. На тот момент для синтеза была хорошая seq2seq-архитектура Tacotron 2 — она и легла в основу нашей акустической модели. Мел-спектрограмма Параметрическое пространство можно сжать разными способами. Более сжатые представления лучше работают с примитивными акустическими моделями и вокодерами — там меньше возможностей для ошибок. Более полные представления позволяют лучше восстановить wav, но их генерация — сложная задача для акустической модели. Кроме того, восстановление из таких представлений у детерминированных вокодеров не очень качественное из-за их нестабильности. С появлением нейросетевых вокодеров сложность промежуточного пространства стала расти и сейчас в индустрии одним из стандартов стала мел-спектрограмма. Она отличается от обычного распределения частоты звука по времени тем, что частоты переводятся в особую мел-частоту звука.
Другими словами, мел-спектрограмма — это спектрограмма, в которой частота звука выражена в мелах , а не герцах.
Думаю, новую возможность особенно оценят авторы подкастов, у которых появилась ещё одна площадка», — отметил Андрей Законов, руководитель продукта голосового помощника «Алиса». Помимо чтения актуальных новостей по утрам, «Алиса» также научилась отслеживать эфиры радиостанций. Утренние шоу впервые появились в апреле этого года.
Важно, чтобы у пользователя были необходимые приборы, которые могут быть задействованы в выполнении сценария. Вы не сможете настроить включение света в определенной комнате, если у вас не установлены лампы, которые подключены к системе умного дома. Вы также не сможете регулировать уровень освещения, если лампы не позволяют это делать. Поэтому при настройке сценариев всегда обращайте внимание на приборы, которые у вас имеются. При создании сценария используйте простые и понятные выражения. Избегайте использования жаргона и сленга. Понимаем, что вам хочется называть Алису «чушпаном», но не забывайте про возможное восстание машин в далеком или не очень будущем. Алиса может вам это припомнить.
Также старайтесь не использовать слишком длинные названия сценариев. Сценарий «Утро» Запуск по расписанию: например, в 7:00 утра или в то время, в которое именно вам необходимо проснуться. Чтобы разнообразить утро, можно придумать прикольные сценарии для Алисы «Яндекс станции».
Вышло большое обновление Алисы. Смотри, что теперь умеет твоя Яндекс Станция
В конце 2020 года утреннее шоу Алисы стало персонализированным. До публикации этой новости я мельком слышал про существование Алисы (видео, когда 2 телефона общаются между собой). Виртуальный ассистент Алиса поставит утреннее шоу: слушайте музыку, новости, подкасты и настраивайтесь на день. Тогда, услышав запрос «Расскажи новости», Алиса будет всегда включать новости нужного издания. Кроме этого, их можно добавить в утреннее шоу Алисы.
Что умеет «Яндекс-станция»: 17 полезных функций и команд для Алисы
«Алиса» научилась персонализировать «Утреннее шоу». Как настроить новости в Алисе Можно дать ей обычную команду «Алиса, настрой новости». Шаг 3: Выберите раздел «Новости». Слушать утреннее шоу Алисы Утреннее шоу Алисы поможет настроиться на день и не забыть о важном. Умная лампочка Яндекс с Алисой, цоколь E27, белая (YNDX-00501). Кроме того, в голосовом помощнике появились новости радиостанций. Утреннее шоу — это развлекательная программа, где «Алиса» выступает в роли ведущей. В этой статье мы рассмотрим, что такое утреннее шоу от Алисы, как включить его на Яндекс Станции и как настроить. Оказалось, что люди выбирают синтезированный вариант Алисы, несмотря на более плохое качество по сравнению с реальной речью человека.
Место под большое лого и рекламу навыков
Шёпот и эмоции в Алисе: история развития голосового синтеза Яндекса | О сервисе Прессе Авторские права Связаться с нами Авторам Рекламодателям Разработчикам. |
На колонках с Алисой появилась функция Утреннего шоу | «Утреннее шоу» — это развлекательная программа с «Алисой» в роли ведущей. Виртуальный помощник читает новости, включает музыку и зачитывает истории на разные темы. |
Как запустить Утреннее шоу Алисы | Как спросить, фишки навыка | Теперь пользователи могут добавить новости в Утреннее шоу Алисы. |
Вышло апрельское обновление Алисы и умных устройств Яндекса | The GEEK | Помимо чтения актуальных новостей по утрам, «Алиса» также научилась отслеживать эфиры радиостанций. Теперь голосовой помощник может запускать новостные блоки с девяти станций, включая «Хит ФМ» и «Коммерсантъ FM». Утренние шоу впервые появились в апреле этого года. |
Алиса запустила утреннее шоу с персональными рекомендациями
Чтобы активировать новую функцию нужно сказать: «Алиса, включи утреннее шоу! После этого голосовой помощник запустит прогноз погоды, расскажет, как провести время дома с пользой, включит подкасты, новости и музыку. В «Яндексе» говорят, что «Алиса» станет личным диджеем, поставит и прокомментирует треки из персонального плейлиста дня на «Яндекс.
Нужно только пригласить близких в свой Дом и указать, кто может включать режим радионяни. Сообщения между Станциями Когда нужно передать близким или друзьям что-то важное, можно отправлять сообщение прямо на умную колонку со своей Станции. Но сейчас, прежде чем начать читать текст, Алиса ещё и оповестит получателя, из какой именно комнаты или Дома пришло сообщение. Звонки без постороннего шума Улучшилось шумоподавление внешних шумов во время звонка.
Сейчас функция доступна на Станции Миди, Станции Макс и Станции 2, поддержка других моделей появится позже.
Сценарии можно создавать самостоятельно или использовать готовые шаблоны. Команды для Алисы — это отдельные приказы, которые выполняются сразу после их произнесения. Например, команда «Алиса, включи свет» включает свет в комнате. Команды можно использовать для выполнения простых действий, которые не требуют автоматизации. Основные отличия между сценариями и командами для Алисы: Сценарии выполняются последовательно, а команды — сразу после произнесения. Сценарии позволяют автоматизировать выполнение определенных действий, а команды — нет. Сценарии могут включать в себя как команды для Алисы, так и команды для других устройств умного дома.
Рассмотрим конкретные примеры сценариев для Алисы и включенные в них команды. Так, сценарий «Алиса, включи утро» может состоять из команд: включить свет на кухне; включить кофеварку; включить телевизор. Без сценария эти действия можно запустить самостоятельно, произнося команды для Алисы: «Алиса, включи свет на кухне», «Алиса, включи кофеварку», «Алиса, включи телевизор». Или при запуске на смартфоне условного сценария «Возвращение с работы» вы запускаете цепочку команд: «Включить свет», «Запустить музыку», «Опустить шторы» и прочее.
Позже функция станет доступна и на других колонках. По традиции, на специальной странице Яндекс собрал всю информацию о настройках и совместимых устройствах.