Мы расскажем, что такое сценарии для Алисы, чем они отличаются от команд и какие хорошие команды уже придумали пользователи. Утреннее шоу представляет собой некий “винегрет” из интересных публикаций и новостей с различных сайтов, навыков Алисы и музыки. Умные колонки с голосовым помощником "Алиса" научились проводить утренние шоу, которые подбираются под конкретных пользователей. Кроме того, в голосовом помощнике появились новости радиостанций. Утреннее шоу — это развлекательная программа, где «Алиса» выступает в роли ведущей. Множество полезных навыков для голосового помощника ждут вас в Каталоге навыков Алисы.
Слушать утреннее и вечернее шоу Алисы на Станции
В утреннее шоу не попадут истории старше семи дней. Разработчик навыка сможет указать дату, до которой история актуальна. Длительность истории не должна превышать одной минуты. Чтобы подключить навык к утреннему шоу Алисы, оставьте заявку через форму: А теперь — подробнее о работе функциональности.
Голосовой помощник следит за новостными выпусками девяти радиостанций. Станции, Станции Мини и других умных колонках, где есть голосовой помощник Алиса.
Чтобы выбрать тематику новостей и подкастов, нужно просто открыть приложение Яндекс, выбрать пункт «Устройства», далее выбрать «Аккаунт» и перейти в «Настройки шоу Алисы». А куда нажать? Это я к тому, что не плохо бы ссылочку или инструкцию какую то в конце сообщения..
Персонализация «Утреннего шоу» Пользователи могут настраивать порядок и тип контента, который будет воспроизводиться в «Утреннем шоу». Афиша мероприятий на главном экране «Станция Дуо Макс» научилась отображать анонсы мероприятий, проходящих в городе пользователя. Радионяня для каждого Режим радионяни на «Яндекс Станции» теперь доступен для каждого члена семьи. Сообщения между «Станциями» Функция отправки сообщений между устройствами улучшена тем, что теперь «Алиса» указывает, откуда именно пришло сообщение — с какой комнаты или «Дома». Звонки без постороннего шума Новая функция подавления посторонних звуков доступна для некоторых моделей «Станций», что улучшает качество голосовой связи между пользователями. Для других моделей улучшение обещают добавить позже.
Теперь там доступны «Матч Премьер» и «Матч! Ещё больше видео Любой контент, который найдётся в поиске по видео, сразу воспроизведется в удобном плеере «ТВ Станции». Управлять можно голосом: поставить на паузу, продолжить, перемотать назад, выбрать качество или включить субтитры. Персонализируйте утреннее шоу Теперь пользователи сами смогут решать, каким будет их утреннее шоу. Например, выбрать, какой контент и в каком порядке они хотят слушать: подкасты на разные темы, прогноз погоды, конкретные навыки, музыкальные треки или новости из определённых источников.
Топовые фишки Яндекс.Станции, о которых вы могли не знать
В Алису от Яндекса добавили функцию Утреннее шоу. Пользователи умных колонок с голосовым помощником «Алиса» теперь могут послушать новости технологий от портала Утреннее шоу. Как включить новости в Яндекс Браузере. Помимо чтения актуальных новостей по утрам, «Алиса» также научилась отслеживать эфиры радиостанций. Теперь голосовой помощник может запускать новостные блоки с девяти станций, включая «Хит ФМ» и «Коммерсантъ FM». Утренние шоу впервые появились в апреле этого года. так назвали программу, при которой Алиса будет ставить различные треки из плейлиста пользователя на , дополняя их различными комментариями во время пауз, а также сообщая новости на интересующую. В конце 2020 года утреннее шоу Алисы стало персонализированным. До публикации этой новости я мельком слышал про существование Алисы (видео, когда 2 телефона общаются между собой).
Утреннее шоу «Алисы» стало персональным
первый шаг в этом направлении". Тогда, услышав запрос «Расскажи новости», Алиса будет всегда включать новости нужного издания. Кроме этого, их можно добавить в утреннее шоу Алисы. Навык «Утреннее шоу» Алисы идеально подходит для людей, которые хотят быть в курсе всех новостей и интересных мероприятий. Умная лампочка Яндекс с Алисой, цоколь E27, белая (YNDX-00501). Для этого достаточно открыть приложение Яндекс и сказать: «Алиса, открой настройки шоу» или «Алиса, открой настройки новостей».
Новый формат контента в утреннем шоу Алисы: истории от навыков
В компании обещают персонализированные программы с полезной информацией, любимой музыкой, новостями и прочим интересным каждому пользователю контентом. Чтобы активировать новую функцию нужно сказать: «Алиса, включи утреннее шоу! После этого голосовой помощник запустит прогноз погоды, расскажет, как провести время дома с пользой, включит подкасты, новости и музыку.
С тех пор прогресс не останавливается. Исторически речевой синтез бывает двух видов: конкатенативный и параметрический. В случае с первым, есть база кусочков звука, размеченных элементами речи — словами или фонемами. Мы собираем предложение из кусочков, конкатенируя то есть склеивая звуковые сегменты. Такой метод требует большой базы звука, он очень дорогой и негибкий, зато до пришествия нейросетей давал самое высокое качество. При параметрическом синтезе базы звука нет — мы рисуем его с нуля. Из-за большого прыжка в размерности end2end работает плохо даже сейчас. Лучше разделить это преобразование на два шага: сначала нарисовать звук в особом параметрическом отсюда название метода пространстве, а затем преобразовать параметрическое представление звука в wav-файл.
В 2014 году нейросетевые методы речевого синтеза только зарождались. Тогда качеством правил конкатенативный синтез, но нам в эру SpeechKit было необходимо легковесное решение для Навигатора , поэтому остановились на простом и дешёвом параметрическом синтезе. Он состоял из двух блоков: Первый — акустическая модель. Она получает лингвистические данные разбитые на фонемы слова и дополнительную разметку и переводит их в промежуточное состояние, которое описывает основные свойства речи — скорость и темп произнесения слов, интонационные признаки и артикуляцию — и спектральные характеристики звука. К примеру, в начале, до появления Алисы, в качестве модели мы обучали рекуррентную нейросеть RNN с предсказанием длительности. Она достаточно хорошо подходит для задач, где нужно просто последовательно проговаривать фонемы и не надо рисовать глобальную интонацию. Затем данные передаются на второй блок — вокодер — который и генерирует звук то есть создаёт условный wav по его параметрическому представлению. Вокодер определяет низкоуровневые свойства звука: sampling rate, громкость, фазу в сигнале. Наш вокодер в первой системе был детерминированным DSP-алгоритмом не обучался на данных — подобно декодеру mp3, он «разжимал» параметрическое представление звука до полноценного wav. Естественно, такое восстановление сопровождалось потерями — искусственный голос не всегда был похож на оригинал, могли появляться неприятные артефакты вроде хрипов для очень высоких или низких голосов.
Схема параметрического синтеза Это стандартная архитектура для любой ранней параметрики со своими достоинствами и недостатками. Главный плюс — для обучения модели нужно мало данных нам хватило 5-10 часов записей человеческой речи. Можно синтезировать любой произвольный текст, который даже будет плавно звучать. К сожалению, слишком плавно: недостатком раннего параметрического синтеза было то, что полученный голос звучал неестественно. Он был слишком гладким, лишённым интонаций и эмоций, звенел металлом. Люди так не говорят. Вот как звучал голос при раннем параметрическом синтезе: Причина неестественности синтезированного голоса кроется в самой архитектуре. У акустической модели мало информации о тексте в целом. Даже рекуррентная нейросеть, которая, казалось бы, умеет запоминать предыдущие состояния, очень быстро забывает их и фактически не учитывает полный текст. При этом человек обычно произносит речь, понимая, что только что прозвучало и что будет дальше по тексту.
Кроме того, человеческая речь мультимодальна — есть несколько способов произнести текст, каждый из которых описывается сигналом и звучит более-менее нормально. Но среднее между этими способами звучит неестественно. Проблема стандартных регрессионных методов глубокого обучения в том, что они ищут одну моду — «хорошее среднее» — и попадают в такие «провалы неестественности». В результате оказывается, что лучше случайно выбрать один из двух способов, чем попасть в среднее между ними. Впрочем, даже если акустическая модель и смогла бы разобраться в контексте и выдать обогащённое информацией промежуточное состояние, то с ним уже не мог справиться примитивный вокодер. Поэтому мы не остановились и стали искать более совершенные решения. Конкатенативный синтез: рождение Алисы В 2016 году мы решили создать Алису — сразу было понятно, что это более амбициозная задача, чем всё, чем занимались раньше. Дело в том, что в отличие от простых TTS-инструментов, голосовой помощник должен звучать человечно, иначе люди просто не станут с ним или с ней общаться. Предыдущая архитектура совершенно не подходила. К счастью, был и другой подход.
Точнее, даже два. Тогда как раз набирал обороты нейропараметрический подход, в котором задачу вокодера выполняла сложная нейросетевая модель. Например, появился проект WaveNet на базе свёрточной нейросети, которая могла обходиться и без отдельной акустической модели. На вход можно было загрузить простые лингвистические данные, а на выходе получить приличную речь. Первым импульсом было пойти именно таким путём, но нейросети были совсем сырые и медленные, поэтому мы не стали их рассматривать как основное решение, а исследовали эту задачу в фоновом режиме. На генерацию секунды речи уходило до пяти минут реального времени. Это очень долго: чтобы использовать синтез в реальном времени, нужно генерировать секунду звука быстрее, чем за секунду. Что же делать? Если нельзя синтезировать живую речь с нуля, нужно взять крошечные фрагменты речи человека и собрать из них любую произвольную фразу. Напомню, что в этом суть конкатенативного синтеза, который обычно ассоциируется с методом unit selection.
Пять лет назад он уже давал наилучшее качество при достаточном количестве данных в задачах, где была нужна качественная речь в реальном времени. И здесь мы смогли переиспользовать нейросети нашей старой параметрики. Работало это следующим образом: На первом шаге мы использовали нейросетевую параметрику, чтобы синтезировать речь с нуля — подобному тому, как делали раньше. Напомню, что по качеству звучания результат нас не устраивал, но мог использоваться как референс по содержанию. На втором шаге другая нейросеть подбирала из базы фрагментов записанной речи такие, из которых можно было собрать фразу, достаточно близкую к сгенерированной параметрикой. Вариантов комбинаций фрагментов много, поэтому модель смотрела на два ключевых показателя. Первый — target-cost, точность соответствия найденного фрагмента гипотезе, то есть сгенерированному фрагменту. Второй показатель — join-cost, насколько два найденных соседних фрагмента соответствуют друг другу. По сути, нужно было выбрать вариант, для которого сумма target-cost и join-cost минимальна.
Основные отличия между сценариями и командами для Алисы: Сценарии выполняются последовательно, а команды — сразу после произнесения. Сценарии позволяют автоматизировать выполнение определенных действий, а команды — нет. Сценарии могут включать в себя как команды для Алисы, так и команды для других устройств умного дома. Рассмотрим конкретные примеры сценариев для Алисы и включенные в них команды. Так, сценарий «Алиса, включи утро» может состоять из команд: включить свет на кухне; включить кофеварку; включить телевизор. Без сценария эти действия можно запустить самостоятельно, произнося команды для Алисы: «Алиса, включи свет на кухне», «Алиса, включи кофеварку», «Алиса, включи телевизор». Или при запуске на смартфоне условного сценария «Возвращение с работы» вы запускаете цепочку команд: «Включить свет», «Запустить музыку», «Опустить шторы» и прочее. Приложение можно использовать для создания нескольких видов сценариев. По ключевой фразеПользователь произносит определенную фразу — и сценарий запускается. Например, «Алиса, включи свет в гостиной». По расписаниюСценарий запускается в определенное время или по определенным дням недели.
Будь в курсе последних новостей из мира гаджетов и технологий iGuides для смартфонов Apple Утреннее шоу «Алисы» стало персональным Александр Кузнецов — 2 октября 2020, 17:10 Утреннее шоу голосовой ассистентки «Алисы» теперь можно настроить на свой вкус, указав тематику новостей и подкастов. Например, человек может выбрать новости спорта и подкасты про кино. Кроме того, в голосовом помощнике появились новости радиостанций. Утреннее шоу — это развлекательная программа, где «Алиса» выступает в роли ведущей. Она читает новости, ставит людям музыку и развлекает историями на разные темы — почти как настоящий диджей.
Слушать утреннее и вечернее шоу Алисы на Станции
Теперь пользователи могут добавить новости в Утреннее шоу Алисы. Тогда, услышав запрос «Расскажи новости», Алиса будет всегда включать новости нужного издания. Кроме этого, их можно добавить в утреннее шоу Алисы. Шоу и новости доступны в и, Станции Мини и других умных колонках, где есть голосовой помощник Алиса. Утреннее шоу Алисы теперь можно настроить на свой вкус. Для этого пользователь может сам выбрать тематику новостей и подкастов.