В этой статье мы рассмотрим, что такое утреннее шоу от Алисы, как включить его на Яндекс Станции и как настроить. «Алиса, включи шоу» — для начала воспроизведения выбранного видео.
Утренняя Алиса. У голосового помощника Яндекса теперь своё шоу
Ключевые особенности: Участвовать в утреннем шоу могут все навыки общего типа. Пользователь услышит конкретную историю от навыка только один раз. Если у навыка несколько актуальных историй, пользователю будет рассказана самая свежая. В утреннее шоу не попадут истории старше семи дней.
Она читает новости, включает музыку и развлекает слушателей веселыми историями. Для того чтобы она ставила наиболее подходящий контент, стоит указать свои предпочтения в настройках. Тем более что там есть выбор. Сейчас в голосовом помощнике доступны 11 новостных тематик и 21 рубрика для подкастов. Всего у Алисы больше двух тысяч подкастов на разные темы.
Теперь она может вести «утреннее шоу» - так назвали программу, при которой Алиса будет ставить различные треки из плейлиста пользователя на Яндекс. Музыке, дополняя их различными комментариями во время пауз, а также сообщая новости на интересующую тематику. Заявлено, что все это будет очень персонализировано, а не по какому-то одному определенному шаблону для всех пользователей.
Для этого пользователь может сам выбрать тематику новостей и подкастов. Например, новости спорта или подкасты про кино. Кроме этого, в голосовом помощнике появились новости радиостанций. Утреннее шоу - это развлекательная программа, в которой Алиса выступает в роли ведущей. Она читает новости, включает музыку и развлекает слушателей веселыми историями.
Сообщество
- Содержание
- Как запустить Утреннее шоу Алисы | Как спросить, фишки навыка
- Ранний параметрический синтез: эпоха до Алисы
- «Яндекс» научил «Алису» вести персональное утреннее шоу | Канобу
- Читает ли Алиса последние новости? Необходимые настройки
Слушать утреннее и вечернее шоу Алисы на Станции
Не все знаки препинания в речи выражаются паузами Например, после вводного слова «конечно» на письме мы ставим запятую, но в речи обычно не делаем паузу. А там, где знаков препинания нет, мы часто делаем паузы. Если эту информацию не передавать в акустическую модель, то она пытается её выводить и не всегда успешно. Первая модель Алисы из-за этого могла начать вздыхать в случайных местах длинного предложения. Для этого мы взяли датасет, разметили его детектором активности голоса, сгруппировали паузы по длительности, ввели класс длины паузы, на каждое слово навесили тэг и на этом корпусе обучили ещё одну голову внимания из тех же нейросетевых эмбеддингов, что использовались для детекции омографов. Осенью 2020 года мы перевели на трансформеры нормализацию — в синтезе она нужна, чтобы решать сложные случаи, когда символы читаются не «буквально», а по неким правилам. Например, «101» нужно читать не как «один-ноль-один», а как «сто один», а в адресе yandex.
Обычно нормализацию делают через комбинацию взвешенных трансдьюсеров FST — правила напоминают последовательность замен по регулярным выражениям, где выбирается замена, имеющая наибольший вес. Мы долго писали правила вручную, но это отнимало много сил, было очень сложно и не масштабируемо. Тогда решили перейти на трансформерную сеть, «задистиллировав» знания наших FST в нейронку. Теперь новые «правила раскрытия» можно добавлять через доливание синтетики и данных, размеченных пользователями Толоки, а сеть показывает лучшее качество, чем FST, потому что учитывает глобальный контекст. Итак, мы научили Алису говорить с правильными интонациями, но это не сделало ее человеком — ведь в нашей речи есть еще стиль и эмоции. Работа продолжалась.
С чувством, толком, расстановкой: стили голоса Алисы Один и тот же текст можно произнести десятком разных способов, при этом сам исходный текст, как правило, никаких подсказок не содержит. Если отправить такой текст в акустическую модель без дополнительных меток и обучить её на достаточно богатом различными стилями и интонациями корпусе, то модель сойдёт с ума — либо переусреднит всё к металлическому «голосу робота», либо начнёт генерировать случайный стиль на каждое предложение. Это и произошло с Алисой: в начале она воспроизводила рандомные стили в разговоре. Казалось, что у неё менялось настроение в каждом предложении. Вот пример записи с явными перебоями в стилях: Чтобы решить проблему, мы добавили в акустическую модель стили: в процессе обучения нейросети специально ввели «утечку». Суть в том, что через очень lossy-пространство всего 16 чисел на всё предложение разрешаем сетке посмотреть на ответ — истинную мел-спектрограмму, которую ей и нужно предсказать на обучении.
За счёт такой «шпаргалки» сеть не пытается выдумывать непредсказуемую по тексту компоненту, а для другой информации не хватит размерности шпаргалки. На инференсе мы генерируем стилевую подсказку, похожую на те, что были в обучающем сете. Это можно делать, взяв готовый стиль из обучающего примера или обучив специальную подсеть генерировать стили по тексту. Если эту подсеть обучить на особом подмножестве примеров, можно получить специальные стили для, скажем, мягкого или дружелюбного голоса. Или резкого и холодного. Или относительно нейтрального.
Чтобы определиться со стилем по умолчанию, мы устроили турнир, где судьями выступали пользователи Толоки. Там не было разметки, мы просто нашли кластеры стилей и провели между ними соревнование. Победил кластер с очень мягкой и приятной интонацией. Дальше началось самое интересное. Мы взяли образцы синтезированной «мягкой» речи Алисы и фрагменты речи актрисы Татьяны Шитовой, которые относились к более резкому стилю. Затем эти образцы с одним и тем же текстом протестировали вслепую на толокерах.
Оказалось, что люди выбирают синтезированный вариант Алисы, несмотря на более плохое качество по сравнению с реальной речью человека. В принципе, этого можно было ожидать: уверен, многие предпочтут более ласковый разговор по телефону то есть с потерей в качестве живому, но холодному общению. К примеру, так звучал резкий голос: А так — мягкий: Результаты турниров позволили нам выделить во всем обучающем датасете данные, которые относятся к стилю-победителю, и использовать для обучения только их. Благодаря этому Алиса по умолчанию стала говорить более мягким и дружелюбным голосом. Этот пример показывает, что с точки зрения восприятия важно работать не только над качеством синтеза, но и над стилем речи. После этого оставалось только обогатить Алису новыми эмоциями.
Бодрая или спокойная: управляем эмоциями Алисы Когда вы включаете утреннее шоу Алисы или запускаете автоматический перевод лекции на YouTube, то слышите разные голоса — бодрый в первом случае и более флегматичный в другом. Эту разницу сложно описать словами, но она интуитивно понятна — люди хорошо умеют распознавать эмоции и произносить один и тот же текст с разной эмоциональной окраской. Мы обучили этому навыку Алису с помощью той же разметки подсказок, которую применили для стилей. У языка есть интересное свойство — просодия , или набор элементов, которые не выражаются словами. Это особенности произношения, интенсивность, придыхание и так далее. Один текст можно произнести со множеством смыслов.
Как и в случае со стилями речи, можно, например, выделить кластеры «веселая Алиса», «злая Алиса» и так далее. Поскольку стилевой механизм отделяет просодию «как говорим» от артикуляции «что говорим» , то новую эмоцию можно получить буквально из пары часов данных. По сути, нейросети нужно только выучить стиль, а информацию о том, как читать сочетания фонем, она возьмёт из остального корпуса. Прямо сейчас доступны три эмоции. Например, часть пользователей утреннего шоу Алисы слышат бодрую эмоцию. Кроме того, её можно услышать, спросив Алису «Кем ты работаешь?
Флегматичная эмоция пригодилась для перевода видео — оказалось, что голос по умолчанию слишком игривый для этой задачи. Наконец, радостная эмоция нужна для ответов Алисы на специфические запросы вроде «Давай дружить» и «Орёл или решка? Ещё есть негативная эмоция, которую пока не знаем, как использовать — сложно представить ситуацию, когда людям понравится, что на них ругается робот. Первый корпус эмоций мы записали ещё при WaveGlow, но результат нас не устроил и выкатывать его не стали. С переходом на HiFi-GAN стало понятно, что он хорошо работает с эмоциями, это позволило запустить полноценный эмоциональный синтез. Наконец, мы решили внедрить шёпот.
Когда люди обращаются к Алисе шёпотом, она должна и отвечать шёпотом — это делает её человечнее. При этом шёпот — не просто тихая речь, там слова произносятся без использования голосовых связок.
Кроме того, в голосовом помощнике появились новости радиостанций. Утреннее шоу — это развлекательная программа, где «Алиса» выступает в роли ведущей.
Она читает новости, ставит людям музыку и развлекает историями на разные темы — почти как настоящий диджей. Чтобы она включала наиболее подходящий контент, нужно указать свои предпочтения в настройках. Сейчас в голосовом помощнике доступны 11 новостных тематик и 21 рубрика для подкастов.
Здесь же пригодится и функция напоминаний: при составлении списка дел вы можете указывать только день — попросить составить список на сегодня, завтра или конкретную дату. А команды вроде «Напомни позвонить Александру по поводу квартиры» работают с часами и даже минутами. Воспользоваться функцией можно даже в телевизоре. Правда, только если он от «Яндекса». Источник: yandex.
В приложениях для смартфонов такого пока нет. Мы хотим, чтобы Алиса была не только помощником, но и другом, с которым приятно проводить время. Поэтому мы учим её следить за новостями, развлекать пользователей и создавать приятную атмосферу в доме, и утреннее шоу — первый шаг в этом направлении.
А для тех, кто сидит на самоизоляции, голосовой помощник даёт советы о том, как провести время с пользой.
Утреннее шоу Алисы стало персональным
Началась ежедневная рутина. Когда Вы сказали "доброе утро" - на кухне включился кондиционер автоматизации нет, если температура за окном минус 35 градусов, придется ручками заранее отключать работу кондиционера в данном моём сценарии. Вы направились на кухню, время готовить. На балконе в закрытом шкафу лежит спрятанный пакетик листиков для заварки чая.
Как только Вы открыли дверь балкона - кондиционер автоматически выключился. Пришлось запускать голосом. Время отправляться на работу.
Вы приняли душ под энергичную музыку которую включила умная станция по потоку рекомендаций. Геля для душа осталось не так много. Вы говорите «Алиса, добавь в список покупок: гель для душа и зубную пасту».
Когда будете возвращаться домой после работы — не забудьте открыть список покупок на телефоне. Вытяжка работает исправна. Закончив водные процедуры - время идти в коридор и одеваться.
Как только вы подошли к шкафу — свет в коридоре включился. Вы собрались уходить, но заметили невыключенный свет в некоторых комнат. Возле входной двери нас ждала умная кнопка.
Умные выключатели освещения для круглых подрозетников подключены через zigbee к УДЯ. Созданные мною сценарии в приложении УДЯ позволили связать все это между собой. Сценарий: Как Яндекс управляет самым простым кондиционером?
Для этого сценария используется Умный Пульт Яндекса я его приобрел за 600 рублей - вы сделали запрос и Пульт Яндекса отправил ИК сигнал на кондиционер. Яндекс Пульт поддерживает множество производителей или можно самому обучить Яндекс Пульт. Ранее: На улице жара и вы направляетесь домой.
Вы сможете включить кондиционер только когда вы придёте домой. Сейчас: На улице такая же жара и также направляетесь домой. Заходите в приложение УДЯ и включаете кондиционер.
Или, возможно, создали готовый сценарий как я ниже. Ну или просто ручное управление через приложение или голосом. Сценарий: Контролируем протечку воды в ванной и на кухне Ранее: Редко заглядываешь под кухонную раковину для проверки фильтров воды.
Сейчас: Датчик протечки воды всё контролирует. Если что-то произойдет - придет пуш в телеграме и колонка в спальне скажет об этом. Сценарий: Автоматическое включение света в ванной Ранее: Время поздняя ночь.
Нужно сходить в ванную комнату, а телефон ещё на зарядке. Решили идти так, возможно получится нащупать выключатель света. Сейчас: Всё как и всегда, но теперь датчик движения детектик ваше движение по пути и включает свет в ванной комнате.
Здесь ещё можно добавить автоотключение через 2-3 минуты, но вдруг вы ещё находитесь там? Здесь уже нужно использовать датчик присутствия - Aqara FP1. Сценарий: Неумная вытяжка в ванной становится умной Ранее: Во многих квартирах вентиляционная вытяжка работает, только когда включён свет в ванной.
А что делать, если вы помылись? Свет не отключать? Сейчас: Сделана простая автоматизация через Умный Дом Яндекса.
Если колонка мигает зеленым, значит, вам пришло новое уведомление Зайдите в приложение Яндекс; Перейдите в «Настройки»; Выберите «Уведомления от Алисы». Когда на колонку поступит уведомление, прозвучит короткий звуковой сигнал, а сама колонка начнет мигать зеленым. Просто скажите «Алиса, что нового? Какой сериал посмотреть Яндекс. Станция поможет выбрать похожий сериал взамен того, что вы уже посмотрели Согласитесь, когда заканчивается сериал , есть ощущение пустоты и кажется, что жизнь уже не будет прежней без былого сюжета. Ничего страшного! Просто скажите колонке «Алиса, запусти навык «Подбор сериала». Вам нужно будет сказать название любимого сериала, а голосовой помощник предложит вам несколько аналогичных вариантов, схожих по сюжету. В яблочко!
Еще больше статей о голосовых ассистентах и умных колонках в нашем Яндекс. Не забудьте подписаться! Краткий пересказ книги Читать полезно, но иногда жизненно необходимо быстро узнать краткое содержание Если бы Алиса существовала в мои школьные годы, то я бы сэкономил кучу времени! Вы знали, что голосовой ассистент имеет навык «Умный пересказ»? В ней доступны две категории: Лучшее и книги школьной программы. Для этого вам необходимо сказать «Алиса, запусти умный пересказ» и далее выбрать категорию.
В общей сложности у Алисы больше двух тысяч подкастов на разные темы. Голосовой помощник следит за новостными выпусками девяти радиостанций. Станции, Станции Мини и других умных колонках, где есть голосовой помощник Алиса. Чтобы выбрать тематику новостей и подкастов, нужно просто открыть приложение Яндекс, выбрать пункт «Устройства», далее выбрать «Аккаунт» и перейти в «Настройки шоу Алисы». А куда нажать?
Рассказываю, на что теперь способна Алиса. Караоке на «ТВ Станциях» Обожаете петь, но текст любимых песен так и не выучили? Не беда! Просто попросите Алису показать текст и он появится на экране. Запрашивать можно текст как зарубежных, так и отечественных песен. Кстати, кнопка «Т» рядом с треком сразу подскажет, что у Алисы есть текст для этой песни.
Умные колонки с "Алисой" научились вести персонализированные утренние шоу
Персонализированное «Утреннее шоу» с «Алисой» (не все знают о его настройке). Оказалось, что люди выбирают синтезированный вариант Алисы, несмотря на более плохое качество по сравнению с реальной речью человека. Утреннее шоу Алисы поможет настроиться на день и не забыть о важном. Алиса расскажет о погоде, представит персональную подборку новостей, включит короткий подкаст, специально подобранный трек или плейлист.
Вышло апрельское обновление Алисы и умных устройств Яндекса
Браузер на телефоне или компьютере. После просьбы «Настроить новости» Алиса скажет: Выберите новости, которые хотите слушать в ответ на команду «Алиса, расскажи новости». Отмечаем соответствующие кружочки и нажимаем «Сохранить». На телефоне это выглядит так: А на ноутбуке или компьютере вот так: Другими словами, настроить новости Алисы можно как с телефона, так и ноутбука. Главное, чтобы был установлен Яндекс. Браузер и в нём была включена синхронизация. Возможно, вам пригодится, особенно если вы интересуетесь, как отключить Дзен: Как вернуть Яндекс и убрать Дзен с главной страницы.
Например, вы можете выбрать новости спорта и подкасты про кино. Сейчас в голосовом помощнике доступны 11 новостных тематик и 21 рубрика для подкастов. В общей сложности у Алисы больше двух тысяч подкастов на разные темы. Голосовой помощник следит за новостными выпусками девяти радиостанций.
Станции, Станции Мини и других умных колонках, где есть голосовой помощник Алиса.
Из-за большого прыжка в размерности end2end работает плохо даже сейчас. Лучше разделить это преобразование на два шага: сначала нарисовать звук в особом параметрическом отсюда название метода пространстве, а затем преобразовать параметрическое представление звука в wav-файл. В 2014 году нейросетевые методы речевого синтеза только зарождались. Тогда качеством правил конкатенативный синтез, но нам в эру SpeechKit было необходимо легковесное решение для Навигатора , поэтому остановились на простом и дешёвом параметрическом синтезе. Он состоял из двух блоков: Первый — акустическая модель.
Она получает лингвистические данные разбитые на фонемы слова и дополнительную разметку и переводит их в промежуточное состояние, которое описывает основные свойства речи — скорость и темп произнесения слов, интонационные признаки и артикуляцию — и спектральные характеристики звука. К примеру, в начале, до появления Алисы, в качестве модели мы обучали рекуррентную нейросеть RNN с предсказанием длительности. Она достаточно хорошо подходит для задач, где нужно просто последовательно проговаривать фонемы и не надо рисовать глобальную интонацию. Затем данные передаются на второй блок — вокодер — который и генерирует звук то есть создаёт условный wav по его параметрическому представлению. Вокодер определяет низкоуровневые свойства звука: sampling rate, громкость, фазу в сигнале. Наш вокодер в первой системе был детерминированным DSP-алгоритмом не обучался на данных — подобно декодеру mp3, он «разжимал» параметрическое представление звука до полноценного wav.
Естественно, такое восстановление сопровождалось потерями — искусственный голос не всегда был похож на оригинал, могли появляться неприятные артефакты вроде хрипов для очень высоких или низких голосов. Схема параметрического синтеза Это стандартная архитектура для любой ранней параметрики со своими достоинствами и недостатками. Главный плюс — для обучения модели нужно мало данных нам хватило 5-10 часов записей человеческой речи. Можно синтезировать любой произвольный текст, который даже будет плавно звучать. К сожалению, слишком плавно: недостатком раннего параметрического синтеза было то, что полученный голос звучал неестественно. Он был слишком гладким, лишённым интонаций и эмоций, звенел металлом.
Люди так не говорят. Вот как звучал голос при раннем параметрическом синтезе: Причина неестественности синтезированного голоса кроется в самой архитектуре. У акустической модели мало информации о тексте в целом. Даже рекуррентная нейросеть, которая, казалось бы, умеет запоминать предыдущие состояния, очень быстро забывает их и фактически не учитывает полный текст. При этом человек обычно произносит речь, понимая, что только что прозвучало и что будет дальше по тексту. Кроме того, человеческая речь мультимодальна — есть несколько способов произнести текст, каждый из которых описывается сигналом и звучит более-менее нормально.
Но среднее между этими способами звучит неестественно. Проблема стандартных регрессионных методов глубокого обучения в том, что они ищут одну моду — «хорошее среднее» — и попадают в такие «провалы неестественности». В результате оказывается, что лучше случайно выбрать один из двух способов, чем попасть в среднее между ними. Впрочем, даже если акустическая модель и смогла бы разобраться в контексте и выдать обогащённое информацией промежуточное состояние, то с ним уже не мог справиться примитивный вокодер. Поэтому мы не остановились и стали искать более совершенные решения. Конкатенативный синтез: рождение Алисы В 2016 году мы решили создать Алису — сразу было понятно, что это более амбициозная задача, чем всё, чем занимались раньше.
Дело в том, что в отличие от простых TTS-инструментов, голосовой помощник должен звучать человечно, иначе люди просто не станут с ним или с ней общаться. Предыдущая архитектура совершенно не подходила. К счастью, был и другой подход. Точнее, даже два. Тогда как раз набирал обороты нейропараметрический подход, в котором задачу вокодера выполняла сложная нейросетевая модель. Например, появился проект WaveNet на базе свёрточной нейросети, которая могла обходиться и без отдельной акустической модели.
На вход можно было загрузить простые лингвистические данные, а на выходе получить приличную речь. Первым импульсом было пойти именно таким путём, но нейросети были совсем сырые и медленные, поэтому мы не стали их рассматривать как основное решение, а исследовали эту задачу в фоновом режиме. На генерацию секунды речи уходило до пяти минут реального времени. Это очень долго: чтобы использовать синтез в реальном времени, нужно генерировать секунду звука быстрее, чем за секунду. Что же делать? Если нельзя синтезировать живую речь с нуля, нужно взять крошечные фрагменты речи человека и собрать из них любую произвольную фразу.
Напомню, что в этом суть конкатенативного синтеза, который обычно ассоциируется с методом unit selection. Пять лет назад он уже давал наилучшее качество при достаточном количестве данных в задачах, где была нужна качественная речь в реальном времени. И здесь мы смогли переиспользовать нейросети нашей старой параметрики. Работало это следующим образом: На первом шаге мы использовали нейросетевую параметрику, чтобы синтезировать речь с нуля — подобному тому, как делали раньше. Напомню, что по качеству звучания результат нас не устраивал, но мог использоваться как референс по содержанию. На втором шаге другая нейросеть подбирала из базы фрагментов записанной речи такие, из которых можно было собрать фразу, достаточно близкую к сгенерированной параметрикой.
Вариантов комбинаций фрагментов много, поэтому модель смотрела на два ключевых показателя. Первый — target-cost, точность соответствия найденного фрагмента гипотезе, то есть сгенерированному фрагменту. Второй показатель — join-cost, насколько два найденных соседних фрагмента соответствуют друг другу. По сути, нужно было выбрать вариант, для которого сумма target-cost и join-cost минимальна. Эти параметры можно считать разными способами — для join-cost мы использовали нейросети на базе Deep Similarity Network, а для target-cost считали расстояние до сгенерированной параметрикой гипотезы. Сумму этих параметров, как и принято в unit selection, оптимизировали динамическим программированием.
Кстати, подобный подход использовался и при создании Siri 2. Схема конкатенативного синтеза У такого подхода тоже есть плюсы и минусы. Среди достоинств — более естественное звучание голоса, ведь исходный материал не синтезирован, а записан вживую. Правда, есть и обратная сторона: чем меньше данных, тем более грубо будут звучать места склейки фрагментов.
Команды для Алисы — это отдельные приказы, которые выполняются сразу после их произнесения. Например, команда «Алиса, включи свет» включает свет в комнате. Команды можно использовать для выполнения простых действий, которые не требуют автоматизации. Основные отличия между сценариями и командами для Алисы: Сценарии выполняются последовательно, а команды — сразу после произнесения. Сценарии позволяют автоматизировать выполнение определенных действий, а команды — нет.
Сценарии могут включать в себя как команды для Алисы, так и команды для других устройств умного дома. Рассмотрим конкретные примеры сценариев для Алисы и включенные в них команды. Так, сценарий «Алиса, включи утро» может состоять из команд: включить свет на кухне; включить кофеварку; включить телевизор. Без сценария эти действия можно запустить самостоятельно, произнося команды для Алисы: «Алиса, включи свет на кухне», «Алиса, включи кофеварку», «Алиса, включи телевизор». Или при запуске на смартфоне условного сценария «Возвращение с работы» вы запускаете цепочку команд: «Включить свет», «Запустить музыку», «Опустить шторы» и прочее. Приложение можно использовать для создания нескольких видов сценариев.
Топовые фишки Яндекс.Станции, о которых вы могли не знать
«Алиса» научилась персонализировать «Утреннее шоу» и включать новости радиостанций. Яндекс Станция включает Шоу Алисы (погода, новости, музыка и т.п.). Об этом я рассказываю ниже. Для утреннего сценария использую автоматизацию охлаждения кухни кондиционером. Как настроить новости Яндекс Алиса. «Алиса» научилась персонализировать «Утреннее шоу». Новости — подборка навыков Алисы, голосового помощника от Яндекса. Утреннее шоу — это развлекательная программа, где «Алиса» выступает в роли ведущей. Как настроить новости Яндекс Алиса. «Алиса» научилась персонализировать «Утреннее шоу».
Место под большое лого и рекламу навыков
Умные колонки с голосовым помощником "Алиса" научились проводить утренние шоу, которые подбираются под конкретных пользователей. Для настройки новостей на Яндекс Алисе необходимо открыть раздел «Интеграция» в настройках приложения. Множество полезных навыков для голосового помощника ждут вас в Каталоге навыков Алисы. Кроме того, в голосовом помощнике появились новости радиостанций. Утреннее шоу — это развлекательная программа, где «Алиса» выступает в роли ведущей.
Еще по теме
- Алиса запустила утреннее шоу с персональными рекомендациями
- Что нового в апреле у Алисы и умных устройств
- Как настроить новости в Алисе
- Настроить шоу Алисы
Утренняя Алиса. У голосового помощника Яндекса теперь своё шоу
Утреннее шоу Алисы – получайте новости и полезную информацию каждое утро. В конце 2020 года утреннее шоу Алисы стало персонализированным. Какие новости нужно выбирать, чтобы быть в курсе последних событий, но не утомляться излишним потоком информации? Умная лампочка Яндекс с Алисой, цоколь E27, белая (YNDX-00501). О сервисе Прессе Авторские права Связаться с нами Авторам Рекламодателям Разработчикам. первый шаг в этом направлении".