AEG 0 14 апреля, 2015 Опубликовано 14 апреля, 2015 · Жалоба Здравствуйте! Меня интересует проблема учета уровня шума при мягких демодуляции/декодировании. Прилагаю скриншот с симулинковской моделью, на которой отображены так же результаты моделирования. Можно видеть, что принятие неверной сигмы 1.5 при формировнии решений демодулятора дает лучший результат, чем принятие истинной сигмы 1.0. Результат для меня неожиданный и непонятный. Различе небольшое, но статистически значимое, поскольку выборка большая, и моделирование проводилось неоднократно с разными начальными условиями генератора случайных чисел. Результат один. Помимо этого видно, что учет разных сигм дает вообще не очень-то различный результат. Я ожидал другого. Можно вообще использовать приближенные LLR вместо точных, где сигма вообще не участвует. Результат опять таки будет мало отличаться. Зачем же тогда вообще нужен учет шума, если толку мало? Модель изготовлена из матлаб-симулинковского демо "LLR vs. Hard Decision Demodulation". Все параметры модуляции, кодирования и т.д. такие же как в демке. Их можно крутить, но по сути ничего не меняется. Используются неквантованные решения демодулятора. Расчитываю на помощь экспертов. Спасибо! Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
des00 25 14 апреля, 2015 Опубликовано 14 апреля, 2015 · Жалоба Помимо этого видно, что учет разных сигм дает вообще не очень-то различный результат. Я ожидал другого. Можно вообще использовать приближенные LLR вместо точных, где сигма вообще не участвует. Результат опять таки будет мало отличаться. Зачем же тогда вообще нужен учет шума, если толку мало? ИМХО это особенность реализации мягкого декодера витерби в матлабе и его "деревянность" как алгоритма декодирования в принципе. (Ничего не имею против классического витерби, но выбор максимально правдоподобного пути определенного символами, давно не рулит). Попробуйте поставить турбодекодер или лдпц. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
Grizzly 0 14 апреля, 2015 Опубликовано 14 апреля, 2015 (изменено) · Жалоба При небольших рассогласованиях в оценке мощности шума существенных ухудшений BER не будет. Если же вы вместо 1 будете использовать оценку, скажем, равную 7, то увидите, что BER резко ухудшится. Если в том примере из MATLAB вы будете работать с неверной оценкой в схеме с квантованием, то уже при малых рассогласованиях оценки шума будет плохой BER, поскольку уровни квантователя расситываются заранее на определенную мощность шума. Как сказал выше des00, для LDPC и турбокодов для некоторых алгоритмов неверная оценка шума очень критична. Можно видеть, что принятие неверной сигмы 1.5 при формировнии решений демодулятора дает лучший результат, чем принятие истинной сигмы 1.0. Результат для меня неожиданный и непонятный. Как вы определили, что именно этот результат лучший? С помощью функции berconfint можете посчитать доверительные интервалы. На скриншоте виден объективный разброс в статистике. Изменено 14 апреля, 2015 пользователем Grizzzly Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
andyp 10 14 апреля, 2015 Опубликовано 14 апреля, 2015 (изменено) · Жалоба Помимо этого видно, что учет разных сигм дает вообще не очень-то различный результат. Я ожидал другого. Можно вообще использовать приближенные LLR вместо точных, где сигма вообще не участвует. Результат опять таки будет мало отличаться. Зачем же тогда вообще нужен учет шума, если толку мало? Модель изготовлена из матлаб-симулинковского демо "LLR vs. Hard Decision Demodulation". Все параметры модуляции, кодирования и т.д. такие же как в демке. Их можно крутить, но по сути ничего не меняется. Используются неквантованные решения демодулятора. Расчитываю на помощь экспертов. Спасибо! Могу посоветовать повторить моделирование на ОСШ пониже. На 10 раличия в способах формирования мягких решений не сильно влияют. Также, я думаю, что для 6..7 значащей цифры в BER маловато статистики. Статистики было бы достаточно, чтобы сказать, что BER лучше, чем 10^-7, если бы не было зафиксировано ошибок. Но для сравнения, которое Вы проводите, мне кажется, что передано недостаточно бит. Вы ж врядли даже все возможные кодовые слова сверточного кода по разу передали. Изменено 14 апреля, 2015 пользователем andyp Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
serjj1333 0 15 апреля, 2015 Опубликовано 15 апреля, 2015 · Жалоба Почему если выбрать approximate log-likelihood ratio вместо обычного log-likelihood ratio результат не зависит от сигма шума? Прикладываю модельку с экспериментом. При этом если выбрать log-likelihood ratio то при значительной ошибке сигма и низком snr получем большой ber. В моем понимание approximate метод позволяет перейти от логарифма суммы экспонент к max/min функциям, при этом сигма выносится за скобки, но не уходит из конечного выражения. Какая-то особенность реализации матлабовского approximate log-likelihood ratio? что-то вроде автоматической нормировки сигмы к 1, на подобии той что делают на практике? llr_test.zip Еще вот статейку почитал по soft decision для OFDM, мб будет интересно: HPL_2001_246.pdf Они сигму нормируют к 1, считая шум постоянным на каждой поднесущей, но учитывают мощность канальных весов для корректировки значений метрик. Насколько это реально улучшит OFDM систему в условиях частотно-селективных замираний? Интуитивно мне это понятно, т.к. чем меньше i-й канальный вес, тем больше подавление на данной поднесущей и больше "раздувание" шума после выравнивания, следовательно меньше достоверность бит переданных в данном символе, но интересно как это на практике будет - есть смысл так делать или нет. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
Grizzly 0 15 апреля, 2015 Опубликовано 15 апреля, 2015 (изменено) · Жалоба Посмотрел справку и последнюю редакцию Communications System Toolbox User's Guide для 2015a. Там в формуле с аппроксимацией есть деление на сигма в квадрате пед скобкой. При этом они ссылаются на статью Витерби ”An Intuitive Justification and a Simplified Implementation of the MAP Decoder for Convolutional Codes”, в которой нет упоминаний про уровень шума. Остается только самому написать скрипт и сравнить с LLR, которые выдает симулинковский демодулятор. Мне тоже кажется, что там есть нормировка к единичной мощности. Изменено 15 апреля, 2015 пользователем Grizzzly Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
andyp 10 15 апреля, 2015 Опубликовано 15 апреля, 2015 · Жалоба Почему если выбрать approximate log-likelihood ratio вместо обычного log-likelihood ratio результат не зависит от сигма шума? Прикладываю модельку с экспериментом. При этом если выбрать log-likelihood ratio то при значительной ошибке сигма и низком snr получем большой ber. В моем понимание approximate метод позволяет перейти от логарифма суммы экспонент к max/min функциям, при этом сигма выносится за скобки, но не уходит из конечного выражения. Какая-то особенность реализации матлабовского approximate log-likelihood ratio? что-то вроде автоматической нормировки сигмы к 1, на подобии той что делают на практике? Это особенность алгоритма витерби - вынесенная за скобки сигма не влияет на результат декодирования. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
petrov 7 15 апреля, 2015 Опубликовано 15 апреля, 2015 · Жалоба Интуитивно мне это понятно, т.к. чем меньше i-й канальный вес, тем больше подавление на данной поднесущей и больше "раздувание" шума после выравнивания, следовательно меньше достоверность бит переданных в данном символе, но интересно как это на практике будет - есть смысл так делать или нет. Вообще интуитивно понятно, что в OFDM возможности мяких кодов как бы недоиспользуются, грубо, канал нам известен из оценки, в задавленных поднесущих инфы нет, в поднесущих, где сложение лучей в фазе произошло, наоборот сигна/шум очень хороший, т. е. ошибки ближе к жёстким, как бы в такой ситуации БЧХ с исправлением стираний не сильно хуже оказался. Более того каналы с замираниями могут быть и справлены без избыточного кодирования вообще! Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
andyp 10 15 апреля, 2015 Опубликовано 15 апреля, 2015 · Жалоба Более того каналы с замираниями могут быть и справлены без избыточного кодирования вообще! Для OFDM этот тезис неверен именно потому, что в каждом кодовом блоке теряются биты, попадающие на спектральные нули. Для того, чтобы их восстановить, нужна небольшая избыточность. OFDMа без избыточности не бывает, так как именно избыточность кода позволяет реализовать частотное разнесение. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
serjj1333 0 15 апреля, 2015 Опубликовано 15 апреля, 2015 · Жалоба Посмотрел справку и последнюю редакцию Communications System Toolbox User's Guide для 2015a. Там в формуле с аппроксимацией есть деление на сигма в квадрате пед скобкой. При этом они ссылаются на статью Витерби ”An Intuitive Justification and a Simplified Implementation of the MAP Decoder for Convolutional Codes”, в которой нет упоминаний про уровень шума. Ага, вот здесь у них даётся мат описание алгоритмов LLR и ALLR: справка. Хотелось бы задать вопрос гуру итертивного декодирования (и мягкого декодирования вообще): Если в рассчёте метрик по методу approximate log-likelihood ratio мы вводим масштабирование на 1/sigma^2, то при меньшем snr входная достоверность каждого бита уменьшается. Логично вроде бы. Но мы полагаем, что действие шума усредненно по всем битам, тогда все метрики взвешиваются на 1/sigma^2 и при увеличении мощности шума достоверность всех бит на входе декодера уменьшается пропорционально. В процессе итераций декодера он просто скомпенсирует это уменьшение достоверности. Другое дело, если метрики взвешиваются различными коэффициентами как в приведенной выше статье с OFDM и частотно-селективными замираниями. Мое понимание, что важно не абсолютная достоверность метрик на входе декодера, а их соотношение между собой. Правильно ли я думаю? Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
petrov 7 15 апреля, 2015 Опубликовано 15 апреля, 2015 · Жалоба Для OFDM этот тезис неверен именно потому, что в каждом кодовом блоке теряются биты, попадающие на спектральные нули. Для того, чтобы их восстановить, нужна небольшая избыточность. OFDMа без избыточности не бывает, так как именно избыточность кода позволяет реализовать частотное разнесение. Избыточность не нужна! Разнесение можно реализовать без избыточности. Правильно ли я думаю? Да. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
serjj1333 0 15 апреля, 2015 Опубликовано 15 апреля, 2015 · Жалоба Немного оффтопа. Для OFDM этот тезис неверен именно потому, что в каждом кодовом блоке теряются биты, попадающие на спектральные нули. Для того, чтобы их восстановить, нужна небольшая избыточность. OFDMа без избыточности не бывает, так как именно избыточность кода позволяет реализовать частотное разнесение. Я знаю три вида избыточности в OFDM (на уровне OFDM символов данных): избыточность FEC, избыточность CP/ZP, избыточность пилот-тонов. При этом на декодирование символов, попавших в спектральные нули, влияет только первая избыточность, которая никак не связана с OFDM. Про какую избыточность вы говорите? Более того каналы с замираниями могут быть и справлены без избыточного кодирования вообще! Согласен с andyp, то что попало в спектральные нули, может быть вытянуто только FEC'ом. Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
des00 25 15 апреля, 2015 Опубликовано 15 апреля, 2015 · Жалоба Согласен с andyp, то что попало в спектральные нули, может быть вытянуто только FEC'ом. немного потроллю, а вы их (биты) адамаром размажьте каждый бит по всему спектру, а потом соберите ;) Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
petrov 7 15 апреля, 2015 Опубликовано 15 апреля, 2015 · Жалоба Согласен с andyp, то что попало в спектральные нули, может быть вытянуто только FEC'ом. Это не так, разнос битов между поднесущими может быть осуществлён без избыточности, это должно быть очевидно из возможности приёма single carrier в канале со спектральными нулями без какого-либо избыточно кодирования, single carrier можно представить в виде OFDM с прекодером. itjul98s.pdf немного потроллю, а вы их (биты) адамаром размажьте каждый бит по всему спектру, а потом соберите ;) В точку! Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться
andyp 10 15 апреля, 2015 Опубликовано 15 апреля, 2015 (изменено) · Жалоба немного потроллю, а вы их (биты) адамаром размажьте каждый бит по всему спектру, а потом соберите ;) Только после того, как будет открыт способ собрать ;) На текущий момент коды адамара декодируются при помощи преобразования адамара и избыточность там есть. Это не так, разнос битов между поднесущими может быть осуществлён без избыточности, это должно быть очевидно из возможности приёма single carrier в канале со спектральными нулями без какого-либо избыточно кодирования, single carrier можно представить в виде OFDM с прекодером. itjul98s.pdf Ну я вообще-то каноническую OFDM имел в виду, когда мультиплексируются поднесущие, каждая из которых модулируется. Но если Вы про это... Ну надеюсь авторы за последние >15 лет нашли способ преодолеть те "мелкие" трудности, которые стояли на пути практической реализации этой идеи. Изменено 15 апреля, 2015 пользователем andyp Цитата Поделиться сообщением Ссылка на сообщение Поделиться на другие сайты Поделиться