Перейти к содержанию
    

Учет уровня шума при мягких демодуляции/декодировании

Здравствуйте!

 

Меня интересует проблема учета уровня шума при мягких демодуляции/декодировании. Прилагаю скриншот с симулинковской моделью, на которой отображены так же результаты моделирования. Можно видеть, что принятие неверной сигмы 1.5 при формировнии решений демодулятора дает лучший результат, чем принятие истинной сигмы 1.0. Результат для меня неожиданный и непонятный. Различе небольшое, но статистически значимое, поскольку выборка большая, и моделирование проводилось неоднократно с разными начальными условиями генератора случайных чисел. Результат один.

 

Помимо этого видно, что учет разных сигм дает вообще не очень-то различный результат. Я ожидал другого. Можно вообще использовать приближенные LLR вместо точных, где сигма вообще не участвует. Результат опять таки будет мало отличаться. Зачем же тогда вообще нужен учет шума, если толку мало?

 

Модель изготовлена из матлаб-симулинковского демо "LLR vs. Hard Decision Demodulation". Все параметры модуляции, кодирования и т.д. такие же как в демке. Их можно крутить, но по сути ничего не меняется. Используются неквантованные решения демодулятора.

 

Расчитываю на помощь экспертов.

Спасибо!

post-86230-1429027240_thumb.jpg

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Помимо этого видно, что учет разных сигм дает вообще не очень-то различный результат. Я ожидал другого. Можно вообще использовать приближенные LLR вместо точных, где сигма вообще не участвует. Результат опять таки будет мало отличаться. Зачем же тогда вообще нужен учет шума, если толку мало?

ИМХО это особенность реализации мягкого декодера витерби в матлабе и его "деревянность" как алгоритма декодирования в принципе. (Ничего не имею против классического витерби, но выбор максимально правдоподобного пути определенного символами, давно не рулит). Попробуйте поставить турбодекодер или лдпц.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

При небольших рассогласованиях в оценке мощности шума существенных ухудшений BER не будет. Если же вы вместо 1 будете использовать оценку, скажем, равную 7, то увидите, что BER резко ухудшится.

Если в том примере из MATLAB вы будете работать с неверной оценкой в схеме с квантованием, то уже при малых рассогласованиях оценки шума будет плохой BER, поскольку уровни квантователя расситываются заранее на определенную мощность шума.

Как сказал выше des00, для LDPC и турбокодов для некоторых алгоритмов неверная оценка шума очень критична.

 

Можно видеть, что принятие неверной сигмы 1.5 при формировнии решений демодулятора дает лучший результат, чем принятие истинной сигмы 1.0. Результат для меня неожиданный и непонятный.

Как вы определили, что именно этот результат лучший? С помощью функции berconfint можете посчитать доверительные интервалы. На скриншоте виден объективный разброс в статистике.

Изменено пользователем Grizzzly

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Помимо этого видно, что учет разных сигм дает вообще не очень-то различный результат. Я ожидал другого. Можно вообще использовать приближенные LLR вместо точных, где сигма вообще не участвует. Результат опять таки будет мало отличаться. Зачем же тогда вообще нужен учет шума, если толку мало?

 

Модель изготовлена из матлаб-симулинковского демо "LLR vs. Hard Decision Demodulation". Все параметры модуляции, кодирования и т.д. такие же как в демке. Их можно крутить, но по сути ничего не меняется. Используются неквантованные решения демодулятора.

 

Расчитываю на помощь экспертов.

Спасибо!

 

Могу посоветовать повторить моделирование на ОСШ пониже. На 10 раличия в способах формирования мягких решений не сильно влияют. Также, я думаю, что для 6..7 значащей цифры в BER маловато статистики. Статистики было бы достаточно, чтобы сказать, что BER лучше, чем 10^-7, если бы не было зафиксировано ошибок. Но для сравнения, которое Вы проводите, мне кажется, что передано недостаточно бит. Вы ж врядли даже все возможные кодовые слова сверточного кода по разу передали.

Изменено пользователем andyp

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Почему если выбрать approximate log-likelihood ratio вместо обычного log-likelihood ratio результат не зависит от сигма шума? Прикладываю модельку с экспериментом. При этом если выбрать log-likelihood ratio то при значительной ошибке сигма и низком snr получем большой ber. В моем понимание approximate метод позволяет перейти от логарифма суммы экспонент к max/min функциям, при этом сигма выносится за скобки, но не уходит из конечного выражения. Какая-то особенность реализации матлабовского approximate log-likelihood ratio? что-то вроде автоматической нормировки сигмы к 1, на подобии той что делают на практике?

llr_test.zip

 

Еще вот статейку почитал по soft decision для OFDM, мб будет интересно:

HPL_2001_246.pdf

Они сигму нормируют к 1, считая шум постоянным на каждой поднесущей, но учитывают мощность канальных весов для корректировки значений метрик. Насколько это реально улучшит OFDM систему в условиях частотно-селективных замираний? Интуитивно мне это понятно, т.к. чем меньше i-й канальный вес, тем больше подавление на данной поднесущей и больше "раздувание" шума после выравнивания, следовательно меньше достоверность бит переданных в данном символе, но интересно как это на практике будет - есть смысл так делать или нет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Посмотрел справку и последнюю редакцию Communications System Toolbox User's Guide для 2015a. Там в формуле с аппроксимацией есть деление на сигма в квадрате пед скобкой. При этом они ссылаются на статью Витерби ”An Intuitive Justification and a Simplified Implementation of the MAP Decoder for Convolutional Codes”, в которой нет упоминаний про уровень шума.

Остается только самому написать скрипт и сравнить с LLR, которые выдает симулинковский демодулятор. Мне тоже кажется, что там есть нормировка к единичной мощности.

Изменено пользователем Grizzzly

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Почему если выбрать approximate log-likelihood ratio вместо обычного log-likelihood ratio результат не зависит от сигма шума? Прикладываю модельку с экспериментом. При этом если выбрать log-likelihood ratio то при значительной ошибке сигма и низком snr получем большой ber. В моем понимание approximate метод позволяет перейти от логарифма суммы экспонент к max/min функциям, при этом сигма выносится за скобки, но не уходит из конечного выражения. Какая-то особенность реализации матлабовского approximate log-likelihood ratio? что-то вроде автоматической нормировки сигмы к 1, на подобии той что делают на практике?

 

Это особенность алгоритма витерби - вынесенная за скобки сигма не влияет на результат декодирования.

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Интуитивно мне это понятно, т.к. чем меньше i-й канальный вес, тем больше подавление на данной поднесущей и больше "раздувание" шума после выравнивания, следовательно меньше достоверность бит переданных в данном символе, но интересно как это на практике будет - есть смысл так делать или нет.

 

Вообще интуитивно понятно, что в OFDM возможности мяких кодов как бы недоиспользуются, грубо, канал нам известен из оценки, в задавленных поднесущих инфы нет, в поднесущих, где сложение лучей в фазе произошло, наоборот сигна/шум очень хороший, т. е. ошибки ближе к жёстким, как бы в такой ситуации БЧХ с исправлением стираний не сильно хуже оказался. Более того каналы с замираниями могут быть и справлены без избыточного кодирования вообще!

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Более того каналы с замираниями могут быть и справлены без избыточного кодирования вообще!

 

Для OFDM этот тезис неверен именно потому, что в каждом кодовом блоке теряются биты, попадающие на спектральные нули. Для того, чтобы их восстановить, нужна небольшая избыточность. OFDMа без избыточности не бывает, так как именно избыточность кода позволяет реализовать частотное разнесение.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Посмотрел справку и последнюю редакцию Communications System Toolbox User's Guide для 2015a. Там в формуле с аппроксимацией есть деление на сигма в квадрате пед скобкой. При этом они ссылаются на статью Витерби ”An Intuitive Justification and a Simplified Implementation of the MAP Decoder for Convolutional Codes”, в которой нет упоминаний про уровень шума.

Ага, вот здесь у них даётся мат описание алгоритмов LLR и ALLR: справка.

 

Хотелось бы задать вопрос гуру итертивного декодирования (и мягкого декодирования вообще):

Если в рассчёте метрик по методу approximate log-likelihood ratio мы вводим масштабирование на 1/sigma^2, то при меньшем snr входная достоверность каждого бита уменьшается. Логично вроде бы. Но мы полагаем, что действие шума усредненно по всем битам, тогда все метрики взвешиваются на 1/sigma^2 и при увеличении мощности шума достоверность всех бит на входе декодера уменьшается пропорционально. В процессе итераций декодера он просто скомпенсирует это уменьшение достоверности. Другое дело, если метрики взвешиваются различными коэффициентами как в приведенной выше статье с OFDM и частотно-селективными замираниями. Мое понимание, что важно не абсолютная достоверность метрик на входе декодера, а их соотношение между собой. Правильно ли я думаю?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Для OFDM этот тезис неверен именно потому, что в каждом кодовом блоке теряются биты, попадающие на спектральные нули. Для того, чтобы их восстановить, нужна небольшая избыточность. OFDMа без избыточности не бывает, так как именно избыточность кода позволяет реализовать частотное разнесение.

 

Избыточность не нужна! Разнесение можно реализовать без избыточности.

 

Правильно ли я думаю?

 

Да.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Немного оффтопа.

Для OFDM этот тезис неверен именно потому, что в каждом кодовом блоке теряются биты, попадающие на спектральные нули. Для того, чтобы их восстановить, нужна небольшая избыточность. OFDMа без избыточности не бывает, так как именно избыточность кода позволяет реализовать частотное разнесение.

Я знаю три вида избыточности в OFDM (на уровне OFDM символов данных): избыточность FEC, избыточность CP/ZP, избыточность пилот-тонов. При этом на декодирование символов, попавших в спектральные нули, влияет только первая избыточность, которая никак не связана с OFDM. Про какую избыточность вы говорите?

 

Более того каналы с замираниями могут быть и справлены без избыточного кодирования вообще!

Согласен с andyp, то что попало в спектральные нули, может быть вытянуто только FEC'ом.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Согласен с andyp, то что попало в спектральные нули, может быть вытянуто только FEC'ом.

немного потроллю, а вы их (биты) адамаром размажьте каждый бит по всему спектру, а потом соберите ;)

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Согласен с andyp, то что попало в спектральные нули, может быть вытянуто только FEC'ом.

 

Это не так, разнос битов между поднесущими может быть осуществлён без избыточности, это должно быть очевидно из возможности приёма single carrier в канале со спектральными нулями без какого-либо избыточно кодирования, single carrier можно представить в виде OFDM с прекодером.

 

itjul98s.pdf

 

немного потроллю, а вы их (биты) адамаром размажьте каждый бит по всему спектру, а потом соберите ;)

 

В точку!

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

немного потроллю, а вы их (биты) адамаром размажьте каждый бит по всему спектру, а потом соберите ;)

 

Только после того, как будет открыт способ собрать ;) На текущий момент коды адамара декодируются при помощи преобразования адамара и избыточность там есть.

 

Это не так, разнос битов между поднесущими может быть осуществлён без избыточности, это должно быть очевидно из возможности приёма single carrier в канале со спектральными нулями без какого-либо избыточно кодирования, single carrier можно представить в виде OFDM с прекодером.

 

itjul98s.pdf

 

Ну я вообще-то каноническую OFDM имел в виду, когда мультиплексируются поднесущие, каждая из которых модулируется.

Но если Вы про это... Ну надеюсь авторы за последние >15 лет нашли способ преодолеть те "мелкие" трудности, которые стояли на пути практической реализации этой идеи.

Изменено пользователем andyp

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Присоединяйтесь к обсуждению

Вы можете написать сейчас и зарегистрироваться позже. Если у вас есть аккаунт, авторизуйтесь, чтобы опубликовать от имени своего аккаунта.

Гость
Ответить в этой теме...

×   Вставлено с форматированием.   Вставить как обычный текст

  Разрешено использовать не более 75 эмодзи.

×   Ваша ссылка была автоматически встроена.   Отображать как обычную ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставлять изображения напрямую. Загружайте или вставляйте изображения по ссылке.

×
×
  • Создать...