9. Белый шум

9. Белый шум

  • 9.1. Определение белого шума.
  • 9.2. Гауссовский белый шум.
  • 9.3. Физические источники белого шума.
  • 9.4. Коррелированность процессов.

9.1. Определение белого шума

  • Стационарный в узком смысле случайный процесс с функ-цией спектральной плотности мощности, равной положи-тельной постоянной величине, называется белым шумом.
  • Название произошло из оптики, белый цвет получается смешиванием волн различных частот видимого диапазона.
  • Обычно в процессе белого шума математическое ожидание равно нулю, m = 0.
  • Так как белый шум стационарный в узком смысле процесс то его автокорреляционная функция зависит от одного аргумента τ;
  • KXX(τ) является четной.

9.1. Определение белого шума

  • Функция спектральной плотности KXX(ω) получается из автокорреляционной функции преобразованием Фурье, а поскольку функция KXX(ω) четная, то можно использо-вать косинус-преобразование.
  • Пусть KXX(ω) = c > 0. Обратное преобразование Фурье (или обратное косинус-преобразование) постоянной функции равно δ-функции с коэффициентом c

9.1. Определение белого шума

  • Следовательно, белый шум – некоррелированный процесс, случайные величины X(t1) и X(t2) , то есть их корреляция равна нулю (сл. величины линейно независимы) для любых. Распределение случайной величины X(t0) в определении белого шума не уточняется, оно может быть любым.
  • Энергия сигнала пропорциональна интегралу
  • Отсюда следует, что белого шума не существует.

9.2. Гауссовский белый шум

  • Рассмотрим стационарный некоррелированный гауссовский процесс.
  • Пусть математическое ожидание процесса a = 0, средне-квадратическое равно σ. Тогда ввиду нулевого математи-ческого ожидания
  • Если σ стремится к бесконечности, то такой гауссовский процесс стремится к белому шуму. Но в реальном при-ложении приходится ограничиться конкретным значени-ем среднеквадратического σ . Положим σ = 10 , и найдем спектральную плотность такого процесса.

9.2. Гауссовский белый шум

  • Найти преобразование Фурье функции KXX(τ) гауссовского процесса можно предельным переходом (при ε стремится к 0) преобразования Фурье прямоугольного импульса R(σ2, ε, t) (см. 3.8. Примеры Фурье-преобразований).

В правой части получена функция, которая при ε 0 стремится к спектральной функции плотности KXX(ω) белого шума.

9.2. Гауссовский белый шум

  • Графики приближения спектральной плотности, полученной из гауссовского процесса при σ = 10
  • для ε = 1, 0.5, 0.1

9.2. Гауссовский белый шум

  • Функция действительно стремится к постоянной, но эта постоянная равна нулю. Тем не менее на ограниченном интервале частот функцию приближенно можно считать ненулевой постоянной.
  • Таким образом, стационарный некоррелированный гаус-совский процесс можно рассматривать как приближение к белому шуму. Это реально используется в практических задачах.

9.2. Гауссовский белый шум

  • Применяя свойство эргодичности гауссовского процесса, оценим функции автокорреляции и спектральной плотности по одной реализации объемом n=1000 измерений.
  • График реализации некоррелированного гауссовского процесса при a = 0, σ = 10.

9.2. Гауссовский белый шум

  • График оценки функции автокорреляции (статистическая функция автокорреляции) при n=1000 , a = 0, σ = 10.

9.2. Гауссовский белый шум

  • График статистической функции спектральной плотности при n=1000 , a = 0, σ = 10 (интеграл вычислялся методом прямоугольников, красная горизонтальная прямая – среднее значение функции)

9.2. Гауссовский белый шум

  • В качестве приближения к белому шуму можно выбирать любой некоррелированный стационарный (достаточно в узком смысле) процесс. Например, можно взять дискретный процесс D(t) с двумя равновероятными состояниями +1 и -1, в моменты t = 0, 1, 2, … процесс принимает одно из этих состояний. (Одна неприятность: если вычислить корреляцию совместного распределения двух таких величин, то окажется, что она не равна нулю).
  • Упражнение. Найти корреляцию совместного распред., характеристики процесса D(t) (математическое ожидание, дисперсию, автокорреляционную функцию, функцию спектральной плотности).

9.3. Физические источники белого шума

  • Белый шум, как и δ-функция существует лишь как матема-тическая абстракция. Оба это понятия возникли из при-родных явлений, абстрактное
AWGN ) - вид мешающего воздействия в канале передачи информации. Характеризуется равномерной спектральной плотностью, нормально распределённым значением амплитуды и аддитивным способом воздействия на сигнал. Наиболее распространённый вид шума, используемый для расчёта и моделирования систем радиосвязи. Термин «аддитивный» означает, что данный вид шума суммируется с полезным сигналом. В противоположность аддитивному, можно указать мультипликативный шум - шум, перемножающийся с сигналом.

См. также


Wikimedia Foundation . 2010 .

Смотреть что такое "Аддитивный белый гауссовский шум" в других словарях:

    аддитивный белый гауссовский шум - Вид мешающего воздействия в канале передачи информации. Характеризуется равномерной спектральной плотностью, нормально распределённым значением амплитуды и аддитивным способом воздействия на сигнал. Наиболее распространённый вид шума,… … Справочник технического переводчика

    У этого термина существуют и другие значения, см. Белый шум (значения). Цвета шума Белый шум Розовый шум Красный шум Серый шум … Википедия

    Аддитивный белый гауссовский шум (АБГШ, англ. AWGN) вид мешающего воздействия в канале передачи информации. Характеризуется равномерной спектральной плотностью, нормально распределённым значением амплитуды и аддитивным способом воздействия на… … Википедия

    Плотность вероятности Зеленая лин … Википедия

    Нормальное распределение Плотность вероятности Красная линия соответствует стандартному нормальному распределению Функция распределения Цвета на этом графике соответствуют графику наверху … Википедия

    У этого термина существуют и другие значения, см. Сигнал (значения). Оптимальный приём сигналов область радиотехники, в которой обработка принимаемых сигналов осуществляется на основе методов математической статистики … Википедия

    АБГШ - аддитивный белый гауссовский шум … Словарь сокращений и аббревиатур

Знаете ли Вы, в чем ложность понятия "физический вакуум"?

Физический вакуум - понятие релятивистской квантовой физики, под ним там понимают низшее (основное) энергетическое состояние квантованного поля, обладающее нулевыми импульсом, моментом импульса и другими квантовыми числами. Физическим вакуумом релятивистские теоретики называют полностью лишённое вещества пространство, заполненное неизмеряемым, а значит, лишь воображаемым полем. Такое состояние по мнению релятивистов не является абсолютной пустотой, но пространством, заполненным некими фантомными (виртуальными) частицами. Релятивистская квантовая теория поля утверждает, что, в согласии с принципом неопределённости Гейзенберга, в физическом вакууме постоянно рождаются и исчезают виртуальные, то есть кажущиеся (кому кажущиеся?), частицы: происходят так называемые нулевые колебания полей. Виртуальные частицы физического вакуума, а следовательно, он сам, по определению не имеют системы отсчета, так как в противном случае нарушался бы принцип относительности Эйнштейна, на котором основывается теория относительности (то есть стала бы возможной абсолютная система измерения с отсчетом от частиц физического вакуума, что в свою очередь однозначно опровергло бы принцип относительности, на котором постороена СТО). Таким образом, физический вакуум и его частицы не есть элементы физического мира, но лишь элементы теории относительности, которые существуют не в реальном мире, но лишь в релятивистских формулах, нарушая при этом принцип причинности (возникают и исчезают беспричинно), принцип объективности (виртуальные частицы можно считать в зависимсоти от желания теоретика либо существующими, либо не существующими), принцип фактической измеримости (не наблюдаемы, не имеют своей ИСО).

Когда тот или иной физик использует понятие "физический вакуум", он либо не понимает абсурдности этого термина, либо лукавит, являясь скрытым или явным приверженцем релятивистской идеологии.

Понять абсурдность этого понятия легче всего обратившись к истокам его возникновения. Рождено оно было Полем Дираком в 1930-х, когда стало ясно, что отрицание эфира в чистом виде, как это делал великий математик, но посредственный физик , уже нельзя. Слишком много фактов противоречит этому.

Для защиты релятивизма Поль Дирак ввел афизическое и алогичное понятие отрицательной энергии, а затем и существование "моря" двух компенсирующих друг друга энергий в вакууме - положительной и отрицательной, а также "моря" компенсирующих друг друга частиц - виртуальных (то есть кажущихся) электронов и позитронов в вакууме.

Норма́льное распределе́ние , также называемое распределением Гаусса или Гаусса - Лапласа - распределение вероятностей , которое в одномерном случае задаётся функцией плотности вероятности , совпадающей с функцией Гаусса :

f (x) = 1 σ 2 π e − (x − μ) 2 2 σ 2 , {\displaystyle f(x)={\frac {1}{\sigma {\sqrt {2\pi }}}}\;e^{-{\frac {(x-\mu)^{2}}{2\sigma ^{2}}}},}

где параметр μ - математическое ожидание (среднее значение), медиана и мода распределения, а параметр σ - среднеквадратическое отклонение ( σ  ² - дисперсия) распределения.

Таким образом, одномерное нормальное распределение является двухпараметрическим семейством распределений. Многомерный случай описан в статье «Многомерное нормальное распределение ».

Стандартным нормальным распределением называется нормальное распределение с математическим ожиданием μ = 0 и стандартным отклонением σ = 1 .

Значение

Если некая величина образуется в результате сложения многих случайных слабо взаимозависимых величин, каждая из которых вносит малый вклад относительно общей суммы, то центрированное и нормированное распределение такой величины при увеличении числа наблюдений стремится к нормальному распределению .

Свойства

Моменты

Если случайные величины X 1 {\displaystyle X_{1}} и X 2 {\displaystyle X_{2}} независимы и имеют нормальное распределение с математическими ожиданиями μ 1 {\displaystyle \mu _{1}} и μ 2 {\displaystyle \mu _{2}} и дисперсиями σ 1 2 {\displaystyle \sigma _{1}^{2}} и σ 2 2 {\displaystyle \sigma _{2}^{2}} соответственно, то X 1 + X 2 {\displaystyle X_{1}+X_{2}} также имеет нормальное распределение с математическим ожиданием μ 1 + μ 2 {\displaystyle \mu _{1}+\mu _{2}} и дисперсией σ 1 2 + σ 2 2 . {\displaystyle \sigma _{1}^{2}+\sigma _{2}^{2}.} Отсюда вытекает, что нормальная случайная величина представима как сумма произвольного числа независимых нормальных случайных величин.

Максимальная энтропия

Нормальное распределение имеет максимальную дифференциальную энтропию среди всех непрерывных распределений, дисперсия которых не превышает заданную величину .

Правило трёх сигм

Правило трёх сигм ( 3 σ {\displaystyle 3\sigma } ) - практически все значения нормально распределённой случайной величины лежат в интервале (x ¯ − 3 σ ; x ¯ + 3 σ) {\displaystyle \left({\bar {x}}-3\sigma ;{\bar {x}}+3\sigma \right)} . Более строго - приблизительно с вероятностью 0,9973 значение нормально распределённой случайной величины лежит в указанном интервале (при условии, что величина x ¯ {\displaystyle {\bar {x}}} истинная, а не полученная в результате обработки выборки).

Моделирование нормальных псевдослучайных величин

Простейшие приближённые методы моделирования основываются на центральной предельной теореме . Именно, если сложить несколько независимых одинаково распределённых величин с конечной дисперсией , то сумма будет распределена приблизительно нормально. Например, если сложить 100 независимых стандартно равномерно распределённых случайных величин, то распределение суммы будет приближённо нормальным .

Для программного генерирования нормально распределённых псевдослучайных величин предпочтительнее использовать преобразование Бокса - Мюллера . Оно позволяет генерировать одну нормально распределённую величину на базе одной равномерно распределённой.

Связь с другими распределениями

  • Нормальное распределение является распределением Пирсона типа XI .
  • Отношение пары независимых стандартных нормально распределенных случайных величин имеет распределение Коши . То есть, если случайная величина X {\displaystyle X} представляет собой отношение X = Y / Z {\displaystyle X=Y/Z} (где Y {\displaystyle Y} и Z {\displaystyle Z} - независимые стандартные нормальные случайные величины), то она будет обладать распределением Коши.
  • Если z 1 , … , z k {\displaystyle z_{1},\ldots ,z_{k}} - совместно независимые стандартные нормальные случайные величины, то есть z i ∼ N (0 , 1) {\displaystyle z_{i}\sim N\left(0,1\right)} , то случайная величина x = z 1 2 + … + z k 2 {\displaystyle x=z_{1}^{2}+\ldots +z_{k}^{2}} имеет распределение хи-квадрат с k степенями свободы.
  • Если случайная величина X {\displaystyle X} подчинена логнормальному распределению , то её натуральный логарифм имеет нормальное распределение. То есть, если X ∼ L o g N (μ , σ 2) {\displaystyle X\sim \mathrm {LogN} \left(\mu ,\sigma ^{2}\right)} , то Y = ln ⁡ (X) ∼ N (μ , σ 2) {\displaystyle Y=\ln \left(X\right)\sim \mathrm {N} \left(\mu ,\sigma ^{2}\right)} . И наоборот, если Y ∼ N (μ , σ 2) {\displaystyle Y\sim \mathrm {N} \left(\mu ,\sigma ^{2}\right)} , то X = exp ⁡ (Y) ∼ L o g N (μ , σ 2) {\displaystyle X=\exp \left(Y\right)\sim \mathrm {LogN} \left(\mu ,\sigma ^{2}\right)} .
  • Отношение квадратов двух стандартных нормальных случайных величин имеет распределение Фишера со степенями свободы (1 , 1) {\displaystyle \left(1,1\right)} .

История

Впервые нормальное распределение как предел биномиального распределения при p = 1 2 {\displaystyle p={\tfrac {1}{2}}} появилось в 1738 году во втором издании работы