ПРИКОРМКА
КУРАМ-БРОЙЛЕРАМ
НАСМІХ!
ПРОБЛЕМИ
СТАТИСТИЧНОЇ РАДІОФІЗИКИ
ЗНЕСЕНО
АБИ ЯК
ЗМІСТ
25.1 НЕМАЄ
11.1 НЕМАЄ
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 01.
1. Перетворення Гільберта. Дисперсійні
співвідношення для аналітичного сигналу.
2. Радіус та час когерентності електромагнітного
поля.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 02.
1. Випадкові змінні, їх статистичні
характеристики.
2. Передаточна функція лінійної системи,
її властивості.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 03.
1. Характеристичні функції випадкових
змінних та їх властивості.
2. Представлення аналітичного сигналу для
випадкових процесів.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 04.
1. Теорема Вінера-Хінчіна.
2. Реакція лінійної системи на випадкові
впливи. Кореляційна функція випадкового процесу на виході лінійної системи.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 05.
1. Регресійний аналіз даних, його
застосування.
2. Аналітичний сигнал та його властивості.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 06.
1. Нормальний випадковий процес.
2. Метод кумулянтів для визначення
розподілу імовірності випадкового процесу на виході лінійної системи. Ряд
Грама-Шарльє.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 07.
1. Функції розподілу ймовірностей.
2. Спектр інтенсивності випадкового
сигналу на виході лінійної системи з постійними параметрами.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 08.
1. Енергетичний спектр стаціонарного випадкового процесу.
2. Уширення спектральної лінії внаслідок
зіткнення молекул.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 09.
1. Білий шум та чорне випромінювання, їх
спектри та кореляційні функції.
2. Нелінійні перетворення нормальних
флуктуацій. Теорема Прайса
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 10.
1. Кореляційна функція та спектр
телеграфного сигналу.
2. Перетворення нормального випадкового
процесу квадратичним детектором, спектр вихідного сигналу.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 11.
1. Кореляційні функції випадкового процесу.
2. Нелінійні перетворення випадкового
процесу, прямий метод обчислення.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 12.
1. Моменти випадкових змінних.
2. Кореляційна функція та спектр
телеграфного сигналу.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 13.
1. Стаціонарні та нестаціонарні випадкові
процеси.
2. Лінійний регресійний аналіз.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 14.
1. Імпульсний пуасонівський випадковий
процес.
2. Метод моментів для визначення розподілу
імовірності випадкового процесу на виході лінійної системи, його недоліки.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 15.
1. Коефіцієнт кореляції, його означення та
властивості.
2. Співвідношення невизначеностей для
випадкових процесів.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 16.
1. Випадкові процеси. Поняття ансамблю та
вибіркових реалізацій випадкового процесу.
2. Спектральна густина стаціонарного
випадкового процесу на виході лінійної системи з постійними параметрами.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 17.
1. Ергодичні випадкові процеси, їх
властивості.
2. Дискретні представлення лінійних
систем.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 18.
1.
Властивості кореляційних функцій випадкового процесу.
2.
Нормалізація випадкових процесів інерційними системами.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 19 .
1.
Розподіл Пуасона та його властивості.
2.
Перетворення нормального випадкового сигналу лінійною системою.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 20.
1. Теорема
про огинаючу.
2.
Нелінійні перетворення випадкових змінних..
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 21.
1. Перетворення випадкового процесу
ідеальним обмежувачем.
2. Аналітичний сигнал, його означення та
властивості.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 22.
1. Перетворення нормального випадкового
процесу квадратичним детектором.
2. Уширення спектральної лінії внаслідок
зіткнення молекул.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 23.
1. Нелінійні перетворення випадкового
процесу. Метод характеристичних функцій.
2. Мінімально невизначений випадковий
процес.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 24.
1. Умовні імовірності. Формула Байєса та
її застосування.
2. Визначення лінійної системи. Імпульсний
відгук та його властивості.
ЕКЗАМЕНАЦІЙНИЙ
БІЛЕТ № 25.
1. Нерівності
для кореляційних функцій другого порядку.
2. Спектральна густина періодичного
випадкового процесу.
#1.1. Перетворення Гільберта.
Дисперсійні співвідношення для аналітичного сигналу.
Перетворення
Гільберта - лінійнеінтегральнеперетворення,
яке ставить у відповідністьфункціїіншуфункцію в тійсамійобласті. Назване на честь Давида Гільберта, якийсформулювавйого в свої
роботах над задачею Рімана-Гільберта для голоморфних функцій. Використовується в галузіперетвореньФур'є та аналізуФур'є. В
обробцісигналівперетворенняГільбертаперетворюєдійсний сигнал на аналітичний
В математики і обробці сигналів перетворення Гільберта - лінійний оператор, сопоставляющий кожної функції u (t)функцію H
(u) (t) в тій же області.
Перетворення Гільберта може бути визначено в сенсі
головного значення інтеграла по Коші:
Або, більш явно:
При дворазовому застосуванні перетворення Гільберта
функція змінює знак:
за умови, що обидва перетворення існують.
Зв'язок з перетворенням Фур'є
Перетворення Фур'є перетворення Гільберта дорівнює:
де означає перетворення Фур'є, а sgn це Signum-функція.
Згідно з формулою
Ейлера,
Отже H(u)(t) здійснює зсув фази компонент
негативної частоти u(t) на +90° (π/2 радіан) та фази
компонент позитивної частоти на −90°. При цьомуi·H(u)(t)
відновлює компоненти позитивної частоти та зсуває негативні на додаткові +90°,
роблячи їх негативними.
Якщо перетворення Гільберта здійснюється двічі H(H(u)) = −u фаза
компонентів негативної та позитивної частоти зсувається на +180° та
−180°, відповідно. Сигнал стає негативним оскільки:
Зворотне пертворення
Дисперсійні
співвідношення для аналітичного сигналу
Дисперсійні співвідношення - інтегральні рівняння, що зв'язують дійсну і уявну частини перетворення Фур'є функції відгукулінійної фізичної системи на зовнішні впливи. Є прямими наслідками фізичного принципу причинності і не залежать від конкретного механізму взаємодії
системи із зовнішнім впливом.
Визначення
Нехай f (z) є комплексною
функцією, аналітичність у верхній півплощині, та при Припустимо, що має фізичний сенс функція F (x) є f (z) на речовій осі
або, у разі наявності точки розгалуження, межа f (z) при z , Що прагне до речовій осі зверху.
Дисперсійні співвідношення записуються у вигляді
інтегральних рівнянь:
тут - Символ інтеграла в сенсі головного значення.
Дисперсійні співвідношення виводяться із застосуванням інтегральної
формули Коші і, таким чином, не
залежать від конкретної розглянутої моделі фізичного явища.
Фізичний зміст
"Відгук" лінійної системи на "обурення" можна записати у вигляді: де K (t) - функція Грінасистеми. Розглянуті функції f (z) являють
собою перетворення Фур'є таких функцій Гріна: Вимога
причинності, що складається в неможливості виникнення відгуку раніше причини,
означає, що K (t) = 0 при t <0 . Наслідком принципу причинності є те, що функція f (z) аналітична у верхній півплощині та при
Застосовуються
В квантової теорії поля, при розрахунку амплітуд розсіювання. Дисперсійні співвідношення
пов'язують безпосередньо одержувані з досвіду величини, такі як амплітуди
ймовірностей або перетину різних переходів.
Вперше були
отримані Крамерса
і Кроніга в класичній теорії
дисперсії, при вивченні залежності показника
заломленнясередовища від частоти світла, для дійсної та уявної
частини показника заломлення середовища
#1.2. Радіус та
час когерентності електромагнітного поля.
объектзондируетсяисточником
c амплитудой
излучаемогоим поля , гдеЕs-амплитуда на егоапертуре, ω0 –
центральная частота
источника, u(t) – егофункциямодуляции с
временнойфункциейкорреляции
времянаблюдениярассеянного
поля, причемВu(τ=0)=1
и Т>10τс, где
- времякогерентностизондирующегообъектыизлучения,
определяющеедлину(радиус)егокогерентностигде с- скоростьсвета
(все щознайшовщозвязанеіз
статистичною РФ)
#2.1. Випадкові
змінні, їх статистичні характеристики
#2.2. Передаточна функція
лінійної системи, її властивості.
2.2 Передаточна функція лінійної системи, її властивості.
#3.1. Характеристичні функції
випадкових змінних та їх властивості.
#3.2.Представлення
аналітичного сигналу для випадкових процесів
.
#4.1. Теорема Вінера-Хінчіна
#4.2.Реакція лінійної системи на випадкові впливи. Кореляційна функція
випадкового процесу на виході лінійної системи.
Реакція
лінійної системи на випадкові впливи:
Кореляційна функція випадкового процесу
на виході лінійної системи:
#5.1. Регресійний аналіз даних. Його застосування.
Регресі́йний ана́ліз — розділ математичної
статистики, присвячений методам аналізу залежності однієї величини
від іншої. На відміну від кореляційного
аналізу не з'ясовує чи істотний зв'язок, а займається пошуком моделі цього зв'язку,
вираженої у функції регресії.
Регресійний аналіз використовується в тому випадку, якщо
відношення між змінними можуть бути виражені кількісно у виді деякої комбінації
цих змінних. Отримана комбінація використовується для передбачення значення, що
може приймати цільова (залежна) змінна, яка обчислюється на заданому наборі
значень вхідних (незалежних) змінних. У найпростішому випадку для цього
використовуються стандартні статистичні методи, такі як лінійна регресія. На
жаль, більшість реальних моделей не вкладаються в рамки лінійної регресії.
Наприклад, розміри продажів чи фондові ціни дуже складні для передбачення,
оскільки можуть залежати від комплексу взаємозв'язків множин змінних. Таким
чином, необхідні комплексні методи для передбачення майбутніх значень.
Мета
регресійного аналізу
1.
Визначення ступеня
детермінованості варіації критеріальної (залежної) змінної предикторами
(незалежними змінними).
2.
Пророкування
значення залежної змінної за допомогою незалежної.
3.
Визначення
внеску окремих незалежних змінних у варіацію залежної.
Регресійний
аналіз не можна використовувати для визначення наявності зв'язку між змінними,
оскільки наявність такого зв'язку і є передумова для застосування аналізу.
Алгоритм
регресійного аналізу
Нехай у
точках xn незалежної змінної x отримані
виміри Yn. Потрібно знайти залежність середнього
значення величини від
величини х, тобто ,
де a — вектор невідомих параметрів .
Функцію називають
функцією регресії. Звичайно припускають, що є
лінійною функцією параметрів а, тобто має вигляд:
(1), де —
задані функції.
У цьому
випадку матрицю називається
регресійною матрицею.
Для
визначення параметрів звичайно
використовують метод найменших квадратів, тобто оцінки визначають
із умови мінімуму функціонала:
і з
мінімуму функціонала:
для
корельованих вимірів з кореляційною матрицею R.
У якості
функцій при
невеликих звичайно
служать степеневі функції .
Часто використовують ортогональні й
нормовані поліноми на множині :
.
У цьому
випадку легко знайти оцінку :
.Звідси
випливає, що обчислення не
залежить від обчислення інших .
Популярне використання в якості сплайнів ,
які мають дві основні властивості:
1.
— поліном заданого степеня;
2.
відмінний від нуля в околі точки .
При
пошуку функції регресії у вигляді (1) природно виникає питання про кількість
членів I у сумі (1). При малому значенні I не
можна досягти гарного опису ,
а при великому — великі статистичні помилки функції регресії.
#5.2. Аналітичний
сигнал та його властивості.
#6.1. Гауссовский случайный
процесс
Нормальный (гауссовский) закон распределения случайных величин чаще других
встречается в природе. Нормальный процесс особенно характерен для помех в
каналах связи. Он очень удобен для анализа. Поэтому случайные процессы,
распределение которых не слишком отличается от нормального, часто заменяют
гауссовским процессом. Одномерная плотность вероятности нормального процесса
определяется выражением:
В данном случае будет рассматриваться стационарный и эргодический
гауссовский процесс. Поэтому под тх и σ х можно подразумевать соответственно постоянную
составляющую и среднюю мощность флуктуационной составляющей одной (достаточно
длительной) реализации случайного процесса.
Графики плотности
вероятности при нормальном законе для некоторых значений
σ х изображены на рис. 2.24. Функция р(х) симметрична относительно среднего значения. Чем больше σ х, меньше максимум, а кривая становится более пологой
[площадь под кривой р(х) равна единице при любых значениях σ х]
Широкое распространение нормального закона распределения в природе
объясняется тем, что при суммировании достаточно
большого числа независимых или слабо зависимых случайных величин распределение
суммы близко к нормальному при любом распределении отдельных слагаемых.
Это положение, сформулированное в 1901 г. А. М. Ляпуновым, получило название центральной предельной теоремы. Наглядными физическими примерами случайного процесса с
нормальным законом распределения являются шумы, обусловленные тепловым
движением свободных электронов в проводниках электрической цепи или дробовым
эффектом в электронных приборах. Не только шумы и помехи, но и полезные
сигналы, являющиеся суммой большого числа независимых случайных элементарных
сигналов, например, гармонических колебаний со случайной фазой или амплитудой,
часто можно трактовать как гауссовские случайные процессы.
На основе функции р(х) можно найти относительное время пребывания
сигнала x(t) в определенном интервале уровней, отношение максимальных
значений к среднеквадратическому (пик фактора) и ряд других важных для практики
параметров случайного сигнала.
Отношение времени пребывания x(t) в заданном интервале к общему времени наблюдения можно
трактовать как вероятность попадания x(t) в указанный интервал. При этом следует заметить, что
данные о распределении вероятностей не дают никаких представлений о поведении
функции x(t) во времени
#6.2 Метод
кумулянтів для визначення розподілу імовірності випадкового процесу на виході
лінійної системи. Ряд Грама-Шарльє.
1.2 Кумулянты
1. Характеристическую
функцию можно записать в виде , где, очевидно, должно быть . Разложим функцию в степенной ряд
(1.2.1)
Коэффициенты этого
ряда
(1.2.2)
так же, как и
моменты, являются характеристиками вероятностного распределения и носят
название кумулянтов или семиинвариантов. Таким образом,
(1.2.3)
Кумулянты однозначно
определяют случайную величину, если ряд (1.2.1) сходится для всех и. Поэтому
набор кумулянтов также может служить тождественным представлением вероятностного
распределения.
Если известны
моменты, то кумулянты могут быть найдены из следующих соотношений (см.,
например, [13, [14]):
(1.2.4)
В свою очередь,
моменты могут быть выражены через кумулянты:
(1.2.5)
Взаимосвязь
кумулянтов с центральными моментами легко получается из (1.2.4), (1.2.5) при . При этом .
2. Кумулянты
распределения во многих отношениях (и далее это будет видно полнее) являются
гораздо более удобными параметрами распределения, чем моменты (в том числе и
центральные). Помимо прочих причин это связано и с тем, что во многих
практически важных случаях высшими кумулянтами распределений в отличие от
моментов можно пренебрегать. С другой стороны, существует возможность
рассмотреть такие распределения (см. гл. 5), кумулянты которых, начиная с
некоторого порядка, все обращаются в нуль, в то время как моменты не равны
нулю. Например, для гауссова распределения
(1.2.6)
отличны от нуля
только первые два кумулянта и вместе с тем ни один из моментов не равен нулю.
Первые два кумулянта
имеют четкий смысл — это среднее значение и дисперсия распределения.
Последующим двум кумулянтам также можно дать определенную интерпретацию. Так,
третий кумулянт можно назвать асимметрией распределения, а четвертый — эксцессом. Асимметрия отлична от нуля только для плотности вероятности,
асимметричной относительно точки . Эксцесс распределения часто описывает отклонение распределения от
гауссова в сторону более острой или более тупой вершины, хотя это и не всегда так [14]. Удобно ввести безразмерные
кумулянты — кумулянтные коэффициенты
(1.2.7)
Коэффициенты и называют коэффициентами асимметрии и эксцесса соответственно (см.,
например, [13]).
3. Важно отметить,
что кумулянтные коэффициенты описывают степень отклонения вероятностного распределения от гауссова. Это
даст возможность количественно оценить это отклонение и записать произвольное
распределение в виде ряда по гауссову распределению и его производным.
Пусть имеется
произвольное распределение , обладающее в общем случае всеми кумулянтами. Его характеристическую
функцию (1.2.3) можно записать в следующем виде:
(1.2.8)
где
Сравнивая это
тождество с (1.1.7) и с (1.2.3), легко понять, что коэффициенты представляют собой не что иное, как моменты распределения , вычисленные при условии . Таким образом, находим
(1.2.9)
Эти коэффициенты
называются квазимоментами распределения [5, 26, 27]. Они отличны от нуля только
для негауссовых случайных величин.
Совершая
преобразование Фурье (1.2.8), получаем
(1.2.10)
Полученный ряд
называется рядом Эджворта [13]. Он дает разложение произвольной плотности
вероятности по производным гауссова распределения. В том случае, когда высшие
кумулянты достаточно малы, можно ограничиться, например, четырьмя членами суммы
Из этой формулы
непосредственно видна особая ценность кумулянтов при оценке отклонения плотности вероятности от гауссовой.
4. Характеристическую
функцию можно представить также и в виде
(1.2.11)
Сравнивая между собой
три вида разложения характеристической функции (1.1.7), (1.2.11) и (1.2.8),
интересно обратить внимание на то, что образуют некоторый закономерный ряд. Так, есть при условии есть при условии . С этой точки зрения центральный момент также носит смысл квазимомента.
ГРАМА - ШАРЛЬЕ РЯД
- ряд, определяемый выражением
(1)
или
(2)
где х - нормированное значение
случайной величины.
Ряд (1) наз. Г.-Ш. р. типа А;
здесь
f(k)(x) есть k-я
производная от f(x), к-рую можно представить в виде
f(k)(x) = (-1)kHk(х)f(х),
где Hk(x) - многочлены
Чебышева-Эрмита. Производные f(k)(x) и многочлены Нk(х)
обладают свойствами ортогональности, благодаря чему коэффициенты аk можно определить при помощи основных моментов rk данного ряда распределения. Ограничиваясь первыми
членами ряда (1), получают
Ряд (2) наз. Г.- Ш. р. типа В;
здесь
ψ(x) = λx/x!
е-λ, х = 0, 1, 2, ...,
а gm(x) - многочлены,
аналогичные многочленам Нk(х
Ограничиваясь первыми членами
ряда (2), получают
где μi - центральные моменты распределения, а х[i] = х(х - 1) ... (x - i + 1).
Г.-Ш. р. были получены Дж. Грамом
[1] и К. Шарлье [2] при исследовании функции вида
принятой для интерполирования
между значениями
- общего члена биномиального
распределения, где
- характеристическая функция
биномиального распределения. Разложение ln φ(t) по степеням t приводит к
Г.- Ш. р. типа А для В0(х), а разложение ln φ(t) по степеням р
приводит к Г.-Ш. р. типа В.
#7.1. Функції розподілу ймовірностей.
#7.2 Спектр
інтенсивності випадкового сигналу на виході лінійної системи з постійними
параметрами (v1).
Ні в книжках ні в
конспектах нічого толкового не знайшов. Як варіант може прокатити таке, як на
мене, але бажано уточнити у викладача з
приводу різниці між спектром інтенсивності й спектральною густиною.
Отже з теореми
Віннера – Хінчина
Де (1) – спектр
інтенсивності, (2) – спектр функції UT (t)=U(t),що існує є[-T/2; T/2]
Звідки видно, що Спектральна інтенсивність, за виконання умови що границя
вище рівна одиниці, буде рівною спектральній густині й тоді вплив на неї
лінійної системи з постійними коефіцієнтами можна розглядати з питання 16.1
Спектральна густина стаціонарного випадкового процесу на виході лінійної
системи з постійними параметрами..
#7.2. Спектр
інтенсивності випадкового сигналу на виході лінійної системи з постійними
параметрами(v2).
Лінійна система з постійними параметрами не вносить нових гармонік в спектр
сигналу, а лише змінює амплітуду. Варіант з книги, нижче - конспект
#8.1. Енергетичний спектр стаціонарного випадкового процесу
#8.2.
Уширення спектральної лінії
внаслідок зіткнення молекул.
Це уширення пов'язано з ефектом Доплера,
тобто із залежністю спостережуваної частоти випромінювання від швидкості руху
випромінювача. Якщо джерело, що створює в нерухомому стані монохроматичні
випромінювання з частотою ,
Рухається зі швидкістю v в сторону до спостерігача
так, що проекція швидкості на напрям спостереження складає (Рис.
20.5), то спостерігач реєструє більш високу частоту випромінювання
(20.23)
де з -
фазова швидкість поширення хвилі; -
Кут між напрямками швидкості випромінювача і спостереження.
У квантових системах джерелами випромінювання є атоми або молекули. У
газоподібному середовищі при термодинамічній рівновазі швидкості частинок
розподілені за законом Максвелла-Больцмана. Тому і форма спектральної лінії
всього речовини буде пов'язана з цим розподілом. В спектрі, регистрируемом
спостерігачем, повинен бути безперервний набір частот, так як різні атоми
рухаються з різними швидкостями щодо спостерігача. Враховуючи лише проекції
швидкостей в розподілі Максвелла-Больцмана, можна
отримати наступне вираз для форми допплерівської спектральної лінії:
Ця залежність є гауссовской функцією. Відповідна
значенню / 2 ширина лінії
Зі збільшенням маси частинок М і пониженням температури Т ширина лінії зменшується.
Видимий спектральна лінія речовини являє собою
суперпозицію спектральних ліній всіх частинок речовини, тобто ліній з різними
центральними частотами. Для легких частинок при звичайній температурі ширина
доплеровской лінії в оптичному діапазоні може перевищувати природну ширину
лінії на кілька порядків і досягати значення більше 1 Ггц.
У квантових приладах широко використовуються
тверді речовини з домішковими іонами, квантові переходи яких є робочими.
Коливання кристалічної решітки створюють змінне електричне поле, яке впливає на
іони решітки і змінює їх енергію, а це призводить до розмиття енергетичних
рівнів і уширению спектральної лінії. Крім того, ширина лінії збільшується
внаслідок теплових коливань самих іонів. Причиною уширення спектральної лінії
твердого тіла може бути також просторова неоднорідність фізичних параметрів
середовища або неоднорідності електричного і магнітного полів. Причиною
уширення спектральної лінії може бути також електромагнітне випромінювання, що
викликає вимушені переходи між розглянутими рівнями і приводить до зміни часу
життя частинки. Тому, наприклад, процес генерації випромінювання в квантових
приладах буде приводити до зміни ширини лінії.
#9.1 Білий шум
Чорне випромінювання
Это вероятнее всего
что не надо!!
Випромінювання
абсолютно чорного тіла
Однією з головних задач фізики кінця XIX
століття була проблема випромінювання абсолютно чорного тіла. Абсолютно чорне
тіло — це фізична ідеалізація; тіло, що повністю поглинає падаюче
випромінювання будь-яких довжин хвиль. Найбільш чорні реальні речовини,
наприклад, сажа, поглинають до 99% падаючого випромінювання у видимому діапазоні
довжин хвиль, однак інфрачервоне випромінювання поглинається ними значно гірше.
Серед тіл Сонячної системи абсолютно чорному тілу найбільш відповідає Сонце.
За класичною термодинамікою спектральна інтенсивність I(ν) випромінювання має бути
однаковою для будь-якого абсолютно чорного тіла, нагрітих до однакової
температури. Таке передбачення підтверджується експериментом. Спектральна
інтенсивність досягає максимума при деякій частоті νmax, а по обидва боки від
максимума падає до нуля. Частота максимумаνmax, як і його висота,
збільшується з температурою.
Спроби теоретично передбачити форму
експериментальної кривої спектральної інтенсивності абсолютно чорного тіла на
основі законів класичної фізики привели до формули Релея — Джинса[6][7]:
Окрім області малих частот, закон формули Релея
— Джинса не узгоджується з експериментом. Він передбачає, що повна інтенсивність
випроміненої енергії безмежно зростає (ультрафіолетова катастрофа), але в дійсності повна
інтенсивність скінченна.
В 1900 році Макс
Планк постулював[4], що обмін енергією між
атомами й випущеним ними електромагнітним випромінюванням відбувається
дискретними порціями енергії, а найменша порція енергії при заданій частоті ν дорівнює:
де h — константа Планка. Тількі цілі кратні енергії hν можуть передаватися при
взаємодії атомів і випромінювання. Використовуючи цей постулат, Планк вивів
формулу для спектральної інтенсивності теплового рівноважного електромагнітного
випромінювання абсолютно чорного тіла:
що прекрасно узгоджується з експериментом. Таким
чином, Планк розв'язав проблему випромінювання абсолютно чорного тіла, використовуючи
суперечну класичній фізиці ідею про квантування енергії.
#9.2 Теоре́ма
Прайса для норма́льных вы́борок в математической статистике — это утверждение,
характеризующее распределение выборочной дисперсии.
Пусть - независимая выборка из нормального распределения. Пусть -выборочное среднее, а - несмещённая выборочная дисперсия. Тогда
ñСлучайные величины и независимы;
ñСлучайная величина
имеет распределение хи-квадрат с степенями свободы.
#10.1Кореляційна функція та спектр телеграфного
сигналу
#10.2. Перетворення
нормального випадкового процесу квадратичним детектором, спектр вихідного
сигналу.
#11.2 Нелінійні перетворення випадкового процесу, прямий метод обчислення.
1. Когда речь заходит о нелинейных, преобразованиях случайных величин, ситуация существенно усложняется. Появляются особенности, которых не было раньше, и это сильно затрудняет отыскание статистических характеристик «выходных» переменных.
Основная особенность нелинейного преобразования — это то, что любой кумулянт или момент выхода в общем случае зависит от всех кумулянтов «входного» распределения. Возьмем, например, экспоненциальное преобразование , рассмотренное в примере 3.2.2. Согласно (3.2.7) даже первый кумулянт, выходной переменной определяется значениями всех кумулянтов .
С другой стороны, возрастают трудности вычисления выходных кумулянтов. Полученные в третьей главе кумулянтные уравнения позволяют сравнительно легко устанавливать связи входных кумулянтов лишь с моментами выходов. Так, если случайная переменная подвергается нелинейному преобразованию , то для моментов формулы дают уравнения вида
(4.5.1)
Для кумулянтов же выхода аналогичных уравнений у нас нет. Если пытаться их получить, то в общем случае мы придем к довольно громоздким и неудобным выражениям. Поэтому в этом параграфе мы ограничимся выводом и использованием подобных уравнений только для кумулянтов первых четырех порядков.
Вместе с тем, в § 4.7 мы получим более общие уравнения, связывающие кумулянтные скобки с кумулянтами входных случайных переменных, и с их помощью найдем формулы размыкания ряда кумулянтных скобок.
2. Прежде чем искать связь кумулянтов выхода с кумулянтами входа, заметим, что в состав кумулянтов, например, в
входит не только среднее значение, но и некоторая функция (в данном случае квадрат) от уже усредненной величины. Это значит, что мы должны искать производные по кумулянтам от среднего значения функций вида , где уже зависит в общем случае от всех . По этой причине формулы (3.2.2) — (3.2.6) не могут быть непосредственно использованы и требуют специального обобщения, которое мы сейчас и проведем.
Производную
можно записать в виде
(4.5.2)
В функцию кумулянты в явном виде не входят, поэтому
Итак,
(4.5.3)
Если в входит несколько усредненных функций , , , то вместо (4.5.3) придем к
Используя полученные формулы двукратно, найдем, например,
Заметим, что многократное использование формул (4.5.2),(4.5.3) ведет уже к довольно громоздким выражениям, и мы их приводить не будем, несмотря на то, что в принципе их получить несложно.
Несколько более простые выражения получаются, если в усредняемую функцию, кроме , входят не усредненные значения других функций, а кумулянты. В этом случае вместо (4.5.2) получим
(4.5.4)
Повторное использование этой формулы приводит к
3. Вернемся теперь к отысканию зависимостей кумулянтов случайной величины от кумулянтов входной переменной Так как кумулянты представляют собой комбинацию моментов, то на основании (1.2.4) легко записать их дифференциалы через дифференциалы моментов. Например, для первых четырех кумулянтов имеем
Отсюда, используя (4.5.3), найдем
(4.5.5)
Выделим из этих уравнений особо четыре формулы, связывающие средние значения и дисперсии:
(4.5.6)
Пример 4.5.1. Применим полученные формулы для нахождения первых четырех кумулянтов случайной величины, подвергшейся квадратичному преобразованию . Первый кумулянт находится элементарно (для простоты записи обозначим в этом примере как ). Структура последующих кумулянтов может быть записана сразу, исходя из их порядка, например,
Коэффициенты нетрудно найти с помощью формул (4.5.5):
Следовательно,
(4.5.7)
Аналогичный расчет приводит к
Полученные формулы означают, в частности, следующее. Если нас интересует, например, дисперсия квадратично-преобразованной произвольной случайной величины, то, согласно (4.5.7), искомая дисперсия будет определяться только первыми четырьмя кумулянтами входного распределения. По этой причине различные входные вероятностные распределения (различные по высшим кумулянтам: ) будут приводить к одному и тому же результату.
4. Нетрудно распространить полученные формулы дифференцирования по кумулянтам на функцию, зависящую от двух случайных величин: . Так, вместо (4.5.3) получим
(4.5.8)
Вместо (4.5.4) будем иметь уравнение
Также легко получить производные по кумулянтам и для функций, зависящих от большого числа случайных переменных. Так, например :
#12.1. Моменти випадкових змінних.
Мінако,тирнов
частина 1 ст. 22-25 або
#12.2. Кореляційна функція та спектр телеграфного сигналу
#13.1. Стаціонарні та нестаціонарні випадкові процеси.
#13.2. Лінійний регресійний
аналіз.
У статистиці лінійна
регресія — це
метод моделювання залежності між скаляром y та векторною (у загальному випадку) змінною X. У випадку, якщо змінна X також є скаляром, регресію називають
простою.
При використанні лінійної регресії взаємозв'язок між даними
моделюється за допомогою лінійних функцій, а невідомі параметри моделі
оцінюються за вхідними даними. Подібно до інших методів регресійного
аналізу лінійна регресія повертає розподіл умовної
імовірності y в залежності від X, а не розподіл спільної імовірності y та X, що стосується області мультиваріативного аналізу.
При розрахунках параметрів моделі лінійної регресії як
правило застосовується метод найменших квадратів, але також можуть бути використані інші методи. Так само
метод найменших квадратів може бути використаний і для нелінійних моделей. Тому
МНК та лінійна регресія хоч і є тісно пов'язаними, але не є синонімами.
Загалом лінійна регресійна модель визначається у виді:
де — залежна пояснювана змінна, — незалежні пояснювальні змінні, — випадкова похибка, розподіл якої в загальному
випадку залежить від незалежних змінних але математичне сподівання якої рівне нулю.
Відповідно згідно з цією моделлю математичне
очікування залежної змінної є лінійною
функцією незалежних змінних:
Вектор параметрів є невідомим і
задача лінійної регресії полягає у оцінці цих параметрів на основі деяких
експериментальних значень і Тобто для деяких n експериментів є відомі значення незалежних
змінних і відповідне їм значення залежної змінної.
Згідно з визначенням моделі для кожного експериментального
випадку залежність між змінними визначається формулами:
або у матричних позначеннях
де:
На основі цих даних потрібно оцінити
значення параметрів а також розподіл випадкової величини Зважаючи на характеристики досліджуваних змінних
можуть додаватися різні додаткові специфікації моделі і застосовуватися різні
методи оцінки параметрів. Серед найпоширеніших специфікацій лінійних моделей є
класична модель лінійної регресії і узагальнена модель лінійної регресії.
Згідно з класичною моделлю додатково
вводяться такі вимоги щодо специфікації моделі і відомих експериментальних
даних:
·
(відсутність кореляції залишків)
попередні дві властивості можна також записати в матричних позначеннях де In — одинична матриця розмірності n.
·
Ранг матриці X рівний K+1.
·
Усі елементи матриці X є
невипадковими.
Часто додається також умова нормальності випадкових відхилень, яка дозволяє провести значно
ширший аналіз оцінок параметрів та їх значимості, хоча і не є обов'язковою для
можливості використання наприклад методу найменших квадратів:
·
Для асимптотичних властивостей оцінок додатково вимагається
виконання деяких додаткових умов на матрицю X коли її розмірність прямує до
безмежності. Однією з таких умов може бути існування границі при прямуванні
розмірності до безмежності:
·
де позначає найменше власне значення
матриці.
#14.1. Імпульсний пуасонівський випадковий процес
Ахманов – 91 – 97 стр
Гарьянов -105 стр
Левын -141 стр
#14.2.
Методмоментов
Ме́тодмоме́нтов —
метод оценки неизвестных параметров
распределений в математической статистике и эконометрике,
основанный на предполагаемых свойствах моментов(Пирсон,
1894 г.). Идея метода заключается в замене истинных
соотношений выборочными аналогами.
Сущность метода
Пусть случайная величина (вектор, матрица и т. д.) X имеет некоторое распределение , зависящее от параметров . Пусть для функций (называемыхмоментами или моментными функциями) , интегрируемых по мере , выполнены условия на моменты
Пусть — выборка случайной величины X. Предполагается, что соотношения аналогичные условиям на моменты выполнены
и для выборки, а именно вместо математического ожидания в условиях на моменты
необходимо использовать выборочные средние:
причем в данном представлении (когда справа от
равенства — ноль) достаточно использовать
просто суммы вместо средних.
Оценки, получаемые из решения этой системы
уравнений (выборочных условий на моменты), называются оценками метода моментов. Название метода связано с тем, что чаще всего в
качестве функций выступают функции степенного вида, математические
ожидания от которых в теории вероятностей и математической статистике принято
называть моментами.
Если моментные функции непрерывны, то оценки метода
моментов состоятельны.
Частные случаи
Некоторые классические методы оценки регрессионных
моделей можно представить как частные случаи метода моментов. Например, если
линейная регрессионная модель удовлетворяет условию , то условия на моменты выглядят
следующим образом:
Следовательно, в этом случае оценка метода моментов
будет совпадать с оценкой метода
наименьших квадратов
Таким образом, МНК является частным случаем метода
моментов, когда выполняется условие ортогональности регрессоров и случайных
ошибок
Рассмотрим другой случай, когда имеются некоторые
переменные z, ортогональные случайным
ошибкам линейной регрессионной модели, то есть . Тогдаимеемвыборочныйаналогэтогоусловия:
Следовательно оценка метода моментов будет
совпадать с оценкой метода инструментальных переменных: .
Таким образом, метод инструментальных переменных является частным случаем метода моментов, когда выполнено
условие ортогональности инструментов и случайных ошибок модели.
Обобщенный метод моментов
Метод моментов может быть обобщен на случай когда
количество условий на моменты превышает количество параметров, которые
необходимо оценить. В этом случае, очевидно однозначного решения задача не
имеет (в общем случае). В таком случае решается задача на минимизацию
некоторого функционала, характеризующего интегральную степень соблюдения
условий на моменты.
Пусть — совокупность условий на моменты, число которых
больше числа неизвестных параметров. Обобщенным
методом моментов (ОММ, GMM — GeneralizedMethodofMoments) называется оценка минимизирующая положительно
определенную квадратичную форму от выборочных условий на моменты:
где W —
некоторая симметрическая положительно определенная матрица.
Весовая матрица теоретически может быть
произвольной (с учетом ограничения положительной определенности), однако,
доказано, что наиболее эффективными являются GMM-оценки с весовой матрицей, равной обратной ковариацинной матрице моментных
функций . Это так называемый эффективный GMM. Однако, поскольку на практике эта ковариационная
матрица неизвестна, то применяют следующую процедуру. На первом шаге
оцениваются параметры модели с помощью GMM с единичной весовой матрицей. Затем по выборочным данным и найденным
значениям параметров оценивают коварицаонную матрицу моментных функций и
используют полученную оценку в эффетивномGMM (это т. н. доступный эффективный GMM).
Пример
Пусть —
выборка из гамма
распределения с неизвестными параметрами и . Тогда
.
Тогда оценки метода моментов удовлетворяют системе
уравнений:
.
Преимущества и недостатки метода
В известной мере, при оценке параметров из
известного семейства вероятностных распределений, этот метод упраздняется Фишеровским методом максимального правдоподобия, так как максимально
правдоподобная оценка имеет большую вероятность оказаться ближе к истинному
значению оцениваемой величины.
Тем не менее, в некоторых случаях, например, как
выше в случае Гамма-распределения, использование метода максимального
правдоподобия требует использования компьютеров в то время, как метод моментов
может быть быстро и легко реализован вручную.
Оценки, полученные методом моментов, могут быть
использованы как первое приближение для метода максимума правдоподобия.
Дальнейшее улучшение оценок может быть получено с использованием метода
Ньютона-Рафсона.
В некоторых случаях, редких при больших объемах
данных и более частых при малом их количестве, оценки, даваемые методом
моментов могут оказаться вне допустимой области. Такая проблема никогда не
возникает в методе максимального правдоподобия. Также, оценки по методу
моментов не обязательно оказываютсядостаточной
статистикой, то есть, они иногда извлекают из данных не всю имеющуюся в них
информацию.
#15.1. Коефіцієнт кореляції, його означення та властивості.
Коефіцієнтом кореляції ρζη випадкової величини (ζ, η), називають
відношення
|
(10.12) |
де σζ, ση - середні
квадратичні відхилення випадкових величин ζ та η.
Коефіцієнт кореляції незалежних випадкових величин дорівнює
нулю.
Означення 10.6
Випадкові величини, для яких кореляційний момент (а
значить і коефіцієнт кореляції) дорівнює нулю, називають некорельованими.
Очевидно, що для
некорельованості випадкових величин достатньо, щоб їх сумісний розподіл був
симетричний відносно будь-якої прямої, паралельної одній з осей координат.
Зауважимо, що рівність нулю коефіцієнта кореляції –
необхідна, але не достатня умова незалежності випадкових величин.
Отже, з некорельованості випадкових величин не завжди
випливає їх незалежність. Коефіцієнт кореляції
характерезує не будь-яку залежність, а тільки так звану лінійку, яка полягає в
тому, що при зростанні однієї з випадкових величин інша зростає (або спадає) за
лінійним законом. Якщо випадкові величини ζ та η мають точно лінійну
функціональну залежність η=aζ+b , то ρζη=±1
причому, якщо a>0 ρζη=1 , а якщо a<0 ρζη=-1.
В загальному значення коефіцієнта кореляції ρζη задовільняють нерівність: -1 ≤ ρζη ≤ 1 .
Сформулюємо властивості коефіцієнта кореляції. |
1. Коефіцієнт кореляції не залежить від вибору
одиниці виміру випадкових величин, тобто є величиною безрозмірною.
2. Абсолютна величина коефіцієнта кореляції не
перевищує одиниці: |ρζη|≤1.
Доведення.
Розглянемо величину ρ=(ζ-Mζ)+t(η-Mη). Оскільки Mρ2≥0
при всіх t і
то квадратний тричлен невід’ємний при всіх t. Тоді його дискримінант або .
Розділивши обидві частини останньої нерівності на ,
отримаємо .
•
Зауваження.
При ζ=η маємо μζ, η=Dζ і ρζ,
ζ=1. Тобто коефіцієнт кореляції величини ζ з самою собою
дорівнює 1. Отже, слід сподіватись (чекати, що серед всіх величин η
величина η=ζ має найбільший коефіцієнт кореляції з величиною ζ
тобто ρζ, η≤ρζ, ζ=1
оскільки серед всіх величин η величина η=ζ “найбільше” залежить
від величини ζ. Дійсно має місце теорема.
3. Розглянемо окремо екстремальні випадки, коли
ρζ, η=±1.
Теорема 10.2 Коефіцієнт
кореляції величини ζ і η ρζ, η=±1 тоді і
лише тоді, коли з ймовірністю 1 між випадковими величинами ζ і η
існує точна лінійна функціональна залежність.
Доведення.
⇒ Очевидно, що ρζ, η=±1 тоді і лише тоді, коли квадратний тричлен, розглянутий при доведенні
теореми – має однакові дійсні корені t1=t2=t0.
При t0 маємо
Отже, з ймовірністю 1 ,
або
|
(*) |
Лінійну функціональну залежність завжди можна представити
у вигляді (*) при деякому t0, що означає існування однакових дійсних
коренів t1=t2=t0 квадратного
тричлена, а, отже, справедливість рівності |ρζ, η|=1.
•
З останньої теореми випливає, що коефіцієнт кореляції
можна розглядати як міру прямолінійності розподілу двовимірної випадкової
величини (ζ, η).
4. Якщо ρζ, η≠0,
то складові ζ, η випадкового вектора (ζ, η) залежні.
У випадку ρζ, η>0 говорять
про позитивну кореляцію випадкових величин ζ, η. Це означає, що при
зростанні однієї з них інша має тенденцію в середньому зростати. Якщо ж ρζ,
η<0, то кажуть про від'ємну кореляцію випадкових величин ζ
та η, тобто при зростанні однієї з них інша в середньому спадає. За
означенням умовного математичного сподівання випливає, що при зміні значення y
змінюється і
|
(10.13) |
Аналогічно умовне
математичне сподівання M(η|ζ=x) можна розглядати як функцію аргументу
y: M(η|ζ=x) = ψ(y).
#15.2. Співвідношення
невизначеностей для випадкових процесів.
#16.1. Спектральна
густина стаціонарного випадкового процесу на виході лінійної системи з
постійними параметрами.
Лінійна система з постійними параметрами не вносить нових гармонік в спектр
сигналу, а лише змінює амплітуду. Варіант з книги, нижче - конспект
#16.2. Випадкові процеси. Поняття ансамблю та вибіркових
реалізацій випадкового процесу
Спектральная плотность S(ω) стационарного случайного процесса x(t) - это частотная функция, характеризующая спектральный (частотный) состав процесса, и представляет собой частотную характеристику для средних значений квадратов амплитуд гармоник, на которые может быть разложен случайный процесс. Спектральная плотность представляет собой двустороннее преобразование Фурье от корреляционной функции и имеет размерность [S(ω)]=в2/гц=в2с
. (9.8)
Чтобы определить корреляционную функцию Rx(τ) по известной спектральной плотности Sx(ω) используется обратное преобразование Фурье
. (9.9)
Для τ=0 имеем
. (9.10)
По своему физическому смыслу спектральная плотность есть величина, которая пропорциональна средней мощности процесса в интервале частот от ω до +dω. На рис.9.2 изображены характеристики R(τ) и S(ω) для различных случайных процессов.
Рис.9.2. Графики спектральных плотностей и корреляционных функций для различных
случайных процессов
Кривые 4 на рис.9.2. соответствуют чисто случайному
процессу, когда связь между последующими значениями x(t) совсем отсутствует.
Такой случайный процесс называется белым шумом, т.е. при τ0 Rx(τ)
= 0, а S(ω) =const.
Следовательно, для исследования САУ со случайным необходимо вычисление либо
корреляционных функций R(τ), либо спектральных плотностей S(ω)
входных и выходных переменных.
Для установления взаимосвязи между корреляционными функциями переменных входа и
выхода системы, а также взаимосвязи между их спектральными плотностями
используется известное интегральное уравнение (интеграл Дюамеля), на основании
которого
(9.11)
где w(t) - весовая или импульсная функция замкнутой
системы по входному воздействию f(t); τ1 - вспомогательное
время интегрирования.
Это же выражение для x(t+τ) будет
(9.12)
где τ2 - вспомогательное время интегрирования.Тогда корреляционная функция выходной величины
(9.13)
Учитывая формулы (9.8) и (9.9) корреляционная функция
(9.14)
Подставляя это выражение для определения корреляционной функции выходной величины (9.13) и поменяв порядок интегрирования, получим
Так как
то
(9.15)
Для дисперсии выходной величины получаем
(9.16)
Из приведенных выше выражений можно получить связь между спектральными плотностями входной и выходной величинами САУ при случайных стационарных процессах
(9.17)
где W(jω) - частотная передаточная функция
системы.
Таким образом, спектральная плотность стационарного случайного процесса на
выходе системы равна спектральной плотности входного воздействия, умноженной на
квадрат амплитудной частотной характеристики системы.
#17.1. Ергодичні
випадкові процеси, їх властивості(v1).
Нехай Х (t)
- стаціонарний випадковий процес на відрізку часу [0, T] з характеристиками
M [X (t)] = 0, K (t, t ') = M [X (t) X (t')] = k (τ),
τ = t '- t, (t, t')
€ T × T.
Ергодична властивість стаціонарного випадкового процесу полягає в тому, що за досить тривалої реалізації процесу можна судити про його математичне сподівання, дисперсії, кореляційної функції.
ергодичність процесів
Стаціонарність (у широкому сенсі): протягом усього відрізка часу математичне сподівання і дисперсія незмінні, а автокореляційна функція залежить тільки від різниці значень часу t 1 і
t 2 і не залежить від часу початку і кінця процесу.
(^ У вузькому сенсі) незмінність n-мірної щільності ймовірності процесу.
Ергодичний процес - якщо параметри випадкового процесу можна визначити по одній нескінченної реалізації.
Для
ергодичного процесу:
, Де t = t 2 - T 1.
Дисперсія:
Процеси можуть бути між собою корельовані та
залежні. Некорельовані процеси - це означає, що К xy (t) = 0 при будь-якому t.
Незалежні процеси: .
Незалежні процеси завжди некорельовані, залежні
процеси можуть бути як корельованими так і некоррелірованнимі.
1.2. Стационарность случайного процесса
Случайный процесс называется
стационарным, если одномерная плотность распределения вероятности
и, следовательно, среднее значение и дисперсия случайного процесса
не зависят от времени, а двумерная плотность распределения
вероятности и автокорреляционная функция зависят только от разности
временных аргументов , где .
Если многомерный закон
распределения вероятностей распределения мгновенных значений, взятых
в разные моменты времени, не зависят от принятого начала
отсчёта, а зависят только от интервалов между выбранными моментами
,
то такой процесс стационарен
в узком
смысле. Если независимость от начала отсчёта выполняется
только до второго (корреляционного) момента (включая первый),
то такой процесс называют стационарным в широком смысле.
1.3. Эргодичность случайного процесса
Случайный процесс называется
эргодическим первого порядка, если его первый момент, полученный усреднением
по множеству реализаций (1.2), с вероятностью сколь угодно близкой
к единице совпадает со средним значением, полученным усреднением по времени
одной достаточно длинной реализации.
Случайный процесс называется
эргодическим второго порядка, если его корреляционная функция (1.6),
с вероятностью сколь угодно близкой к единице совпадает
со средним значением произведения случайного процесса при сдвинутых
аргументах, полученным усреднением по времени одной достаточно длинной
реализации.
Параметры эргодического
случайного процесса могут быть определены так:
, , (1.9).
Усреднением по времени
могут быть найдены также автокорреляционные функции эргодического случайного
процесса
, (1.10).
В данной работе
предполагается, что аддитивно добавленный к полезному сигналу «шум»
является эргодическим, случайным процессом.
#17.2. Стационарность случайного
процесса(v2) ????
Случайный процесс называется
стационарным, если одномерная плотность распределения вероятности
и, следовательно, среднее значение и дисперсия случайного процесса
не зависят от времени, а двумерная плотность распределения
вероятности и автокорреляционная функция зависят только от разности
временных аргументов , где .
Если многомерный закон
распределения вероятностей распределения мгновенных значений, взятых
в разные моменты времени, не зависят от принятого начала
отсчёта, а зависят только от интервалов между выбранными моментами
,
то такой процесс стационарен
в узком
смысле. Если независимость от начала отсчёта выполняется
только до второго (корреляционного) момента (включая первый),
то такой процесс называют стационарным в широком смысле.
1.3. Эргодичность случайного процесса
Случайный процесс называется
эргодическим первого порядка, если его первый момент, полученный усреднением
по множеству реализаций (1.2), с вероятностью сколь угодно близкой
к единице совпадает со средним значением, полученным усреднением
по времени одной достаточно длинной реализации.
Случайный процесс называется
эргодическим второго порядка, если его корреляционная функция (1.6),
с вероятностью сколь угодно близкой к единице совпадает
со средним значением произведения случайного процесса при сдвинутых
аргументах, полученным усреднением по времени одной достаточно длинной
реализации.
Параметры эргодического
случайного процесса могут быть определены так:
, , (1.9).
Усреднением по времени
могут быть найдены также автокорреляционные функции эргодического случайного
процесса
, (1.10).
В данной работе
предполагается, что аддитивно добавленный к полезному сигналу «шум»
является эргодическим, случайным процессом.
#17.2. Дискретні представлення лінійних систем.
Задача опис лінійних дискретних
систем у часі полягає у встановленні залежності між вхідними та вихідними
сигналами, представленими у часовій області. Для цього звичайно треба знати
відповідні характеристики системи, які теж повинні бути залежними від
дискретного часу.
Дискретні сигнали, що
використовуються в системах ЦОС, досить різноманітні. І щоб уніфікувати задачу
аналізу їх проходження через ЛДС треба мати можливість представляти такі складні
сигналі у вигляді зваженої суми деяких
стандартних сигналів. Тоді, оскільки ЛДС задовольняють принципу суперпозиції,
то можна найти відгук на кожну складову зваженої суми, результат скласти і
знайти відгук на весь складний сигнал. Тим самим отримати відповідь на задачу
аналізу проходження складного сигналу через ЛДС. Отже треба знати реакцію
ЛДС на дію стандартного сигналу. Таким
чином, часові характеристики ЛДС представляють собою реакції на певні
стандартні дискретні сигнали.
В
теорії ЛДС такими стандартними сигналами є одиничний імпульс і функція у
вигляді одиничного стрибка. Розглянемо перший стандартний сигнал – одиничний
імпульс. Будемо визначати його наступним виразом:
(3.7)
На рис. 3.2 зображено одиничний імпульс.
Рис. 3.2. Одиничний імпульс
Можна
розглядати також зсунуті у часі одиничні імпульси. Затриманий у часі на дискретних
інтервалів одиничний імпульс (див. рис. 3.3, а) запишеться так:
(3.7А)
а
б
Рис. 3.3. Затриманий у часі а) і випереджаючий б) одиничні
імпульси
Випереджаючий
на дискретних
інтервалів одиничний імпульс (рис. 3.3, б)
(3.7Б)
В
усіх трьох виразах (3.7), (3.7А) і (3.7Б) дискретна змінна
Розглянемо
тепер деяку нестаціонарну ЛДС, яка носить назву параметричної. Будемо вважати,
що математична модель такої системи описується лінійним оператором , який залежить не лише від вхідної дії , а і від нормованого дискретного часу . Нехай система знаходиться в нульовому стані, тобто до
моменту всі вхідні
сигнали тотожно дорівнюють нулеві і маємо нульові початкові умови, а саме при відгук теж
дорівнює нулеві: . Якщо на таку систему подати на вхід у момент часу тестовий
одиничний сигнал (3.7), то на виході отримаємо відгук (рис. 3.4, а)
,
(3.8)
де перший аргумент означає поточний нормований
дискретний час, а другий аргумент позначає момент подачі тестуючого імпульсу на
вхід системи, який у нашому випадку дорівнює нулеві.
Подамо в тих же умовах на вхід
параметричної системи зсунутий у часі тестовий сигнал, наприклад, (3.7А).
Оскільки для параметричної системи її параметри з часом змінюються, то в цьому
випадку відгук буде відрізнятися від відгуку (3.8) (рис. 3.4, б), що відображається тим, що другий
аргумент дорівнює , тобто маємо
(3.9)
Таким
чином отримуємо наступне означення: відгук параметричної дискретної системи (3.9), яка
знаходиться в нульовому стані, на дію тестуючого одиничного сигналу (3.7А), де називається імпульсною характеристикою.
Оскільки
для реально існуючих систем повинен
виконуватися принцип причинності, а
саме, при відсутності на вході впливу на виході відгук теж буде тотожно
дорівнювати нулеві, то на імпульсну
Рис. 3.4. Реакція дискретної
параметричної системи на тестуючий імпульс, поданий на вхід у різні моменти
часу
характеристику (3.9) накладається обмеження фізичної можливості, тобто для фізично
існуючих систем
.
Розглянемо
тепер стаціонарну ЛДС. Для такої системи відгук є інваріантним до зсувів
вхідного сигналу у часі, тобто оператор , що описує математичну модель системи, тепер не
залежить від часового параметра. Нехай система знаходиться в нульовому стані. В
момент часу подамо тестовий
сигнал (3.7). Тоді відгук (див. рис 3.5, а)
запишеться так
.
(3.10)
Якщо
на лінійну стаціонарну систему, що знаходиться в нульовому стані, подати
тестуючий сигнал у момент часу , то відгук
,
тобто буде мати ту ж форму, що і (3.10), але буде
зсунутий у часі на інтервалів (рис.
3.5, б).
Рис. 3.5. Реакція стаціонарної
ЛДС тестуючий імпульс, поданий на вхід у різні моменти часу
Таким
чином для стаціонарної ДЛС не важливо, в
який момент часу подавати тестуючий сигнал. Форма реакції від цього не залежить
(див. рис. 3.5). Тому маємо таке означення: відгук стаціонарної ЛДС (3.10), яка
знаходиться в нульовому стані, на дію тестуючого одиничного сигналу (3.7)
називається імпульсною характеристикою.
#17.2. Дискретні представлення лінійних систем.
Задача опис лінійних дискретних
систем у часі полягає у встановленні залежності між вхідними та вихідними
сигналами, представленими у часовій області. Для цього звичайно треба знати
відповідні характеристики системи, які теж повинні бути залежними від
дискретного часу.
Дискретні сигнали, що
використовуються в системах ЦОС, досить різноманітні. І щоб уніфікувати задачу
аналізу їх проходження через ЛДС треба мати можливість представляти такі
складні сигналі у вигляді зваженої суми
деяких стандартних сигналів. Тоді, оскільки ЛДС задовольняють принципу
суперпозиції, то можна найти відгук на кожну складову зваженої суми, результат
скласти і знайти відгук на весь складний сигнал. Тим самим отримати відповідь
на задачу аналізу проходження складного сигналу через ЛДС. Отже треба знати
реакцію ЛДС на дію стандартного сигналу.
Таким чином, часові характеристики ЛДС представляють собою реакції на певні
стандартні дискретні сигнали.
В
теорії ЛДС такими стандартними сигналами є одиничний імпульс і функція у
вигляді одиничного стрибка. Розглянемо перший стандартний сигнал – одиничний
імпульс. Будемо визначати його наступним виразом:
(3.7)
На рис. 3.2 зображено одиничний імпульс.
Рис. 3.2. Одиничний імпульс
Можна
розглядати також зсунуті у часі одиничні імпульси. Затриманий у часі на дискретних
інтервалів одиничний імпульс (див. рис. 3.3, а) запишеться так:
(3.7А)
а
б
Рис. 3.3. Затриманий у часі а) і випереджаючий б) одиничні
імпульси
Випереджаючий
на дискретних
інтервалів одиничний імпульс (рис. 3.3, б)
(3.7Б)
В
усіх трьох виразах (3.7), (3.7А) і (3.7Б) дискретна змінна
Розглянемо
тепер деяку нестаціонарну ЛДС, яка носить назву параметричної. Будемо вважати,
що математична модель такої системи описується лінійним оператором , який залежить не лише від вхідної дії , а і від нормованого дискретного часу . Нехай система знаходиться в нульовому стані, тобто до
моменту всі вхідні
сигнали тотожно дорівнюють нулеві і маємо нульові початкові умови, а саме при відгук теж
дорівнює нулеві: . Якщо на таку систему подати на вхід у момент часу тестовий
одиничний сигнал (3.7), то на виході отримаємо відгук (рис. 3.4, а)
,
(3.8)
де перший аргумент означає поточний нормований
дискретний час, а другий аргумент позначає момент подачі тестуючого імпульсу на
вхід системи, який у нашому випадку дорівнює нулеві.
Подамо в тих же умовах на вхід
параметричної системи зсунутий у часі тестовий сигнал, наприклад, (3.7А).
Оскільки для параметричної системи її параметри з часом змінюються, то в цьому
випадку відгук буде відрізнятися від відгуку (3.8) (рис. 3.4, б), що відображається тим, що другий
аргумент дорівнює , тобто маємо
(3.9)
Таким
чином отримуємо наступне означення: відгук параметричної дискретної системи (3.9), яка
знаходиться в нульовому стані, на дію тестуючого одиничного сигналу (3.7А), де називається імпульсною характеристикою.
Оскільки
для реально існуючих систем повинен
виконуватися принцип причинності, а
саме, при відсутності на вході впливу на виході відгук теж буде тотожно
дорівнювати нулеві, то на імпульсну
Рис. 3.4. Реакція дискретної
параметричної системи на тестуючий імпульс, поданий на вхід у різні моменти
часу
характеристику (3.9) накладається обмеження фізичної можливості, тобто для фізично
існуючих систем
.
Розглянемо
тепер стаціонарну ЛДС. Для такої системи відгук є інваріантним до зсувів
вхідного сигналу у часі, тобто оператор , що описує математичну модель системи, тепер не
залежить від часового параметра. Нехай система знаходиться в нульовому стані. В
момент часу подамо тестовий
сигнал (3.7). Тоді відгук (див. рис 3.5, а)
запишеться так
.
(3.10)
Якщо
на лінійну стаціонарну систему, що знаходиться в нульовому стані, подати
тестуючий сигнал у момент часу , то відгук
,
тобто буде мати ту ж форму, що і (3.10), але буде
зсунутий у часі на інтервалів (рис.
3.5, б).
Рис. 3.5. Реакція стаціонарної
ЛДС тестуючий імпульс, поданий на вхід у різні моменти часу
Таким
чином для стаціонарної ДЛС не важливо, в
який момент часу подавати тестуючий сигнал. Форма реакції від цього не залежить
(див. рис. 3.5). Тому маємо таке означення: відгук стаціонарної ЛДС (3.10), яка
знаходиться в нульовому стані, на дію тестуючого одиничного сигналу (3.7)
називається імпульсною характеристикою.
#18.1.Властивості кореляційних функцій випадкового
процесу
Основні властивості кореляційних функцій випадкових
процесів
1. Кореляційні функції для типових сигналів.
2.Аппроксімаціі кореляційних функції.
3.Связь між видом КФ і видом реалізацій
процесів.
4.Експеріментальное визначення кореляційних
функції.
Наведемо деякі основні властивості кореляційних
функцій R x (t ).
1. Початкове значення кореляційної функції
дорівнює середньому
значенням квадрата випадкового процесу:
(7.1)
Це випливає з (6.12), яке при t = 0 дорівнює
(7.2)
2. Кінцеве значення кореляційної функції
дорівнює квадрату середнього значення випадкового процесу:
(7.3)
Дійсно, чим більше t, тим менше пов'язані між
собою випадкові величини X (t 1) і X (t 2). При t®¥ величини X (t 1) і X (t 2)можна вважати взаємно незалежними. Звідси, приймаючи до уваги (??) І (6.11), можна
написати
(7.4)
3. Значення кореляційної функції за будь t не може перевищувати її
початкового значення, тобто
(7.5)
Щоб довести це, розглянемо очевидне нерівність
з якого випливає
(7.6)
Знаходимо середні значення за часом від обох
частин останнього нерівності:
і
Таким чином, отримаємо нерівність
(7.7)
4. Кореляційна функція є парна функція від t, тобто
(7.8)
Це випливає з самого визначення кореляційної
функції.
Дійсно,
(7.9)
Тому на графіку кореляційна функція завжди
симетрична щодо осі ординат.
5. Кореляційна функція суми випадкових процесів Z (t) = X (t) + G (t) визначається виразом
(7.10)
де R xg (t) і R gx (t) - взаємні кореляційні
функції. Дійсно,
(7.11)
6. Кореляційна функція постійної величини x (t) = А 0 дорівнює квадрату цієї постійної
величини A 0 2 (рис. 7.1, а), що випливає з самого визначення
кореляційної функції:
(7.12)
7. Кореляційна функція періодичної функції,
наприклад x (t) = A sin (w 1 t + j), являє собою косінусоіду
(рис. 7.1, д), т. е.
(7.13)
що має ту ж частоту w 1, що і x (t), і не залежну від зсуву фази j .
Щоб довести це, зауважимо, що при знаходженні
кореляційних функцій періодичних функцій x
(t) можна використовувати наступне рівність:
(7.14)
де T 0 = 2 p / w 0 - період
функції х (t)
Остання рівність виходить після заміни інтеграла
з межами від-Т до Т при Т ®¥
сумою окремих інтегралів з межами
від (k-1) T 0 до kT 0, де k = 0, ± 1, ± 2, ..., ± п, і використання періодичності подинтегральних
функцій.
Тоді, враховуючи сказане вище, отримаємо
(7.15)
8. Кореляційна функція тимчасової функції,
розкладається в ряд Фур'є:
(7.16)
має на підставі викладеного вище наступний
вигляд:
R x (t) = A 0 2 + S (A k 2/2) cos w k t
Рис 7.1.
9. Кореляційна функція стаціонарного випадкового процесу,
на який накладено періодична складова з частотою w k, також буде містити
періодичну складову тієї ж частоти.
Цю обставину можна використовувати як один із
способів про-наруженія «прихованої періодичності» у випадкових процесах, яка
може не виявлятися при першому погляді на окремі записи реалізації випадкового
процесу.
Зразковий вид кореляційної функції процесу X (t), що містить у своєму складі
крім випадкової також і періодичну складову, зображений на рис. 7.2, де R x 0 (t) позначена кореляційна
функція, відповідна випадкової складової.
Щоб виявити приховану періодичну складову (така
задача виникає, наприклад, при виділенні малого корисного сигналу на тлі
великої перешкоди), найкраще визначити кореляційну функцію R x (t) для великих значень t, коли випадковий сигнал вже
порівняно слабко коррелирован і випадкова складова слабо позначається на
вигляді кореляційної функції.
Рис 7.2
10. Типова кореляційна функція стаціонарного
випадкового процесу з не рівним нулю середнім значенням, що не містить
прихованих періодичностей, наведена на рис. 7.3.
Рис 7.3
Якщо середнє значення випадкового процесу
дорівнює нулю, то його типова кореляційна функція (що збігається з центрованої
кореляційної функцією) матиме вигляд, представлений на рис. 7.1, б, в. У цьому випадку її можна
апроксимувати наступним аналітичним виразом:
(7.17)
де D x - дисперсія; а = const - параметр загасання.
З ростом t зв'язок між X (t) і X (t + t) слабшає і кореляційна
функція стає менше. На рис. 7.1, б, в наведено, наприклад, дві
кореляційні функції і дві відповідні їм реалізації випадкового процесу. Легко
помітити, що кореляційна функція, відповідна випадковому процесу з більш тонкою
структурою, убуває швидше. Іншими словами, чим вищі частоти присутні у випадковому
процесі, тим швидше убуває відповідна йому кореляційна функція.
Іноді зустрічаються кореляційні функції, які
можуть бути апроксимовані аналітичним виразом
(7.18)
де D x, - дисперсія; а = const - параметр загасання; g = const - резонансна частота.
Кореляційні функції подібного виду мають,
наприклад, випадкові процеси типу турбулентності атмосфери, федінга
радіолокаційного сигналу, кутового мерехтіння цілі і т. п.
Вирази (7.17) і (7.18) часто використовуються
для апроксимації кореляційних функцій, отриманих в результаті обробки
експериментальних даних.
11. Чим слабкіше взаємозв'язок між попередніми X (t) і наступними X (t + t) значеннями випадкового
процесу, тим швидше убуває кореляційна функція R x (t).
Час t R, при якому має місце
нерівність | R x (t R) - (х) 2 | <= D, де D - досить
мала величина, називають часом кореляції випадкового процесу.
Випадковий процес, в якому відсутній зв'язок між
попередніми і наступними значеннями, називають чистим випадковим процесом або
білим шумом. У разі білого шуму час кореляції t R = 0 і кореляційна функція
являє собою d-функцію
(див. рис. 7.1, г):
(7.19)
де N = const.
Зауважимо, що випадковий процес типу білого шуму
є фізично нереальним, так як йому відповідають нескінченно велике значення
дисперсії і середнього значення квадрата випадкової величини D x = х 2 =
R х (0) = oо, а отже, і нескінченно велика потужність.
При вирішенні практичних завдань часто користуються нормованої кореляційної функцією
(7.20)
Нормована кореляційна функція зручна тим, що
завжди r x (0) = 1. Іноді в розгляд вводять
нормовану взаємну кореляційну функцію
(7.21)
причому можна показати, що
(7.22)
На закінчення коротко розглянемо спосіб
експериментального визначення кореляційних функцій.
Якщо є експериментальна запис реалізації x (t) випадкового процесу X (t) на досить тривалому
інтервалі часу, то кореляційна функція R x (t), що визначається виразом
(7.18), може бути наближено обчислена таким чином. Весь інтервал запису
осцилограми ділиться на l рівних частин, тривалість
яких D t = T / l вибирається такий, щоб
реалізація x (t) мало змінювалася протягом
інтервалу D t (рис. 7.4).
Рис 7.4
Значення ординати реалізації x (t) на деякому відрізку п позначимо x n, а значення ординати цієї ж
кривої, але зміщеною на величину t = m D t, т. е. x (t + t), позначимо х п + т.
Переймаючись різними значеннями т, знаходимо для різних значень t = m D t середнє значення твори
ординат х п і х п + т.Наближене значення кореляційної функції
(7.23)
В (54) зменшення інтервалу Т на величину t обумовлено тим, що ординати х п + т, відомі тільки до t = Т-t = (l-т) D t. Чим менше тривалість
відрізків D t і чим більше величина інтервалу Т, тим точніше вираз (7.23) відповідає
кореляційної функціїR x (t). Для отримання помилки не
більше 2% повинно виконуватися нерівність т <= 0,1 T / D t.
Наведений спосіб визначення кореляційної функції
з експериментально отриманої реалізації випадкового процесу досить
трудомісткий, тому на практиці звичайно кореляційні функції знаходять за допомогою
спеціальних приладів -корреляторов, які автоматично обчислюють
середні твори двох ординат осцилограм, що знаходяться один від одного на
відстані т.
Якщо експериментально знайдена кореляційна
функція R x (t) містить постійну складову x, то, використовуючи (6.13),
можна знайти центровану кореляційну функцію тобто
#18.2. Нормалізація
випадкових процесів інерційними системами.
#19.1. Розподіл Пуасона та його властивості.
#19.2. Перетворення
нормального випадкового сигналу лінійною системою.
#20.1.Перетворення
випадкового процесу ідеальним обмежувачем.
#20.2. Нелінійні перетворення випадкових змінних
Конспект – тільки для одновимірних, книжка для всіх(але
дуже багато інфи)
#21.1. Перетворення випадкового процесу ідеальним обмежувачем.
#21.2.
Аналітичний сигнал, його означення та властивості.
#22.1.
Перетворення нормального випадкового процесу квадратичним детектором.
Збір інформації із сигналів, які її переносять неможливий
без використання нелінійних перетворювачів. В найпростішому випадку це може
бути звичайна демодуляція сигналу.
Звичайно, будь-яке нелінійне перетворення в малому діапазоні зміни сигналу може бути
лінеаризовано, тобто замінено близьким лінійним перетворенням. Проте в
загальному випадку необхідно щоб була дуже велика кількість апроксимуючих лінійних функцій, або це просто
неможливо. Так чи інакше – найкраще застосовується теорія без інерційних
перетворювачів. Одним із них є квадратичний детектор (в загальному випадку
розглянемо «двосторонній квадратичний детектор»)
#22.2. Уширення
спектральної лінії внаслідок зіткнення молекул.
Ширина спектральных линий - интервал частот v характеризующий спектральные линии в спектрах оптических атомов, молекул и других квантовых
систем. Каждому излучательному квантовому переходу между дискретными уровнями
энергии Ek и Ei соответствует некоторый интервал δνki частот, близких к частоте перехода
Значение δνki определяет ширину спектральных линий, степень немонохроматичности данной спектральной линии. Контур спектральной
линии I(ν) (зависимость интенсивности испускания (поглощения) от частоты) обычно
имеет максимум при частоте перехода νki или вблизи неё; за ширину спектральных линий принимают разность частот, которым соответствует уменьшение интенсивности
вдвое (её называют иногда полушириной спектральной линии). Если не учитывать эффект Доплера, ширина спектральных линий δνki определяется суммой ширин уровней энергии Ek и Ei :
, то есть δνki тем больше, чем меньше времена жизни tk и ti. В зависимости от типа уширения получается симметричный
или асимметричный контур спектральных линий (на рисунке 1 показан симметричный,
так называемый дисперсионный, контур).
рис.1
Симметричный контур спектральной линии
Частоте νki соответствует максимальная интенсивность I(ν) испускания; δνki – ширина спектральной линии, равна интервалу между частотами, которые соответствуют
интенсивности, вдвое меньшей максимальной. Рассмотреный выше механизм носит
название естественное уширение спектральных линий.
Естественная форма
линии возникает в идеальных условиях, если атом
покоится в лабораторной системе отсчета и не подвергается в процессе излучения
внешним воздействиям. Реальные источники излучение представляют собой
совокупность большого числа атомов (молекул), взаимодействующих с окружающей
средой и друг другом. Это приводит к дополнительному уширению спектральных линий. Существует две группы факторов, влияющих на ширину
спектральных линий. Первая – вызывает в излучении каждого атома одинаковое
уширение линии. Это – однородное уширение. Вторая группа причин вызывает у разных
атомов разную величину уширения линий. Спектральные линии таких источников можно представить как наложение спектральных линий,
излучаемых отдельными атомами. Такое уширение называют неоднородным уширением.
Согласно классическим
представлениям процесс столкновения приводит к нарушению (обрыву) процесса
излучения классического осциллятора. В результате этого наблюдаемое время жизни
(в отличие от радиационного) уменьшается. Это приводит к уширению контура излучаемой линии. Уширение спектральных
линий, причиной которых является столкновение
атомов, называется ударным.
Если средний промежуток
между столкновениями Δtуд много меньше естественного времени жизни
осциллятора τ0(Δtуд <<τ0), то уменьшение амплитуды за время между столкновениями
можно не учитывать, и для определения спектра интенсивности можно использовать выражение
Однако, здесь
необходимо учесть то обстоятельство, что промежутки времени между
столкновениями являются случайными и описываются распределением Пуассона.
Поэтому спектральная линия излучения в этом случае будет определяться функцией Лоренца:
Форма линии
(спектральная плотность энергии излучения), которая определяется этим
равенством называется лоренцевым контуром. Ударное уширение является однородным. Контур однородно уширенной линииописывается функцией Лоренца. Этот вид уширения особенно проявляется
для газов, находящихся при высоких температурах и больших давлениях. В
современных ртутных лампах сверхвысокого давления, где давление паров ртути
достигает 20—30 атм, «линии» ртутного излучения настолько уширены, что само
выражение «спектральные линии» теряет смысл. Заметное уширение спектральных линий также наблюдается при добавлении к
светящемуся газу значительных количеств постороннего газа.
Доплеровское уширение – наиболее существенная причина, которая
определяет ширину спектральных
линий. Например, при комнатных температурах для
водорода доплеровская ширина спектральной линии почти в 500 раз больше естественной.
Причиной доплеровского уширения спектральных линий является эффект Доплера. Суть явления Доплера для световых волн
состоит в том, что спектр излучения атома, который движется с некоторой скоростью
в лабораторной системе отсчета, имеет некоторый сдвиг на частоте относительно
спектра покоящегося атома. Выделяют поперечный и продольный эффекты Доплера. Продольный эффект наблюдается при относительном
сближении или удалении источника или приемника. Поперечный эффект наблюдается
при движении источника в направлении, перпендикулярном линии, соединяющей
источник с наблюдателем. Поперечный эффект значительно меньше продольного.
Поэтому ограничимся подробным рассмотрением уширения спектральных линий вследствие лишь продольного эффекта Доплера. Частота излучения , регистрируемого приемником, при нерелятивистском
движении источника определяется выражением
где ω - частота излучения неподвижного источника, с – скорость света, vz - проекция скорости на направление наблюдения
(ось Z). Причем знак «+» соответствует движению частицы к наблюдателю, а «-» от
наблюдателя. При движении частицы к наблюдателю
Поскольку излучающие атомы двигаются хаотично, то полный спектр источника будет определяться наложением сдвинутых на определенную величину Δωi одинаковых по форме спектральных
распределений отдельных атомов.
Получим для этого случая спектральное распределение . Для простоты будем
считать, что ширина линии много меньше доплеровской, т.е. будем считать
излучение атома монохроматическим с частотой ω0 .Вероятность
того, что в состоянии теплового равновесия при температуре T атом имеет скорость, которая находится в интервале от v до v+dv , будет равна
Если в это распределение подставим v , то получим вероятность того, что частоты будут распределены в
интервале от ω до ω+dω
рис.2
Форма спектральной линии при доплеровском уширении
Для интенсивности будем
иметь
Контур спектральной линий, который описывается этим выражением, называется
гауссовым. Гауссов контур имеет колоколоподобную форму.
Полуширина доплеровской
спектральной линии равна
Таким образом, эффект Доплера является наиболее существенным фактором уширения спектральных линий. Величина доплеровского уширения зависит от температуры излучающего газа.
Также причинами уширения линий могут быть воздействия на излучающий атом
различных силовых полей, в первую очередь электрических полей, создаваемых
окружающими атомами. В постоянных электрических полях спектральные линии претерпевают расщепление (эффект Штарка). В переменных полях изменение
спектральных линий носит более сложный характер. Это—одна из основных причин уширения спектральных линий.
#23.1. Нелінійні перетворення випадкового
процесу. Метод характеристичних функцій.
Теоре́ма
Леви́ в теории вероятностей — результат, увязывающий поточечную
сходимость характеристических функций случайных величин со сходимостью этих случайных величин по распределению.
Формулировка
Пусть последовательность случайных величин, не обязательно определённых на
одном вероятностном
пространстве. Обозначим характеристическую
функцию случайной величины , где , символом . Тогда если по распределению при , и — характеристическая функция , то
.
Обратно,
если , где — функция действительного аргумента, непрерывная в нуле, то является характеристической функцией некоторой случайной величины , и
по распределению при .
Замечание
Так как
характеристическая функция любой случайной величины непрерывна в нуле, второе
утверждение имеет следующее тривиальное следствие. Если , где — характеристическая функция , и — характеристическая функция , то по распределению при . Использование этого факта при доказательстве сходимости по
распределению иногда называют ме́тодомхарактеристи́ческихфу́нкций. Метод характеристических функций является стандартным способом
доказательства классической Центральной
предельной теоремы.
#23.2. Мінімально невизначений випадковий процес.
#24.1. Умовні
імовірності. Формула Байєса та її застосування.
Умо́вна
ймові́рність — ймовірність однієї події за
умови, що інша подія вже відбулася.
Нехай —
фіксований ймовірнісний
простір. Нехай дві випадкової події,
причому . Тоді
умовною ймовірністю події при
умові події називається
Властивості
·
Прямо з визначення очевидно випливає, що
·
Якщо , то умовна
ймовірність, строго кажучи, не визначена. Проте іноді умовляються вважати її в
цьому випадку рівною нулю .
·
Умовна ймовірність є ймовірністю, тобто
функція , задана формулою
задовольняє
усі аксіоми
імовірнісної міри.
Теорема
Байєса – одна з осн. теорем елементарної теорії ймовірності, яка визначає
ймовірність настання події в умовах, коли на основі спостережень відома лише
деяка часткова інформація про події. За допомогою формули Байєса можно більш
точно обчислювати ймовірність, взявши до уваги як і раніше відому інформацію
так і дані нових спостережень.
Формула Баєса:
де
—
апріорна ймовірність гіпотези A;
—
ймовірність гіпотези A при настанні події B (апостеріорна
ймовірність);
—
ймовірність настання події B при істинності гіпотези A;
—
ймовірність настання події B.
Доведення
Формула Байеса вытекает из определения условной вероятности. Вероятность совместного события двояко
выражается через условные вероятности
Следовательно
В задачах и статистических приложениях обычно
вычисляется по формуле полной вероятности события,
зависящего от нескольких несовместных гипотез, имеющих суммарную
вероятность 1.
,
где вероятности под знаком суммы известны или допускают
экспериментальную оценку.
В этом случае формула Байеса записывается так:
«Физический смысл» и терминология
Формула Байеса позволяет «переставить причину и следствие»: по
известному факту события вычислить вероятность того, что оно было вызвано данной
причиной.
События, отражающие действие «причин», в данном случае называют гипотезами,
так как они — предполагаемые события,
повлекшие данное. Безусловную вероятность справедливости гипотезы называют априорной (насколько
вероятна причина вообще), а условную — с учетом факта
произошедшего события — апостериорной (насколько
вероятна причина оказалась с учетом данных о событии).
Важливим
наслідком формули Баєса є формула повної ймовірності події,
що залежить від декількох несуміснних гіпотез (і
тільки від них).
— ймовірність
настання події B, що залежить від гіпотез , якщо відомі їх ступені достовірності.
Oсновные сферы применения формулы Байеса
1)Математический инструмент в теории вероятностей.
2)В статистике – как обобщение предшествующего опыта. Предполагается, что
нами накоплен опыт, позволяющий экспериментально(!) оценить априорное
распределение вероятностей. Далее мы верим в то, что рассматриваемый нами новый
объект относится к той же группе. Это позволяет строить классификаторы,
основанные на байесовской формуле.
3)В статистике - для сравнения разных моделей в случае, когда априорные
распределения настолько нечетки, что вообще несущественны. Очень часто
используется BIC (байесовский информационный критерий)
#24.2. Визначення лінійної системи.
Імпульсний відгук та його властивості.
#25.2. Спектральна густина
періодичного випадкового процесу
Під час дослідження автоматичних систем керування користуються ще однією
характеристикою стаціонарного випадкового процесу – спектральною щільністю
Sx(w), яка у багатьох випадках є більш зручною, ніж кореляційна функція.
Термін “спектральна щільність” походить з теорії електричних коливань. Фізичний
зміст спектральної щільності полягає в тому, що вона характеризує розподіл
потужності сигналу за частотним спектром (кожна елементарна потужність, яка
відповідає нескінченно малій ділянці спектра від w до w + dw, пропорційна значенню функції Sx(w) для даної частоти w). Спектральну щільність можна визначити експериментально через середню
величину квадрата амплітуди гармонік реалізації випадкового процесу. Прибори,
що застосовують для цього, називаються спектрометрами.
Аналітично спектральна щільність Sx(w) випадкового процесу X(t) визначається як перетворення Фур’є кореляційної
функції Rx(t):
(12.38)
За допомогою формули Ейлера вираз (12.38) можна подати у вигляді:
(12.39)
Оскільки - непарна функція t, то другий інтеграл у виразі (12.39) дорівнює
нулю. Тоді з урахуванням, що - парна функція t, отримаємо:
(12.40)
Оскільки , то з (12.40)
випливає:
Sx(w) = Sx(-w). (12.41)
Таким чином, спектральна щільність Sx(w) є дійсною і парною функцією частоти w, тому графік цієї функції завжди симетричний
відносно осі ординат.
Якщо спектральна щільність відома, то за формулою оберненого перетворення
Фур’є можна знайти відповідну кореляційну функцію:
(12.42)
З урахуванням (12.25) і (12.42) можна встановити важливий зв’язок між
дисперсією Dx і спектральною щільністю Sx(w) випадкового процесу:
(12.43)
Взаємну спектральну щільність Sxg(jw) двох стаціонарних випадкових процесів X(t) і G(t) визначають як перетворення Фур’є від взаємної
кореляційної функції Rxg(t):
(12.44)
Взаємна спектральна щільність Sxg(jw) є мірою статистичного зв’язку між двома
стаціонарними випадковими процесами X(t) і G(t). Якщо ці процеси некорельовані й мають рівні
нулю середні значення, то взаємна спектральна щільність дорівнює нулю, тобто Sxg(jw)=0.
На відміну від спектральної щільності Sx(w) взаємна спектральна щільність не є парною функцією w і являє собою не дійсну, а комплексну функцію.
Розглянемо без доказу деякі властивості спектральної щільності Sx(w).
1. Спектральна щільність білого шуму є постійною на всьому діапазоні частот
(рис. 12.1, г):
Sx(w) = N = const. (12.45)
Це означає, що енергія білого шуму розподілена за всім спектром рівномірно,
а сумарна енергія процесу дорівнює нескінченності, що фізично неможливо. Тобто
білий шум є математичною ідеалізацією реального процесу. Походження терміну
“білий шум” пояснюється аналогією такого процесу з білим світлом, що має
однакові інтенсивності всіх компонент.
2. Спектральна щільність постійного сигналу x(t) = A0 являє
собою d-функцію, що розташована на початку координат (рис. 12.1, а):
Sx(w) = 2pA02d(w). (12.46)
Фізично це означає, що вся потужність постійного сигналу зосереджена на
нульовій частоті.
3. Спектральна щільність періодичного сигналу x(t)=Asin(w1t+j) являє собою дві d-функції, що розташовані симетрично відносно початку координат при w = w1
і w = -w1
(рис. 12.1, д):
. (12.47)
Це означає, що вся потужність періодичного сигналу зосереджена на двох
частотах: w1 і -w1
(для зони додатних частот уся потужність періодичного сигналу зосереджена на
одні частоті w1).
4. Спектральна щільність часової функції, що розкладається у ряд Фур’є має вигляд:
. (12.48)
Цій спектральній щільності відповідає лінійчатий спектр (рис. 12.2) із d-функціями, що розташовані на додатних і від’ємних
частотах гармонік (d-функції умовно зображені так, що їх висоти показані пропорційними
коефіцієнтам при одиничній d-функції, тобто величинам .
5. Спектральна щільність випадкового процесу, що
не містить періодичну складову, являє собою графік без чітко виражених піків
(рис. 12.1, б, в). У цьому випадку спектральна щільність апроксимується
аналітичним виразом:
Sx(w)=2Dxa/(a2+w2)=
=2DxTx/(1+w2 Tx2), (12.49)
де Dx – дисперсія; a = const
– параметр затухання; Тх = 1/a - сталий коефіцієнт.
Із рис. 12.1, б, в видно, що чим ширше
графік спектральної щільності Sx(w), тим вуже графік відповідної кореляційної функції Rx(t), і навпаки.
6. Спектральна щільність випадкового процесу, на
який накладені періодичні складові, містить безперервну частину й окремі d-функції, що відповідають частотам цих періодичних
складових.
Окремі піки на графіку спектральної щільності вказують на те, що випадковий
процес змішаний із захованими періодичними складовими. На рис. 12.3 наведено
графік спектральної щільності випадкового процесу, на який накладено один
періодичний сигнал з частотою wk.
Іноді розглядають нормовану спектральну щільність bх(w), яка має розмірність часу:
bх(w) = Sx(w)/Dx.
Під час дослідження автоматичних систем керування користуються ще однією
характеристикою стаціонарного випадкового процесу – спектральною щільністю
Sx(w), яка у багатьох випадках є більш зручною, ніж кореляційна функція.
Термін “спектральна щільність” походить з теорії електричних коливань. Фізичний
зміст спектральної щільності полягає в тому, що вона характеризує розподіл
потужності сигналу за частотним спектром (кожна елементарна потужність, яка
відповідає нескінченно малій ділянці спектра від w до w + dw, пропорційна значенню функції Sx(w) для даної частоти w). Спектральну щільність можна визначити експериментально через середню
величину квадрата амплітуди гармонік реалізації випадкового процесу. Прибори,
що застосовують для цього, називаються спектрометрами.
Аналітично спектральна щільність Sx(w) випадкового процесу X(t) визначається як перетворення Фур’є кореляційної
функції Rx(t):
(12.38)
За допомогою формули Ейлера вираз (12.38) можна подати у вигляді:
(12.39)
Оскільки - непарна функція t, то другий інтеграл у виразі (12.39) дорівнює
нулю. Тоді з урахуванням, що - парна функція t, отримаємо:
(12.40)
Оскільки , то з (12.40)
випливає:
Sx(w) = Sx(-w). (12.41)
Таким чином, спектральна щільність Sx(w) є дійсною і парною функцією частоти w, тому графік цієї функції завжди симетричний
відносно осі ординат.
Якщо спектральна щільність відома, то за формулою оберненого перетворення
Фур’є можна знайти відповідну кореляційну функцію:
(12.42)
З урахуванням (12.25) і (12.42) можна встановити важливий зв’язок між
дисперсією Dx і спектральною щільністю Sx(w) випадкового процесу:
(12.43)
Взаємну спектральну щільність Sxg(jw) двох стаціонарних випадкових процесів X(t) і G(t) визначають як перетворення Фур’є від взаємної
кореляційної функції Rxg(t):
(12.44)
Взаємна спектральна щільність Sxg(jw) є мірою статистичного зв’язку між двома
стаціонарними випадковими процесами X(t) і G(t). Якщо ці процеси некорельовані й мають рівні
нулю середні значення, то взаємна спектральна щільність дорівнює нулю, тобто Sxg(jw)=0.
На відміну від спектральної щільності Sx(w) взаємна спектральна щільність не є парною функцією w і являє собою не дійсну, а комплексну функцію.
Розглянемо без доказу деякі властивості спектральної щільності Sx(w).
1. Спектральна щільність білого шуму є постійною на всьому діапазоні частот
(рис. 12.1, г):
Sx(w) = N = const. (12.45)
Це означає, що енергія білого шуму розподілена за всім спектром рівномірно,
а сумарна енергія процесу дорівнює нескінченності, що фізично неможливо. Тобто
білий шум є математичною ідеалізацією реального процесу. Походження терміну
“білий шум” пояснюється аналогією такого процесу з білим світлом, що має
однакові інтенсивності всіх компонент.
2. Спектральна щільність постійного сигналу x(t) = A0 являє
собою d-функцію, що розташована на початку координат (рис. 12.1, а):
Sx(w) = 2pA02d(w). (12.46)
Фізично це означає, що вся потужність постійного сигналу зосереджена на
нульовій частоті.
3. Спектральна щільність періодичного сигналу x(t)=Asin(w1t+j) являє собою дві d-функції, що розташовані симетрично відносно початку координат при w = w1
і w = -w1
(рис. 12.1, д):
. (12.47)
Це означає, що вся потужність періодичного сигналу зосереджена на двох
частотах: w1 і -w1
(для зони додатних частот уся потужність періодичного сигналу зосереджена на
одні частоті w1).
4. Спектральна щільність часової функції, що розкладається у ряд Фур’є має вигляд:
. (12.48)
Цій спектральній щільності відповідає лінійчатий спектр (рис. 12.2) із d-функціями, що розташовані на додатних і від’ємних
частотах гармонік (d-функції умовно зображені так, що їх висоти показані пропорційними
коефіцієнтам при одиничній d-функції, тобто величинам .
5. Спектральна щільність випадкового процесу, що
не містить періодичну складову, являє собою графік без чітко виражених піків
(рис. 12.1, б, в). У цьому випадку спектральна щільність апроксимується
аналітичним виразом:
Sx(w)=2Dxa/(a2+w2)=
=2DxTx/(1+w2 Tx2), (12.49)
де Dx – дисперсія; a = const
– параметр затухання; Тх = 1/a - сталий коефіцієнт.
Із рис. 12.1, б, в видно, що чим ширше
графік спектральної щільності Sx(w), тим вуже графік відповідної кореляційної функції Rx(t), і навпаки.
6. Спектральна щільність випадкового процесу, на
який накладені періодичні складові, містить безперервну частину й окремі d-функції, що відповідають частотам цих періодичних
складових.
Окремі піки на графіку спектральної щільності вказують на те, що випадковий
процес змішаний із захованими періодичними складовими. На рис. 12.3 наведено
графік спектральної щільності випадкового процесу, на який накладено один
періодичний сигнал з частотою wk.
Іноді розглядають нормовану спектральну щільність bх(w), яка має розмірність часу:
bх(w) = Sx(w)/Dx.