ПРИКОРМКА

КУРАМ-БРОЙЛЕРАМ НАСМІХ!

ПРОБЛЕМИ СТАТИСТИЧНОЇ РАДІОФІЗИКИ

ЗНЕСЕНО АБИ ЯК
ЗМІСТ

25.1 НЕМАЄ

11.1 НЕМАЄ

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    01.

1.         Перетворення Гільберта. Дисперсійні співвідношення для аналітичного сигналу.

2.         Радіус та час когерентності електромагнітного поля.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    02.

1.         Випадкові змінні, їх статистичні характеристики.

2.         Передаточна функція лінійної системи, її властивості.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    03.

1.         Характеристичні функції випадкових змінних та їх властивості.

2.         Представлення аналітичного сигналу для випадкових процесів.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    04.

1.         Теорема Вінера-Хінчіна.

2.         Реакція лінійної системи на випадкові впливи. Кореляційна функція випадкового процесу на виході лінійної системи.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    05.

1.         Регресійний аналіз даних, його застосування.

2.         Аналітичний сигнал та його властивості.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    06.

1.         Нормальний випадковий  процес.

2.         Метод кумулянтів для визначення розподілу імовірності випадкового процесу на виході лінійної системи. Ряд Грама-Шарльє.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    07.

1.         Функції розподілу ймовірностей.

2.         Спектр інтенсивності випадкового сигналу на виході лінійної системи з постійними параметрами.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    08.

1.         Енергетичний  спектр стаціонарного випадкового процесу.

2.         Уширення спектральної лінії внаслідок зіткнення молекул.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    09.

1.         Білий шум та чорне випромінювання, їх спектри та кореляційні функції.

2.         Нелінійні перетворення нормальних флуктуацій. Теорема Прайса

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    10.

1.         Кореляційна функція та спектр телеграфного сигналу.

2.         Перетворення нормального випадкового процесу квадратичним детектором, спектр вихідного сигналу.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    11.

1.         Кореляційні  функції випадкового процесу.

2.         Нелінійні перетворення випадкового процесу, прямий метод обчислення.

 

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    12.

1.         Моменти випадкових змінних.

2.         Кореляційна функція та спектр телеграфного сигналу.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    13.

1.         Стаціонарні та нестаціонарні випадкові процеси.

2.         Лінійний регресійний аналіз.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    14.

1.         Імпульсний пуасонівський випадковий процес.

2.         Метод моментів для визначення розподілу імовірності випадкового процесу на виході лінійної системи, його недоліки.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    15.

1.         Коефіцієнт кореляції, його означення та властивості.

2.         Співвідношення невизначеностей для випадкових процесів.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    16.

1.         Випадкові процеси. Поняття ансамблю та вибіркових реалізацій випадкового процесу.

2.         Спектральна густина стаціонарного випадкового процесу на виході лінійної системи з постійними параметрами.

 

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    17.

1.         Ергодичні випадкові процеси, їх властивості.

2.         Дискретні представлення лінійних систем.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    18.

1. Властивості кореляційних функцій випадкового процесу.

2. Нормалізація випадкових процесів інерційними системами.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    19  .

1. Розподіл Пуасона та його властивості.

2. Перетворення нормального випадкового сигналу лінійною системою.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    20.

1. Теорема про огинаючу.

2. Нелінійні перетворення випадкових змінних..

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    21.

1.         Перетворення випадкового процесу ідеальним обмежувачем.

2.         Аналітичний сигнал, його означення та властивості.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    22.

1.         Перетворення нормального випадкового процесу квадратичним детектором.

2.         Уширення спектральної лінії внаслідок зіткнення молекул.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    23.

1.         Нелінійні перетворення випадкового процесу. Метод характеристичних функцій.

2.         Мінімально невизначений випадковий процес.

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    24.

1.         Умовні імовірності. Формула Байєса та її застосування.

2.         Визначення лінійної системи. Імпульсний відгук та його властивості.

 

 

ЕКЗАМЕНАЦІЙНИЙ БІЛЕТ №    25.

1.         Нерівності для кореляційних функцій другого порядку.

2.         Спектральна густина періодичного випадкового процесу.


#1.1. Перетворення Гільберта. Дисперсійні співвідношення для аналітичного сигналу.

Перетворення Гільберта - лінійнеінтегральнеперетворення, яке ставить у відповідністьфункціїіншуфункцію в тійсамійобласті. Назване на честь Давида Гільберта, якийсформулювавйого в свої роботах над задачею Рімана-Гільберта для голоморфних функцій. Використовується в галузіперетвореньФур'є та аналізуФур'є. В обробцісигналівперетворенняГільбертаперетворюєдійсний сигнал на аналітичний

В математики і обробці сигналів перетворення Гільберта - лінійний оператор, сопоставляющий кожної функції u (t)функцію H (u) (t) в тій же області.

Перетворення Гільберта може бути визначено в сенсі головного значення інтеграла по Коші:

H (u) (t) = \ frac {1} {\ pi} \ text {vp} \ int \ limits_ {- \ infty} ^ {\ infty} \ frac {u (\ tau)} {t-\ tau } \, d \ tau

Або, більш явно:

H (u) (t) = - \ frac {1} {\ pi} \ lim_ {\ epsilon \ to 0} \ int \ limits_ {\ epsilon} ^ \ infty \ frac {u (t + \ tau)-u ( t-\ tau)} {\ tau} \, d \ tau.

При дворазовому застосуванні перетворення Гільберта функція змінює знак:

H (H (u)) (t) =-u (t), \,

за умови, що обидва перетворення існують.

Зв'язок з перетворенням Фур'є

Перетворення Фур'є перетворення Гільберта дорівнює:

\mathcal{F}(\mathcal{H}(u))(\omega) = (-i\,\operatorname{sgn}(\omega))\cdot \mathcal{F}(u)(\omega)\,

де  \mathcal{F}  означає перетворення Фур'є, а sgn це Signum-функція.

Згідно з формулою Ейлера,

 -i\,\operatorname{sgn}(\omega)\ \, \ =\  \begin{cases}\ \ i = e^{+i\pi/2}, & \mbox{for } \omega < 0\\\ \ \ \ 0, & \mbox{for } \omega = 0\\\ \ -i = e^{-i\pi/2}. & \mbox{for } \omega > 0.\end{cases}

Отже H(u)(t) здійснює зсув фази компонент негативної частоти u(t) на +90° (π/2 радіан) та фази компонент позитивної частоти на −90°. При цьомуi·H(u)(t) відновлює компоненти позитивної частоти та зсуває негативні на додаткові +90°, роблячи їх негативними.

Якщо перетворення Гільберта здійснюється двічі H(H(u)) = −u фаза компонентів негативної та позитивної частоти зсувається на +180° та −180°, відповідно. Сигнал стає негативним оскільки:

e^{\pm i\pi} = -1.

Зворотне пертворення

H ^ {-1} =-H \,

 

 

Дисперсійні співвідношення для аналітичного сигналу

 

Дисперсійні співвідношення - інтегральні рівняння, що зв'язують дійсну і уявну частини перетворення Фур'є функції відгукулінійної фізичної системи на зовнішні впливи. Є прямими наслідками фізичного принципу причинності і не залежать від конкретного механізму взаємодії системи із зовнішнім впливом.

Визначення

Нехай f (z) є комплексною функцією, аналітичність у верхній півплощині, та f (z) \ rightarrow 0 при | Z | \ rightarrow \ infty. Припустимо, що має фізичний сенс функція F (x) є f (z) на речовій осі або, у разі наявності точки розгалуження, межа f (z) при z , Що прагне до речовій осі зверху.

F (x) = \ lim_ {\ epsilon \ to 0} f (x + i \ epsilon).

Дисперсійні співвідношення записуються у вигляді інтегральних рівнянь:

F (x) = \ frac {1} {\ pi i} P \ int_ {- \ infty} ^ {\ infty} \ frac {F (x ')} {x'-x} dx',

\ Operatorname {Re} F (x) = \ frac {1} {\ pi} \ mathcal {P} \ int_ {- \ infty} ^ {\ infty} \ frac {\ operatorname {Im} F (x ')} {x'-x} dx ',

\ Operatorname {Im} F (x) = \ frac {1} {\ pi} \ mathcal {P} \ int_ {- \ infty} ^ {\ infty} \ frac {\ operatorname {Re} F (x ')} {x'-x} dx ';

тут \ Mathcal {P} - Символ інтеграла в сенсі головного значення. Дисперсійні співвідношення виводяться із застосуванням інтегральної формули Коші і, таким чином, не залежать від конкретної розглянутої моделі фізичного явища.

Фізичний зміст

"Відгук" \ Varphi (t)лінійної системи на "обурення" g (t) можна записати у вигляді: \ Varphi (t) = \ int K (t-t ') g (t') dt ', де K (t) функція Грінасистеми. Розглянуті функції f (z) являють собою перетворення Фур'є таких функцій Гріна: f (z) = \ int \ exp (itz) K (t) dt. Вимога причинності, що складається в неможливості виникнення відгуку раніше причини, означає, що K (t) = 0 при t <0 . Наслідком принципу причинності є те, що функція f (z) аналітична у верхній півплощині та f (z) \ rightarrow 0 при | Z | \ rightarrow \ infty.

Застосовуються

В квантової теорії поля, при розрахунку амплітуд розсіювання. Дисперсійні співвідношення пов'язують безпосередньо одержувані з досвіду величини, такі як амплітуди ймовірностей або перетину різних переходів.

Вперше були отримані Крамерса і Кроніга в класичній теорії дисперсії, при вивченні залежності показника заломленнясередовища від частоти світла, для дійсної та уявної частини показника заломлення середовища


#1.2. Радіус та час когерентності електромагнітного поля.

объектзондируетсяисточником c амплитудой

излучаемогоим поля , гдеЕs-амплитуда на егоапертуре, ω0 –

центральная частота источника, u(t) – егофункциямодуляции с

временнойфункциейкорреляции

времянаблюдениярассеянного поля, причемВu(τ=0)=1 и Т>10τс, где

- времякогерентностизондирующегообъектыизлучения,

определяющеедлину(радиус)егокогерентностигде с- скоростьсвета

(все щознайшовщозвязанеіз статистичною РФ)


#2.1. Випадкові змінні, їх статистичні характеристики



#2.2. Передаточна функція лінійної системи, її властивості.

2.2  Передаточна функція лінійної системи, її властивості.

H:\DCIM\IMG_20140114_210719.jpg


#3.1. Характеристичні функції випадкових змінних та їх властивості.



#3.2.Представлення аналітичного сигналу для випадкових процесів

D:\екз\1.jpg.

D:\екз\2.jpg

D:\екз\3.jpg

D:\екз\4.jpg

D:\екз\5.jpg

D:\екз\6.jpg


#4.1. Теорема Вінера-Хінчіна

G:\statu\Новая папка\140120141299 - копия.jpg

G:\statu\Новая папка\140120141300.jpg

G:\statu\Новая папка\140120141301.jpg

G:\statu\Новая папка\140120141302.jpg

G:\statu\Новая папка\140120141303.jpg

 


#4.2.Реакція лінійної системи на випадкові впливи. Кореляційна функція випадкового процесу на виході лінійної системи.

Реакція лінійної системи на випадкові впливи:

C:\Users\Даша\Desktop\стат радиофиз єкзамен\скан\img060.jpg

C:\Users\Даша\Desktop\стат радиофиз єкзамен\скан\img061.jpg

C:\Users\Даша\Desktop\стат радиофиз єкзамен\скан\img062.jpg

C:\Users\Даша\Desktop\стат радиофиз єкзамен\скан\img063.jpg

C:\Users\Даша\Desktop\стат радиофиз єкзамен\скан\img064.jpg

C:\Users\Даша\Desktop\стат радиофиз єкзамен\скан\img065.jpg

 

 

 

 

 

 

 

 

 

 

 

 

C:\Users\Даша\Desktop\стат радиофиз єкзамен\скан\img066.jpg

Кореляційна функція випадкового процесу на виході лінійної системи:

C:\Users\Даша\Desktop\стат радиофиз єкзамен\скан\img066.jpg

C:\Users\Даша\Desktop\стат радиофиз єкзамен\скан\img067.jpg

C:\Users\Даша\Desktop\стат радиофиз єкзамен\скан\img068.jpg

 


#5.1. Регресійний аналіз даних. Його застосування.

Регресі́йний ана́ліз — розділ математичної статистики, присвячений методам аналізу залежності однієї величини від іншої. На відміну від кореляційного аналізу не з'ясовує чи істотний зв'язок, а займається пошуком моделі цього зв'язку, вираженої у функції регресії.

Регресійний аналіз використовується в тому випадку, якщо відношення між змінними можуть бути виражені кількісно у виді деякої комбінації цих змінних. Отримана комбінація використовується для передбачення значення, що може приймати цільова (залежна) змінна, яка обчислюється на заданому наборі значень вхідних (незалежних) змінних. У найпростішому випадку для цього використовуються стандартні статистичні методи, такі як лінійна регресія. На жаль, більшість реальних моделей не вкладаються в рамки лінійної регресії. Наприклад, розміри продажів чи фондові ціни дуже складні для передбачення, оскільки можуть залежати від комплексу взаємозв'язків множин змінних. Таким чином, необхідні комплексні методи для передбачення майбутніх значень.

Мета регресійного аналізу

1.                  Визначення ступеня детермінованості варіації критеріальної (залежної) змінної предикторами (незалежними змінними).

2.                  Пророкування значення залежної змінної за допомогою незалежної.

3.                  Визначення внеску окремих незалежних змінних у варіацію залежної.

Регресійний аналіз не можна використовувати для визначення наявності зв'язку між змінними, оскільки наявність такого зв'язку і є передумова для застосування аналізу.

Алгоритм регресійного аналізу

Нехай у точках xn незалежної змінної x отримані виміри Yn. Потрібно знайти залежність середнього значення величини \bar Yвід величини х, тобто \bar Y (x)=f(x|a), де a — вектор невідомих параметрів a_i. Функцію f(x|a) називають функцією регресії. Звичайно припускають, що f(x|a) є лінійною функцією параметрів а, тобто має вигляд:

f(x|a)=\sum_{i=1}^I a_i \varphi_i(x) (1), де f_i(x) — задані функції.

У цьому випадку матрицю A_{ni}=f_i(x_n) називається регресійною матрицею.

Для визначення параметрів a_i звичайно використовують метод найменших квадратів, тобто оцінки a_i визначають із умови мінімуму функціонала:

\Phi= \sum_{n=1}^N \frac{(Y_n- \sum_{i}^{ } A_{ni}a_i)^2}{\sigma_n^2}

і з мінімуму функціонала:\Phi=\sum_{n,m} (Y_n- \sum_{i} A_{ni}a_i)(R^{-1})_{nm} (Y_m-\sum_{i} A_{mi}a_i) 

для корельованих вимірів з кореляційною матрицею R.

У якості функцій f_i(x) при невеликих I(I \ge 5) звичайно служать степеневі функції f_i(x)= x^i. Часто використовують ортогональні й нормовані поліноми на множині x_n:

\varphi_i(x)= \sum_{k=1}^i c_k^ix^k, \sum_{n} \varphi_i(x_n)\sigma_n^{-2}\varphi_j(x_n)=\delta_{ij}.

У цьому випадку легко знайти оцінку \tilde{a}_i:

\tilde{a}_i=\sum_{n} \varphi_i(x_n)Y_n.Звідси випливає, що обчислення \tilde{a}_i не залежить від обчислення інших \tilde{a}_j. Популярне використання в якості f_i(x) сплайнів B_i(x), які мають дві основні властивості:

1.                   B_i(x) — поліном заданого степеня;

2.                   B_i(x) відмінний від нуля в околі точки x_i.

При пошуку функції регресії у вигляді (1) природно виникає питання про кількість членів I у сумі (1). При малому значенні I не можна досягти гарного опису \bar Y(x), а при великому — великі статистичні помилки функції регресії.


#5.2. Аналітичний сигнал та його властивості.

Untitled.jpg

Untitled1.jpg

 

 

 

Untitled2.jpg

 

 

 

 

 

 

 

 

 

 


#6.1.    Гауссовский случайный процесс

 

Нормальный (гауссовский) закон распределения случай­ных величин чаще других встречается в природе. Нормаль­ный процесс особенно характерен для помех в каналах связи. Он очень удобен для анализа. Поэтому случайные процессы, распределение которых не слишком отличается от нормального, часто заменяют гауссовским процессом. Одномерная плот­ность вероятности нормального процесса определяется выра­жением:

В данном случае будет рассматриваться стационарный и эргодический гауссовский процесс. Поэтому под тх и σ х можно подразумевать соответственно постоянную составляющую и среднюю мощность флуктуационной составляющей одной (до­статочно длительной) реализации случайного процесса.

Графики плотности вероятности при нормальном законе для некоторых значений

σ х изображены на рис. 2.24. Функ­ция р(х) симметрична относительно среднего значения. Чем больше σ х, меньше максимум, а кривая становится более по­логой [площадь под кривой р(х) равна единице при любых значениях σ х]

Широкое распространение нормального закона распреде­ления в природе объясняется тем, что при суммировании до­статочно большого числа независимых или слабо зависи­мых случайных величин распределение суммы близко к нор­мальному при любом распределении отдельных слагаемых.

Это положение, сформулированное в 1901 г. А. М. Ляпуно­вым, получило название центральной предельной теоремы. Наглядными физическими примерами случайного процес­са с нормальным законом распределения являются шумы, обусловленные тепловым движением свободных электронов в проводниках электрической цепи или дробовым эффектом в электронных приборах. Не только шумы и помехи, но и по­лезные сигналы, являющиеся суммой большого числа незави­симых случайных элементарных сигналов, например, гармо­нических колебаний со случайной фазой или амплитудой, ча­сто можно трактовать как гауссовские случайные процессы.

На основе функции р(х) можно найти относительное вре­мя пребывания сигнала x(t) в определенном интервале уров­ней, отношение максимальных значений к среднеквадратическому (пик фактора) и ряд других важных для практики параметров случайного сигнала.

Отношение времени пребывания x(t) в заданном интер­вале к общему времени наблюдения можно трактовать как вероятность попадания x(t) в указанный интервал. При этом следует заметить, что данные о распределении вероятностей не дают никаких представлений о поведении функции x(t) во времени


#6.2 Метод кумулянтів для визначення розподілу імовірності випадкового процесу на виході лінійної системи. Ряд Грама-Шарльє.

1.2 Кумулянты

1. Характеристическую функцию можно записать в виде http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image1.gif, где, очевидно, должно быть http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image2.gif. Разложим функцию http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image3.gif в степенной ряд

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image4.gif (1.2.1)

Коэффициенты этого ряда

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image5.gif (1.2.2)

так же, как и моменты, являются характеристиками вероятностного распределения и носят название кумулянтов или семиинвариантов. Таким образом,

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image6.gif (1.2.3)

Кумулянты однозначно определяют случайную величину, если ряд (1.2.1) сходится для всех и. Поэтому набор кумулянтов http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image7.gifтакже может служить тождественным представлением вероятностного распределения.

Если известны моменты, то кумулянты могут быть найдены из следующих соотношений (см., например, [13, [14]):

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image8.gif (1.2.4)

В свою очередь, моменты могут быть выражены через кумулянты:

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image9.gif

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image10.gif (1.2.5)

Взаимосвязь кумулянтов с центральными моментами легко получается из (1.2.4), (1.2.5) при http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image11.gif. При этом http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image12.gif.

2. Кумулянты распределения во многих отношениях (и далее это будет видно полнее) являются гораздо более удобными параметрами распределения, чем моменты (в том числе и центральные). Помимо прочих причин это связано и с тем, что во многих практически важных случаях высшими кумулянтами распределений в отличие от моментов можно пренебрегать. С другой стороны, существует возможность рассмотреть такие распределения (см. гл. 5), кумулянты которых, начиная с некоторого порядка, все обращаются в нуль, в то время как моменты не равны нулю. Например, для гауссова распределения

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image13.gif (1.2.6)

отличны от нуля только первые два кумулянта http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image14.gif и вместе с тем ни один из моментов не равен нулю.

Первые два кумулянта имеют четкий смысл — это среднее значение и дисперсия распределения. Последующим двум кумулянтам также можно дать определенную интерпретацию. Так, третий кумулянт http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image15.gif можно назвать асимметрией распределения, а четвертый http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image16.gif — эксцессом. Асимметрия отлична от нуля только для плотности вероятности, асимметричной относительно точки http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image17.gif. Эксцесс распределения часто описывает отклонение распределения от гауссова в сторону более острой http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image18.gif или более тупой http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image19.gif вершины, хотя это и не всегда так [14]. Удобно ввести безразмерные кумулянты — кумулянтные коэффициенты

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image20.gif (1.2.7)

Коэффициенты http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image21.gif и http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image22.gif называют коэффициентами асимметрии и эксцесса соответственно (см., например, [13]).

3. Важно отметить, что кумулянтные коэффициенты http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image23.gif описывают степень отклонения вероятностного распределения от гауссова. Это даст возможность количественно оценить это отклонение и записать произвольное распределение в виде ряда по гауссову распределению и его производным.

Пусть имеется произвольное распределение http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image24.gif, обладающее в общем случае всеми кумулянтами. Его характеристическую функцию (1.2.3) можно записать в следующем виде:

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image25.gif (1.2.8)

где

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image26.gif

Сравнивая это тождество с (1.1.7) и с (1.2.3), легко понять, что коэффициенты http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image27.gif представляют собой не что иное, как моменты распределения http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image28.gif, вычисленные при условии http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image29.gif. Таким образом, находим

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image30.gif (1.2.9)

Эти коэффициенты называются квазимоментами распределения [5, 26, 27]. Они отличны от нуля только для негауссовых случайных величин.

Совершая преобразование Фурье (1.2.8), получаем

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image31.gif (1.2.10)

Полученный ряд называется рядом Эджворта [13]. Он дает разложение произвольной плотности вероятности по производным гауссова распределения. В том случае, когда высшие кумулянты достаточно малы, можно ограничиться, например, четырьмя членами суммы

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image32.gif

Из этой формулы непосредственно видна особая ценность кумулянтов http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image33.gif при оценке отклонения плотности вероятности от гауссовой.

4. Характеристическую функцию можно представить также и в виде

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image34.gif (1.2.11)

Сравнивая между собой три вида разложения характеристической функции (1.1.7), (1.2.11) и (1.2.8), интересно обратить внимание на то, что http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image35.gif образуют некоторый закономерный ряд. Так, http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image36.gif есть http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image37.gif при условии http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image38.gif есть http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image39.gif при условии http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_4.files/image40.gif. С этой точки зрения центральный момент также носит смысл квазимомента.

 

ГРАМА - ШАРЛЬЕ РЯД

- ряд, определяемый выражением

http://mathemlib.ru/mathenc/item/f00/s01/e0001252/pic/1086_03.jpg

(1)

или

http://mathemlib.ru/mathenc/item/f00/s01/e0001252/pic/1086_04.jpg

(2)

где х - нормированное значение случайной величины.

Ряд (1) наз. Г.-Ш. р. типа А; здесь

http://mathemlib.ru/mathenc/item/f00/s01/e0001252/pic/1086_05.jpg

f(k)(x) есть k-я производная от f(x), к-рую можно представить в виде

f(k)(x) = (-1)kHk(х)f(х),

где Hk(x) - многочлены Чебышева-Эрмита. Производные f(k)(x) и многочлены Нk(х) обладают свойствами ортогональности, благодаря чему коэффициенты аk можно определить при помощи основных моментов rk данного ряда распределения. Ограничиваясь первыми членами ряда (1), получают

http://mathemlib.ru/mathenc/item/f00/s01/e0001252/pic/1086_07.jpg

Ряд (2) наз. Г.- Ш. р. типа В; здесь

ψ(x) = λx/x! е, х = 0, 1, 2, ...,

а gm(x) - многочлены, аналогичные многочленам Нk

Ограничиваясь первыми членами ряда (2), получают

http://mathemlib.ru/mathenc/item/f00/s01/e0001252/pic/1086_09.jpg

где μi - центральные моменты распределения, а х[i] = х(х - 1) ... (x - i + 1).

Г.-Ш. р. были получены Дж. Грамом [1] и К. Шарлье [2] при исследовании функции вида

http://mathemlib.ru/mathenc/item/f00/s01/e0001252/pic/1086_10.jpg

принятой для интерполирования между значениями

http://mathemlib.ru/mathenc/item/f00/s01/e0001252/pic/1086_11.jpg

- общего члена биномиального распределения, где

http://mathemlib.ru/mathenc/item/f00/s01/e0001252/pic/1086_12.jpg

- характеристическая функция биномиального распределения. Разложение ln φ(t) по степеням t приводит к Г.- Ш. р. типа А для В0(х), а разложение ln φ(t) по степеням р приводит к Г.-Ш. р. типа В.

 


 

#7.1. Функції розподілу ймовірностей.

 

C:\Users\Reznik\Documents\экзамен\статы\7.11.pngC:\Users\Reznik\Documents\экзамен\статы\7.12.pngC:\Users\Reznik\Documents\экзамен\статы\7.13.pngC:\Users\Reznik\Documents\экзамен\статы\7.14.png


#7.2 Спектр інтенсивності випадкового сигналу на виході лінійної системи з постійними параметрами (v1).

Ні в книжках ні в конспектах нічого толкового не знайшов. Як варіант може прокатити таке, як на мене, але  бажано уточнити у викладача з приводу різниці між спектром інтенсивності й спектральною густиною.

Отже з теореми Віннера – Хінчина

Де (1) – спектр інтенсивності, (2) – спектр функції UT (t)=U(t),що існує є[-T/2; T/2]

 

Звідки видно, що Спектральна інтенсивність, за виконання умови що границя вище рівна одиниці, буде рівною спектральній густині й тоді вплив на неї лінійної системи з постійними коефіцієнтами можна розглядати з питання 16.1 Спектральна густина стаціонарного випадкового процесу на виході лінійної системи з постійними параметрами..


#7.2. Спектр інтенсивності випадкового сигналу на виході лінійної системи з постійними параметрами(v2).

Лінійна система з постійними параметрами не вносить нових гармонік в спектр сигналу, а лише змінює амплітуду. Варіант з книги, нижче - конспект

 

 

D:\!!!Навчання\4 Курс 1 семестр\Статистична радіофізика\exam\2\DSC_0263.jpg

 

 

D:\!!!Навчання\4 Курс 1 семестр\Статистична радіофізика\exam\2\DSC_0264.jpg

D:\!!!Навчання\4 Курс 1 семестр\Статистична радіофізика\exam\2\DSC_0265.jpg

 

 

 

 

 

 

 

 

 

 

 

D:\!!!Навчання\4 Курс 1 семестр\Статистична радіофізика\exam\2\DSC_0266.jpg

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D:\!!!Навчання\4 Курс 1 семестр\Статистична радіофізика\exam\2\DSC_0261.jpg

D:\!!!Навчання\4 Курс 1 семестр\Статистична радіофізика\exam\2\DSC_0262.jpg

 

 

 

 

 


#8.1. Енергетичний  спектр стаціонарного випадкового процесу


#8.2. Уширення спектральної лінії внаслідок зіткнення молекул.

 

Це уширення пов'язано з ефектом Доплера, тобто із залежністю спостережуваної частоти випромінювання від швидкості руху випромінювача. Якщо джерело, що створює в нерухомому стані монохроматичні випромінювання з частотоюhttp://gendocs.ru/gendocs/docs/2/1388/conv_7/file7_html_m652d4110.gif , Рухається зі швидкістю v в сторону до спостерігача так, що проекція швидкості на напрям спостереження складає http://gendocs.ru/gendocs/docs/2/1388/conv_7/file7_html_m7ec6b9f1.gif (Рис. 20.5), то спостерігач реєструє більш високу частоту випромінювання 

http://gendocs.ru/gendocs/docs/2/1388/conv_7/file7_html_74bba5df.gif (20.23) 

де
 з - фазова швидкість поширення хвилі; http://gendocs.ru/gendocs/docs/2/1388/conv_7/file7_html_m2a8006fb.gif - Кут між напрямками швидкості випромінювача і спостереження. 

У квантових системах джерелами випромінювання є атоми або молекули. У газоподібному середовищі при термодинамічній рівновазі швидкості частинок розподілені за законом Максвелла-Больцмана. Тому і форма спектральної лінії всього речовини буде пов'язана з цим розподілом. В спектрі, регистрируемом спостерігачем, повинен бути безперервний набір частот, так як різні атоми рухаються з різними швидкостями щодо спостерігача. Враховуючи лише проекції швидкостей http://gendocs.ru/gendocs/docs/2/1388/conv_7/file7_html_m7ec6b9f1.gif в розподілі Максвелла-Больцмана, можна отримати наступне вираз для форми допплерівської спектральної лінії: 

http://gendocs.ru/gendocs/docs/2/1388/conv_7/file7_html_78fab117.gif 
Ця залежність є гауссовской функцією. Відповідна значенню
 http://gendocs.ru/gendocs/docs/2/1388/conv_7/file7_html_441f7229.gif / 2 ширина лінії 

http://gendocs.ru/gendocs/docs/2/1388/conv_7/file7_html_m394ef26a.gif 
Зі збільшенням маси частинок
 М і пониженням температури Т ширина лінії http://gendocs.ru/gendocs/docs/2/1388/conv_7/file7_html_m6f6ee46b.gif зменшується. 

Видимий спектральна лінія речовини являє собою суперпозицію спектральних ліній всіх частинок речовини, тобто ліній з різними центральними частотами. Для легких частинок при звичайній температурі ширина доплеровской лінії в оптичному діапазоні може перевищувати природну ширину лінії на кілька порядків і досягати значення більше 1 Ггц.
 

У квантових приладах широко використовуються тверді речовини з домішковими іонами, квантові переходи яких є робочими. Коливання кристалічної решітки створюють змінне електричне поле, яке впливає на іони решітки і змінює їх енергію, а це призводить до розмиття енергетичних рівнів і уширению спектральної лінії. Крім того, ширина лінії збільшується внаслідок теплових коливань самих іонів. Причиною уширення спектральної лінії твердого тіла може бути також просторова неоднорідність фізичних параметрів середовища або неоднорідності електричного і магнітного полів. Причиною уширення спектральної лінії може бути також електромагнітне випромінювання, що викликає вимушені переходи між розглянутими рівнями і приводить до зміни часу життя частинки. Тому, наприклад, процес генерації випромінювання в квантових приладах буде приводити до зміни ширини лінії.
 


#9.1 Білий шум

Чорне випромінювання

Это вероятнее всего что не надо!!

Випромінювання абсолютно чорного тіла

Однією з головних задач фізики кінця XIX століття була проблема випромінювання абсолютно чорного тіла. Абсолютно чорне тіло — це фізична ідеалізація; тіло, що повністю поглинає падаюче випромінювання будь-яких довжин хвиль. Найбільш чорні реальні речовини, наприклад, сажа, поглинають до 99% падаючого випромінювання у видимому діапазоні довжин хвиль, однак інфрачервоне випромінювання поглинається ними значно гірше. Серед тіл Сонячної системи абсолютно чорному тілу найбільш відповідає Сонце.

За класичною термодинамікою спектральна інтенсивність I(ν) випромінювання має бути однаковою для будь-якого абсолютно чорного тіла, нагрітих до однакової температури. Таке передбачення підтверджується експериментом. Спектральна інтенсивність досягає максимума при деякій частоті νmax, а по обидва боки від максимума падає до нуля. Частота максимумаνmax, як і його висота, збільшується з температурою.

Спроби теоретично передбачити форму експериментальної кривої спектральної інтенсивності абсолютно чорного тіла на основі законів класичної фізики привели до формули Релея — Джинса[6][7]:

I(\nu) = \frac{2 \pi}{c^2} kT \nu^2.

Окрім області малих частот, закон формули Релея — Джинса не узгоджується з експериментом. Він передбачає, що повна інтенсивність випроміненої енергії безмежно зростає (ультрафіолетова катастрофа), але в дійсності повна інтенсивність скінченна.

В 1900 році Макс Планк постулював[4], що обмін енергією між атомами й випущеним ними електромагнітним випромінюванням відбувається дискретними порціями енергії, а найменша порція енергії при заданій частоті ν дорівнює:

E = h\nu,

де h — константа Планка. Тількі цілі кратні енергії  можуть передаватися при взаємодії атомів і випромінювання. Використовуючи цей постулат, Планк вивів формулу для спектральної інтенсивності теплового рівноважного електромагнітного випромінювання абсолютно чорного тіла:

I(\nu) = \frac{2 \pi \nu^2}{c^2} \frac{h\nu}{e^{\frac{h\nu}{kT}} - 1},

що прекрасно узгоджується з експериментом. Таким чином, Планк розв'язав проблему випромінювання абсолютно чорного тіла, використовуючи суперечну класичній фізиці ідею про квантування енергії.

 


#9.2 Теоре́ма  Прайса для норма́льных вы́борок в математической статистике — это утверждение, характеризующее распределение выборочной дисперсии.

ФормулировкаПравить

Пусть  - независимая выборка из нормального распределения. Пусть  -выборочное среднее, а  - несмещённая выборочная дисперсия. Тогда

ñСлучайные величины  и  независимы;

ñСлучайная величина

имеет распределение хи-квадрат с  степенями свободы.

 


#10.1Кореляційна функція та спектр телеграфного сигналу

 

D:\учоба\стат\Новая папка (3)\IMG_2190.JPG

 

 

 

D:\учоба\стат\Новая папка (3)\IMG_2191.JPG


#10.2. Перетворення нормального випадкового процесу квадратичним детектором, спектр вихідного сигналу.

 

#11.2  Нелінійні перетворення випадкового процесу, прямий метод обчислення.

H:\DCIM\IMG_20140114_210801.jpg


1.1         #11.2. Нелинейные преобразования(v2)

1. Когда речь заходит о нелинейных, преобразованиях случайных величин, ситуация существенно усложняется. Появляются особенности, которых не было раньше, и это сильно затрудняет отыскание статистических характеристик «выходных» переменных.

Основная особенность нелинейного преобразования — это то, что любой кумулянт или момент выхода в общем случае зависит от всех кумулянтов «входного» распределения. Возьмем, например, экспоненциальное преобразование http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image1.gif, рассмотренное в примере 3.2.2. Согласно (3.2.7) даже первый кумулянт, выходной переменной определяется значениями всех кумулянтов http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image2.gif.

С другой стороны, возрастают трудности вычисления выходных кумулянтов. Полученные в третьей главе кумулянтные уравнения позволяют сравнительно легко устанавливать связи входных кумулянтов лишь с моментами выходов. Так, если случайная переменная подвергается нелинейному преобразованию http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image3.gif, то для моментов http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image4.gifформулы http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image5.gifдают уравнения вида

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image6.gif(4.5.1)

Для кумулянтов же выхода аналогичных уравнений у нас нет. Если пытаться их получить, то в общем случае мы придем к довольно громоздким и неудобным выражениям. Поэтому в этом параграфе мы ограничимся выводом и использованием подобных уравнений только для кумулянтов первых четырех порядков.

Вместе с тем, в § 4.7 мы получим более общие уравнения, связывающие кумулянтные скобки с кумулянтами входных случайных переменных, и с их помощью найдем формулы размыкания ряда кумулянтных скобок.

2. Прежде чем искать связь кумулянтов выхода с кумулянтами входа, заметим, что в состав кумулянтов, например, в

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image7.gif

входит не только среднее значение, но и некоторая функция (в данном случае квадрат) от уже усредненной величины. Это значит, что мы должны искать производные по кумулянтам от среднего значения функций вида http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image8.gif, где http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image9.gifуже зависит в общем случае от всех http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image10.gif. По этой причине формулы (3.2.2) — (3.2.6) не могут быть непосредственно использованы и требуют специального обобщения, которое мы сейчас и проведем.

Производную

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image11.gif

можно записать в виде

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image12.gif(4.5.2)

В функцию http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image13.gifкумулянты в явном виде не входят, поэтому

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image14.gif

Итак,

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image15.gif(4.5.3)

Если в http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image16.gifвходит несколько усредненных функций http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image17.gif, http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image18.gif, http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image19.gif, то вместо (4.5.3) придем к

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image20.gif

Используя полученные формулы двукратно, найдем, например,

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image21.gif

Заметим, что многократное использование формул (4.5.2),(4.5.3) ведет уже к довольно громоздким выражениям, и мы их приводить не будем, несмотря на то, что в принципе их получить несложно.

Несколько более простые выражения получаются, если в усредняемую функцию, кроме http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image22.gif, входят не усредненные значения других функций, а кумулянты. В этом случае вместо (4.5.2) получим

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image23.gif(4.5.4)

Повторное использование этой формулы приводит к

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image24.gif

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image25.gif

3. Вернемся теперь к отысканию зависимостей кумулянтов случайной величины http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image26.gifот кумулянтов входной переменной Так как кумулянты представляют собой комбинацию моментов, то на основании (1.2.4) легко записать их дифференциалы через дифференциалы моментов. Например, для первых четырех кумулянтов имеем

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image27.gif

Отсюда, используя (4.5.3), найдем

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image28.gif(4.5.5)

Выделим из этих уравнений особо четыре формулы, связывающие средние значения и дисперсии:

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image29.gif(4.5.6)

Пример 4.5.1. Применим полученные формулы для нахождения первых четырех кумулянтов случайной величины, подвергшейся квадратичному преобразованию http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image30.gif. Первый кумулянт находится элементарно (для простоты записи http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image31.gifобозначим в этом примере как http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image32.gif). Структура последующих кумулянтов может быть записана сразу, исходя из их порядка, например,

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image33.gif

Коэффициенты http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image34.gifнетрудно найти с помощью формул (4.5.5):

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image35.gif

Следовательно,

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image36.gif(4.5.7)

Аналогичный расчет приводит к

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image37.gif

Полученные формулы означают, в частности, следующее. Если нас интересует, например, дисперсия квадратично-преобразованной произвольной случайной величины, то, согласно (4.5.7), искомая дисперсия будет определяться только первыми четырьмя кумулянтами входного распределения. По этой причине различные входные вероятностные распределения (различные по высшим кумулянтам: http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image38.gif) будут приводить к одному и тому же результату.

4. Нетрудно распространить полученные формулы дифференцирования по кумулянтам на функцию, зависящую от двух случайных величин: http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image39.gif. Так, вместо (4.5.3) получим

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image40.gif(4.5.8)

Вместо (4.5.4) будем иметь уравнение

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image41.gif

Также легко получить производные по кумулянтам и для функций, зависящих от большого числа случайных переменных. Так, например http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image42.gif:

http://www.alnam.ru/archive/arch.php?path=../htm/book_kma/files.book&file=kma_25.files/image43.gif


#12.1. Моменти випадкових змінних.

Мінако,тирнов частина 1 ст. 22-25 або D:\Шева\4 курс\1семестр\стати\01.jpg

D:\Шева\4 курс\1семестр\стати\02.jpgD:\Шева\4 курс\1семестр\стати\03.jpgD:\Шева\4 курс\1семестр\стати\04.jpg


#12.2. Кореляційна функція та спектр телеграфного сигналу

G:\statu\Новая папка\140120141294.jpg

G:\statu\Новая папка\140120141295.jpg

G:\statu\Новая папка\140120141296.jpg

G:\statu\Новая папка\140120141297.jpg

G:\statu\Новая папка\140120141298.jpg

G:\statu\Новая папка\140120141299.jpg 

G:\statu\Новая папка\140120141304.jpg

G:\statu\Новая папка\140120141306.jpg


#13.1. Стаціонарні та нестаціонарні випадкові процеси.

C:\Users\Даша\Desktop\стат радиофиз єкзамен\скан\img024.jpg

C:\Users\Даша\Desktop\стат радиофиз єкзамен\скан\img025.jpg

C:\Users\Даша\Desktop\стат радиофиз єкзамен\скан\img026.jpg

C:\Users\Даша\Desktop\стат радиофиз єкзамен\скан\img027.jpg

C:\Users\Даша\Desktop\стат радиофиз єкзамен\скан\img028.jpg


#13.2. Лінійний регресійний аналіз.

У статистиці лінійна регресія — це метод моделювання залежності між скаляром y та векторною (у загальному випадку) змінною X.  У випадку, якщо змінна X також є скаляром, регресію називають простою.

При використанні лінійної регресії взаємозв'язок між даними моделюється за допомогою лінійних функцій, а невідомі параметри моделі оцінюються за вхідними даними. Подібно до інших методів регресійного аналізу лінійна регресія повертає розподіл умовної імовірності y в залежності від X, а не розподіл спільної імовірності y та X, що стосується області мультиваріативного аналізу.

При розрахунках параметрів моделі лінійної регресії як правило застосовується метод найменших квадратів, але також можуть бути використані інші методи. Так само метод найменших квадратів може бути використаний і для нелінійних моделей. Тому МНК та лінійна регресія хоч і є тісно пов'язаними, але не є синонімами.

Загалом лінійна регресійна модель визначається у виді:

y = \beta_0 + \beta_1 x_1 + \ldots + \beta_K x_K + u,

де y\, — залежна пояснювана змінна, (x_1,x_2,\ldots,x_K) — незалежні пояснювальні змінні, u\, — випадкова похибка, розподіл якої в загальному випадку залежить від незалежних змінних але математичне сподівання якої рівне нулю.

Відповідно згідно з цією моделлю математичне очікування залежної змінної є лінійною функцією незалежних змінних:

\mathbb E (y) = \beta_0 + \beta_1 x_1 + \ldots + \beta_K x_K + u.

Вектор параметрів (\beta_0,\beta_1, \ldots , \beta_K) є невідомим і задача лінійної регресії полягає у оцінці цих параметрів на основі деяких експериментальних значень y\, і (x_1,x_2,\ldots,x_K). Тобто для деяких n експериментів є відомі значення \{y_i,\, x_{i1}, \ldots, x_{ip}\}_{i=1}^n незалежних змінних і відповідне їм значення залежної змінної.

Згідно з визначенням моделі для кожного експериментального випадку залежність між змінними визначається формулами:

y_i = \beta_0 + \beta_1 x_{1,i} + \ldots + \beta_K x_{K,i} + u_{i},

або у матричних позначеннях y = X\beta + u, \,

де:

y = \begin{pmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \end{pmatrix}, \quad X = \begin{pmatrix} x'_1 \\ x'_2 \\ \vdots \\ x'_n \end{pmatrix} = \begin{pmatrix} 1 & x_{11} & \cdots & x_{1K} \\ 1 & x_{21} & \cdots & x_{2K} \\ \vdots & \ddots & \vdots \\ 1 & x_{n1} & \cdots & x_{nK} \end{pmatrix}, \quad \beta = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \vdots \\ \beta_K \end{pmatrix}, \quad u = \begin{pmatrix} u_1 \\ u_2 \\ \vdots \\ u_n \end{pmatrix}.

На основі цих даних потрібно оцінити значення параметрів (\beta_0,\beta_1, \ldots , \beta_K), а також розподіл випадкової величини u\,. Зважаючи на характеристики досліджуваних змінних можуть додаватися різні додаткові специфікації моделі і застосовуватися різні методи оцінки параметрів. Серед найпоширеніших специфікацій лінійних моделей є класична модель лінійної регресії і узагальнена модель лінійної регресії.

Класична модель лінійної регресії

Згідно з класичною моделлю додатково вводяться такі вимоги щодо специфікації моделі і відомих експериментальних даних:

·              \forall i \neq j \quad \mathbb E(u_i u_j|x_i) = 0 (відсутність кореляції залишків)

·              \forall i \quad \mathbb E(u_i^2|x_i) = \sigma^2 (гомоскедастичність)

попередні дві властивості можна також записати в матричних позначеннях \mathbb V(u|X) = \sigma^2 I_n, де In  одинична матриця розмірності n.

·                     Ранг матриці X рівний K+1.

·                     Усі елементи матриці X є невипадковими.

Часто додається також умова нормальності випадкових відхилень, яка дозволяє провести значно ширший аналіз оцінок параметрів та їх значимості, хоча і не є обов'язковою для можливості використання наприклад методу найменших квадратів:

·                     u_i | x_i \sim \mathcal N (0, \sigma^2).

Для асимптотичних властивостей оцінок додатково вимагається виконання деяких додаткових умов на матрицю X коли її розмірність прямує до безмежності. Однією з таких умов може бути існування границі при прямуванні розмірності до безмежності:

·                     \lim_{n \to \infty} \lambda_{-}(X'X) = \infty, де \lambda_{-} позначає найменше власне значення матриці.


#14.1. Імпульсний пуасонівський випадковий процес

Ахманов – 91 – 97 стр

Гарьянов -105 стр

Левын -141 стр

1.jpg

2.jpg

3.jpg

4.jpg


#14.2. Методмоментов

Ме́тодмоме́нтов — метод оценки неизвестных параметров распределений в математической статистике и эконометрике, основанный на предполагаемых свойствах моментов(Пирсон, 1894 г.). Идея метода заключается в замене истинных соотношений выборочными аналогами.

Сущность метода

Пусть случайная величина (вектор, матрица и т. д.) X имеет некоторое распределение \mathbb{P}_{\theta}, зависящее от параметров \theta \in \Theta \subset \mathbb{R}^k. Пусть для функций (называемыхмоментами или моментными функциями) g_i:\mathbb{R}^m \to \mathbb{R}, интегрируемых по мере \mathbb{P}_{\theta}, выполнены условия на моменты

\mathbb{E}\left[g_i(X,\theta)\right] = 0~,~~i=1..k

Пусть X_1,\ldots,X_n  выборка случайной величины X. Предполагается, что соотношения аналогичные условиям на моменты выполнены и для выборки, а именно вместо математического ожидания в условиях на моменты необходимо использовать выборочные средние:

\overline {g_i(X,\theta)} = 0~,~~i=1..k

причем в данном представлении (когда справа от равенства — ноль) достаточно использовать просто суммы вместо средних.

Оценки, получаемые из решения этой системы уравнений (выборочных условий на моменты), называются оценками метода моментов. Название метода связано с тем, что чаще всего в качестве функций g_i выступают функции степенного вида, математические ожидания от которых в теории вероятностей и математической статистике принято называть моментами.

Если моментные функции непрерывны, то оценки метода моментов состоятельны.

Частные случаи

Некоторые классические методы оценки регрессионных моделей можно представить как частные случаи метода моментов. Например, если линейная регрессионная модель y_t=x_t^Tb+\varepsilon_t удовлетворяет условию E(x^T_t \varepsilon_t)=0, то условия на моменты выглядят следующим образом:

X^Te=0~\Rightarrow~X^T(y-Xb)=0~\Rightarrow ~X^TXb=X^Ty

Следовательно, в этом случае оценка метода моментов будет совпадать с оценкой метода наименьших квадратов  \hat{b}_{MM}=\hat{b}_{OLS}=(X^TX)^{-1}X^Ty

Таким образом, МНК является частным случаем метода моментов, когда выполняется условие ортогональности регрессоров и случайных ошибок E(x^T_t \varepsilon_t)=0

Рассмотрим другой случай, когда имеются некоторые переменные z, ортогональные случайным ошибкам линейной регрессионной модели, то есть E(z^T_t \varepsilon_t)=0. Тогдаимеемвыборочныйаналогэтогоусловия:

Z^Te=0~\Rightarrow Z^T(y-Xb)=0~\Rightarrow ~Z^TXb=Z^Ty

Следовательно оценка метода моментов будет совпадать с оценкой метода инструментальных переменных: \hat{b}_{MM}=\hat{b}_{IV}=(Z^TX)^{-1}Z^Ty.

Таким образом, метод инструментальных переменных является частным случаем метода моментов, когда выполнено условие ортогональности инструментов и случайных ошибок модели.

Обобщенный метод моментов

Метод моментов может быть обобщен на случай когда количество условий на моменты превышает количество параметров, которые необходимо оценить. В этом случае, очевидно однозначного решения задача не имеет (в общем случае). В таком случае решается задача на минимизацию некоторого функционала, характеризующего интегральную степень соблюдения условий на моменты.

Пусть E(g(x,b))=0 — совокупность условий на моменты, число которых больше числа неизвестных параметров. Обобщенным методом моментов (ОММ, GMM GeneralizedMethodofMoments) называется оценка минимизирующая положительно определенную квадратичную форму от выборочных условий на моменты:

\hat {b}_{GMM}=\arg \min_{b} \overline {g(x,b)}^TW\overline {g(x,b)}

где — некоторая симметрическая положительно определенная матрица.

Весовая матрица теоретически может быть произвольной (с учетом ограничения положительной определенности), однако, доказано, что наиболее эффективными являются GMM-оценки с весовой матрицей, равной обратной ковариацинной матрице моментных функций W=V^{-1}_g. Это так называемый эффективный GMM. Однако, поскольку на практике эта ковариационная матрица неизвестна, то применяют следующую процедуру. На первом шаге оцениваются параметры модели с помощью GMM с единичной весовой матрицей. Затем по выборочным данным и найденным значениям параметров оценивают коварицаонную матрицу моментных функций и используют полученную оценку в эффетивномGMM (это т. н. доступный эффективный GMM).

Пример

Пусть X_1,\ldots,X_n \sim \Gamma(\alpha,\beta) — выборка из гамма распределения с неизвестными параметрами \alpha и \beta. Тогда

\mathbb{E}[X_i] = \alpha \beta,\; \mathbb{E}\left[X_i^2\right]=\alpha(\alpha+1)\beta^2,\quad i=1,\ldots,n.

Тогда оценки метода моментов удовлетворяют системе уравнений:

\begin{matrix}\bar{X} = & \hat{\alpha}_{\mathrm{MM}} \hat{\beta}_{\mathrm{MM}}\\\overline{X^2} = & \hat{\alpha}_{\mathrm{MM}} ( \hat{\alpha}_{\mathrm{MM}} + 1 ) \left( \hat{\beta}_{\mathrm{MM}} \right)^2\end{matrix}~~\Rightarrow~~ \hat{\alpha}_{\mathrm{MM}} = \frac{\left(\bar{X}\right)^2}{\overline{X^2} - \left(\bar{X}\right)^2}~,~~\hat{\beta}_{\mathrm{MM}} = \frac{\overline{X^2} - \left(\bar{X}\right)^2}{\bar{X}}.

Преимущества и недостатки метода

В известной мере, при оценке параметров из известного семейства вероятностных распределений, этот метод упраздняется Фишеровским методом максимального правдоподобия, так как максимально правдоподобная оценка имеет большую вероятность оказаться ближе к истинному значению оцениваемой величины.

Тем не менее, в некоторых случаях, например, как выше в случае Гамма-распределения, использование метода максимального правдоподобия требует использования компьютеров в то время, как метод моментов может быть быстро и легко реализован вручную.

Оценки, полученные методом моментов, могут быть использованы как первое приближение для метода максимума правдоподобия. Дальнейшее улучшение оценок может быть получено с использованием метода Ньютона-Рафсона.

В некоторых случаях, редких при больших объемах данных и более частых при малом их количестве, оценки, даваемые методом моментов могут оказаться вне допустимой области. Такая проблема никогда не возникает в методе максимального правдоподобия. Также, оценки по методу моментов не обязательно оказываютсядостаточной статистикой, то есть, они иногда извлекают из данных не всю имеющуюся в них информацию.

 


#15.1. Коефіцієнт кореляції, його означення та властивості.

Коефіцієнтом кореляції ρζη випадкової величини (ζ, η), називають відношення

http://idndist.lp.edu.ua/moodle/library/books/0005/img/10_2_7.gif

(10.12)

де σζ, ση - середні квадратичні відхилення випадкових величин ζ та η.
    Коефіцієнт кореляції незалежних випадкових величин дорівнює нулю.

Означення 10.6
    Випадкові величини, для яких кореляційний момент (а значить і коефіцієнт кореляції) дорівнює нулю, називають некорельованими.

Очевидно, що для некорельованості випадкових величин достатньо, щоб їх сумісний розподіл був симетричний відносно будь-якої прямої, паралельної одній з осей координат.
    Зауважимо, що рівність нулю коефіцієнта кореляції – необхідна, але не достатня умова незалежності випадкових величин.
    Отже, з некорельованості випадкових величин не завжди випливає їх незалежність.     Коефіцієнт кореляції характерезує не будь-яку залежність, а тільки так звану лінійку, яка полягає в тому, що при зростанні однієї з випадкових величин інша зростає (або спадає) за лінійним законом. Якщо випадкові величини ζ та η мають точно лінійну функціональну залежність η=aζ+b , то ρζη=±1 причому, якщо a>0 ρζη=1 , а якщо a<0 ρζη=-1. В загальному значення коефіцієнта кореляції ρζη
 задовільняють нерівність: -1 ≤ ρζη ≤ 1 .

Сформулюємо властивості коефіцієнта кореляції.


    1. Коефіцієнт кореляції не залежить від вибору одиниці виміру випадкових величин, тобто є величиною безрозмірною.

    2. Абсолютна величина коефіцієнта кореляції не перевищує одиниці: |ρζη|≤1.
Доведення.
Розглянемо величину ρ=(ζ-Mζ)+t(η-Mη). Оскільки Mρ2≥0 при всіх t і

    http://idndist.lp.edu.ua/moodle/library/books/0005/img/10_2_8.gif

то квадратний тричлен
 http://idndist.lp.edu.ua/moodle/library/books/0005/img/10_2_9.gif невід’ємний при всіх t. Тоді його дискримінант http://idndist.lp.edu.ua/moodle/library/books/0005/img/10_2_10.gif або http://idndist.lp.edu.ua/moodle/library/books/0005/img/10_2_11.gif.
Розділивши обидві частини останньої нерівності на
 http://idndist.lp.edu.ua/moodle/library/books/0005/img/10_2_12.gif, отримаємо http://idndist.lp.edu.ua/moodle/library/books/0005/img/10_2_13.gif. •
Зауваження.
При ζ=η маємо μζ, η=Dζ і ρζ, ζ=1. Тобто коефіцієнт кореляції величини ζ з самою собою дорівнює 1. Отже, слід сподіватись (чекати, що серед всіх величин η величина η=ζ має найбільший коефіцієнт кореляції з величиною ζ тобто ρζ, η≤ρζ, ζ=1 оскільки серед всіх величин η величина η=ζ “найбільше” залежить від величини ζ. Дійсно має місце теорема.

    3. Розглянемо окремо екстремальні випадки, коли ρζ, η=±1.

    Теорема 10.2
 Коефіцієнт кореляції величини ζ і η ρζ, η=±1 тоді і лише тоді, коли з ймовірністю 1 між випадковими величинами ζ і η існує точна лінійна функціональна залежність.
Доведення.
 
Очевидно, що ρζ, η=±1 тоді і лише тоді, коли квадратний тричлен, розглянутий при доведенні теореми – має однакові дійсні корені t1=t2=t0. При t0 маємо
    http://idndist.lp.edu.ua/moodle/library/books/0005/img/10_2_14.gif
Отже, з ймовірністю 1
 http://idndist.lp.edu.ua/moodle/library/books/0005/img/10_2_15.gif,
або

http://idndist.lp.edu.ua/moodle/library/books/0005/img/10_2_16.gif

(*)

http://idndist.lp.edu.ua/moodle/library/books/0005/img/s_l.gifЛінійну функціональну залежність завжди можна представити у вигляді (*) при деякому t0, що означає існування однакових дійсних коренів t1=t2=t0 квадратного тричлена, а, отже, справедливість рівності |ρζ, η|=1. •
    З останньої теореми випливає, що коефіцієнт кореляції можна розглядати як міру прямолінійності розподілу двовимірної випадкової величини (ζ, η).

    4. Якщо ρζ, η≠0, то складові ζ, η випадкового вектора (ζ, η) залежні.

    У випадку ρζ, η>0 говорять про позитивну кореляцію випадкових величин ζ, η. Це означає, що при зростанні однієї з них інша має тенденцію в середньому зростати. Якщо ж ρζ, η<0, то кажуть про від'ємну кореляцію випадкових величин ζ та η, тобто при зростанні однієї з них інша в середньому спадає. За означенням умовного математичного сподівання випливає, що при зміні значення y змінюється і

http://idndist.lp.edu.ua/moodle/library/books/0005/img/10_2_17.gif

(10.13)

Аналогічно умовне математичне сподівання M(η|ζ=x) можна розглядати як функцію аргументу y: M(η|ζ=x) = ψ(y).

 


#15.2. Співвідношення невизначеностей для випадкових процесів.

 

C:\Users\Reznik\Documents\экзамен\статы\15.1.pngC:\Users\Reznik\Documents\экзамен\статы\15.2.png

C:\Users\Reznik\Documents\экзамен\статы\15.3.pngC:\Users\Reznik\Documents\экзамен\статы\15.4.png

C:\Users\Reznik\Documents\экзамен\статы\15.5.png


#16.1. Спектральна густина стаціонарного випадкового процесу на виході лінійної системи з постійними параметрами.

Лінійна система з постійними параметрами не вносить нових гармонік в спектр сигналу, а лише змінює амплітуду. Варіант з книги, нижче - конспект

 

 

D:\!!!Навчання\4 Курс 1 семестр\Статистична радіофізика\exam\2\DSC_0263.jpg

 

 

D:\!!!Навчання\4 Курс 1 семестр\Статистична радіофізика\exam\2\DSC_0264.jpg

D:\!!!Навчання\4 Курс 1 семестр\Статистична радіофізика\exam\2\DSC_0265.jpg

 

 

 

 

 

 

 

 

 

 

 

D:\!!!Навчання\4 Курс 1 семестр\Статистична радіофізика\exam\2\DSC_0266.jpg

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

D:\!!!Навчання\4 Курс 1 семестр\Статистична радіофізика\exam\2\DSC_0261.jpg

D:\!!!Навчання\4 Курс 1 семестр\Статистична радіофізика\exam\2\DSC_0262.jpg

 

 

 

 

 


#16.2.  Випадкові процеси. Поняття ансамблю та вибіркових реалізацій випадкового процесу

Спектральная плотность S(ω) стационарного случайного процесса x(t) - это частотная функция, характеризующая спектральный (частотный) состав процесса, и представляет собой частотную характеристику для средних значений квадратов амплитуд гармоник, на которые может быть разложен случайный процесс. Спектральная плотность представляет собой двустороннее преобразование Фурье от корреляционной функции и имеет размерность [S(ω)]=в2/гц=в2с

C:\Users\Vanya\Desktop\Тема №9-_Спектральная плотность_files\for06000.gif. (9.8)

Чтобы определить корреляционную функцию Rx(τ) по известной спектральной плотности Sx(ω) используется обратное преобразование Фурье

C:\Users\Vanya\Desktop\Тема №9-_Спектральная плотность_files\for07000.gif. (9.9)

Для τ=0 имеем

C:\Users\Vanya\Desktop\Тема №9-_Спектральная плотность_files\for08000.gif. (9.10)

По своему физическому смыслу спектральная плотность есть величина, которая пропорциональна средней мощности процесса в интервале частот от ω до +dω. На рис.9.2 изображены характеристики R(τ) и S(ω) для различных случайных процессов.

Графики спектральных плотностей и корреляционных функций для различных случайных процессов
Рис.9.2. Графики спектральных плотностей и корреляционных функций для различных случайных процессов

Кривые 4 на рис.9.2. соответствуют чисто случайному процессу, когда связь между последующими значениями x(t) совсем отсутствует. Такой случайный процесс называется белым шумом, т.е. при τC:\Users\Vanya\Desktop\Тема №9-_Спектральная плотность_files\b0200000.gif0 Rx(τ) = 0, а S(ω) =const.
Следовательно, для исследования САУ со случайным необходимо вычисление либо корреляционных функций R(τ), либо спектральных плотностей S(ω) входных и выходных переменных.
Для установления взаимосвязи между корреляционными функциями переменных входа и выхода системы, а также взаимосвязи между их спектральными плотностями используется известное интегральное уравнение (интеграл Дюамеля), на основании которого

C:\Users\Vanya\Desktop\Тема №9-_Спектральная плотность_files\for09000.gif(9.11)

где w(t) - весовая или импульсная функция замкнутой системы по входному воздействию f(t); τ1 - вспомогательное время интегрирования.
Это же выражение для x(t+τ) будет

C:\Users\Vanya\Desktop\Тема №9-_Спектральная плотность_files\for10000.gif(9.12)

где τ2 - вспомогательное время интегрирования.Тогда корреляционная функция выходной величины

C:\Users\Vanya\Desktop\Тема №9-_Спектральная плотность_files\for11000.gif(9.13)

Учитывая формулы (9.8) и (9.9) корреляционная функция

C:\Users\Vanya\Desktop\Тема №9-_Спектральная плотность_files\for12000.gif(9.14)

Подставляя это выражение для определения корреляционной функции выходной величины (9.13) и поменяв порядок интегрирования, получим

C:\Users\Vanya\Desktop\Тема №9-_Спектральная плотность_files\for13000.gif

Так как
C:\Users\Vanya\Desktop\Тема №9-_Спектральная плотность_files\for14000.gifC:\Users\Vanya\Desktop\Тема №9-_Спектральная плотность_files\for15000.gif
то
C:\Users\Vanya\Desktop\Тема №9-_Спектральная плотность_files\for16000.gif(9.15)
Для дисперсии выходной величины получаем

C:\Users\Vanya\Desktop\Тема №9-_Спектральная плотность_files\for17000.gif(9.16)

Из приведенных выше выражений можно получить связь между спектральными плотностями входной и выходной величинами САУ при случайных стационарных процессах

C:\Users\Vanya\Desktop\Тема №9-_Спектральная плотность_files\for18000.gif(9.17)

где W(jω) - частотная передаточная функция системы.
Таким образом, спектральная плотность стационарного случайного процесса на выходе системы равна спектральной плотности входного воздействия, умноженной на квадрат амплитудной частотной характеристики системы.

 

 


#17.1. Ергодичні випадкові процеси, їх властивості(v1).

Нехай Х (t) - стаціонарний випадковий процес на відрізку часу [0, T] з характеристиками

M [X (t)] = 0, K (t, t ') = M [X (t) X (t')] = k (τ),

τ = t '- t, (t, t') € T × T.

Ергодична властивість стаціонарного випадкового процесу полягає в тому, що за досить тривалої реалізації процесу можна судити про його математичне сподівання, дисперсії, кореляційної функції.

ергодичність процесів 

Стаціонарність (у широкому сенсі): протягом усього відрізка часу математичне сподівання і дисперсія незмінні, а автокореляційна функція залежить тільки від різниці значень часу t 1 і t 2 і не залежить від часу початку і кінця процесу. 

(^
У вузькому сенсі) незмінність n-мірної щільності ймовірності процесу. 

Ергодичний процес - якщо параметри випадкового процесу можна визначити по одній нескінченної реалізації. 

Для ергодичного процесу: http://gendocs.ru/gendocs/docs/12/11983/conv_2/file2_html_5301ac2c.gif

http://gendocs.ru/gendocs/docs/12/11983/conv_2/file2_html_m7de0b2c8.gif , Де t = t 2 - T 1. 

http://gendocs.ru/gendocs/docs/12/11983/conv_2/file2_html_m1e7ef5a4.gif

Дисперсія: 
http://gendocs.ru/gendocs/docs/12/11983/conv_2/file2_html_6f0a2d59.gif
Процеси можуть бути між собою корельовані та залежні. Некорельовані процеси - це означає, що К 
xy (t) = 0 при будь-якому t. 

Незалежні процеси: 
http://gendocs.ru/gendocs/docs/12/11983/conv_2/file2_html_m38269a67.gif . 

Незалежні процеси завжди некорельовані, залежні процеси можуть бути як корельованими так і некоррелірованнимі. 

 

1.2. Стационарность случайного процесса

Случайный процесс называется стационарным, если одномерная плотность распределения вероятности и, следовательно, среднее значение и дисперсия случайного процесса не зависят от времени, а двумерная плотность распределения вероятности и автокорреляционная функция зависят только от разности временных аргументов , где .

Если многомерный закон распределения вероятностей распределения мгновенных значений, взятых в разные моменты времени, не зависят от принятого начала отсчёта, а зависят только от интервалов между выбранными моментами

,

то такой процесс стационарен в узком смысле. Если независимость от начала отсчёта выполняется только до второго (корреляционного) момента (включая первый), то такой процесс называют стационарным в широком смысле.

 

1.3. Эргодичность случайного процесса

Случайный процесс называется эргодическим первого порядка, если его первый момент, полученный усреднением по множеству реализаций (1.2), с вероятностью сколь угодно близкой к единице совпадает со средним значением, полученным усреднением по времени одной достаточно длинной реализации.

Случайный процесс называется эргодическим второго порядка, если его корреляционная функция (1.6), с вероятностью сколь угодно близкой к единице совпадает со средним значением произведения случайного процесса при сдвинутых аргументах, полученным усреднением по времени одной достаточно длинной реализации.

Параметры эргодического случайного процесса могут быть определены так:

 (1.9).

Усреднением по времени могут быть найдены также автокорреляционные функции эргодического случайного процесса

 (1.10).

В данной работе предполагается, что аддитивно добавленный к полезному сигналу «шум» является эргодическим, случайным процессом.

 

 


#17.2. Стационарность случайного процесса(v2) ????

Случайный процесс называется стационарным, если одномерная плотность распределения вероятности и, следовательно, среднее значение и дисперсия случайного процесса не зависят от времени, а двумерная плотность распределения вероятности и автокорреляционная функция зависят только от разности временных аргументов , где .

Если многомерный закон распределения вероятностей распределения мгновенных значений, взятых в разные моменты времени, не зависят от принятого начала отсчёта, а зависят только от интервалов между выбранными моментами

,

то такой процесс стационарен в узком смысле. Если независимость от начала отсчёта выполняется только до второго (корреляционного) момента (включая первый), то такой процесс называют стационарным в широком смысле.

 

1.3. Эргодичность случайного процесса

Случайный процесс называется эргодическим первого порядка, если его первый момент, полученный усреднением по множеству реализаций (1.2), с вероятностью сколь угодно близкой к единице совпадает со средним значением, полученным усреднением по времени одной достаточно длинной реализации.

Случайный процесс называется эргодическим второго порядка, если его корреляционная функция (1.6), с вероятностью сколь угодно близкой к единице совпадает со средним значением произведения случайного процесса при сдвинутых аргументах, полученным усреднением по времени одной достаточно длинной реализации.

Параметры эргодического случайного процесса могут быть определены так:

 (1.9).

Усреднением по времени могут быть найдены также автокорреляционные функции эргодического случайного процесса

 (1.10).

В данной работе предполагается, что аддитивно добавленный к полезному сигналу «шум» является эргодическим, случайным процессом.

 

#17.2. Дискретні представлення лінійних систем.

Задача опис лінійних дискретних систем у часі полягає у встановленні залежності між вхідними та вихідними сигналами, представленими у часовій області. Для цього звичайно треба знати відповідні характеристики системи, які теж повинні бути залежними від дискретного часу.

Дискретні сигнали, що використовуються в системах ЦОС, досить різноманітні. І щоб уніфікувати задачу аналізу їх проходження через ЛДС треба мати можливість представляти такі складні сигналі у вигляді  зваженої суми деяких стандартних сигналів. Тоді, оскільки ЛДС задовольняють принципу суперпозиції, то можна найти відгук на кожну складову зваженої суми, результат скласти і знайти відгук на весь складний сигнал. Тим самим отримати відповідь на задачу аналізу проходження складного сигналу через ЛДС. Отже треба знати реакцію ЛДС  на дію стандартного сигналу. Таким чином, часові характеристики ЛДС представляють собою реакції на певні стандартні дискретні сигнали.

         В теорії ЛДС такими стандартними сигналами є одиничний імпульс і функція у вигляді одиничного стрибка. Розглянемо перший стандартний сигнал – одиничний імпульс. Будемо визначати його наступним виразом:

                                      (3.7)

На рис. 3.2 зображено одиничний імпульс.

 

Рис. 3.2.  Одиничний імпульс

 

         Можна розглядати також зсунуті у часі одиничні імпульси. Затриманий у часі на  дискретних інтервалів одиничний імпульс (див. рис. 3.3, а) запишеться так:

                                  (3.7А)

 

        а                                                     б

 

Рис. 3.3. Затриманий у часі а) і випереджаючий б) одиничні

імпульси

         Випереджаючий на  дискретних інтервалів одиничний імпульс (рис. 3.3, б)

                                 (3.7Б)

         В усіх трьох виразах (3.7), (3.7А) і (3.7Б) дискретна змінна

         Розглянемо тепер деяку нестаціонарну ЛДС, яка носить назву параметричної. Будемо вважати, що математична модель такої системи описується лінійним оператором , який залежить не лише від вхідної дії , а і від нормованого дискретного часу . Нехай система знаходиться в нульовому стані, тобто до моменту  всі вхідні сигнали тотожно дорівнюють нулеві і маємо нульові початкові умови, а саме при  відгук теж дорівнює нулеві: . Якщо на таку систему подати на вхід у момент часу  тестовий одиничний сигнал (3.7), то на виході отримаємо відгук (рис. 3.4, а)

,                          (3.8)

де перший аргумент означає поточний нормований дискретний час, а другий аргумент позначає момент подачі тестуючого імпульсу на вхід системи, який у нашому випадку дорівнює нулеві.

Подамо в тих же умовах на вхід параметричної системи зсунутий у часі тестовий сигнал, наприклад, (3.7А). Оскільки для параметричної системи її параметри з часом змінюються, то в цьому випадку відгук буде відрізнятися від відгуку (3.8) (рис. 3.4, б), що відображається тим, що другий аргумент дорівнює , тобто маємо

                    (3.9)

         Таким чином отримуємо наступне означення: відгук параметричної дискретної системи  (3.9), яка знаходиться в нульовому стані, на дію тестуючого одиничного сигналу  (3.7А), де  називається імпульсною характеристикою.

         Оскільки для реально існуючих  систем повинен виконуватися принцип причинності, а саме, при відсутності на вході впливу на виході відгук теж буде тотожно дорівнювати нулеві, то на імпульсну

 

Рис. 3.4. Реакція дискретної параметричної системи на тестуючий імпульс, поданий на вхід у різні моменти часу

 

характеристику (3.9) накладається обмеження фізичної можливості, тобто для фізично існуючих систем

.

         Розглянемо тепер стаціонарну ЛДС. Для такої системи відгук є інваріантним до зсувів вхідного сигналу у часі, тобто оператор , що описує математичну модель системи, тепер не залежить від часового параметра. Нехай система знаходиться в нульовому стані. В момент часу  подамо тестовий сигнал (3.7). Тоді відгук (див. рис 3.5, а) запишеться так

.                        (3.10)

         Якщо на лінійну стаціонарну систему, що знаходиться в нульовому стані, подати тестуючий сигнал у момент часу , то відгук

,

тобто буде мати ту ж форму, що і (3.10), але буде зсунутий у часі на  інтервалів (рис. 3.5, б).

 

Рис. 3.5. Реакція стаціонарної ЛДС тестуючий імпульс, поданий на вхід у різні моменти часу

         Таким чином для стаціонарної ДЛС  не важливо, в який момент часу подавати тестуючий сигнал. Форма реакції від цього не залежить (див. рис. 3.5). Тому маємо таке означення: відгук стаціонарної ЛДС  (3.10), яка знаходиться в нульовому стані, на дію тестуючого одиничного сигналу  (3.7) називається імпульсною характеристикою.

        

 


#17.2. Дискретні представлення лінійних систем.

Задача опис лінійних дискретних систем у часі полягає у встановленні залежності між вхідними та вихідними сигналами, представленими у часовій області. Для цього звичайно треба знати відповідні характеристики системи, які теж повинні бути залежними від дискретного часу.

Дискретні сигнали, що використовуються в системах ЦОС, досить різноманітні. І щоб уніфікувати задачу аналізу їх проходження через ЛДС треба мати можливість представляти такі складні сигналі у вигляді  зваженої суми деяких стандартних сигналів. Тоді, оскільки ЛДС задовольняють принципу суперпозиції, то можна найти відгук на кожну складову зваженої суми, результат скласти і знайти відгук на весь складний сигнал. Тим самим отримати відповідь на задачу аналізу проходження складного сигналу через ЛДС. Отже треба знати реакцію ЛДС  на дію стандартного сигналу. Таким чином, часові характеристики ЛДС представляють собою реакції на певні стандартні дискретні сигнали.

         В теорії ЛДС такими стандартними сигналами є одиничний імпульс і функція у вигляді одиничного стрибка. Розглянемо перший стандартний сигнал – одиничний імпульс. Будемо визначати його наступним виразом:

                                      (3.7)

На рис. 3.2 зображено одиничний імпульс.

 

Рис. 3.2.  Одиничний імпульс

 

         Можна розглядати також зсунуті у часі одиничні імпульси. Затриманий у часі на  дискретних інтервалів одиничний імпульс (див. рис. 3.3, а) запишеться так:

                                  (3.7А)

 

        а                                                     б

 

Рис. 3.3. Затриманий у часі а) і випереджаючий б) одиничні

імпульси

         Випереджаючий на  дискретних інтервалів одиничний імпульс (рис. 3.3, б)

                                 (3.7Б)

         В усіх трьох виразах (3.7), (3.7А) і (3.7Б) дискретна змінна

         Розглянемо тепер деяку нестаціонарну ЛДС, яка носить назву параметричної. Будемо вважати, що математична модель такої системи описується лінійним оператором , який залежить не лише від вхідної дії , а і від нормованого дискретного часу . Нехай система знаходиться в нульовому стані, тобто до моменту  всі вхідні сигнали тотожно дорівнюють нулеві і маємо нульові початкові умови, а саме при  відгук теж дорівнює нулеві: . Якщо на таку систему подати на вхід у момент часу  тестовий одиничний сигнал (3.7), то на виході отримаємо відгук (рис. 3.4, а)

,                          (3.8)

де перший аргумент означає поточний нормований дискретний час, а другий аргумент позначає момент подачі тестуючого імпульсу на вхід системи, який у нашому випадку дорівнює нулеві.

Подамо в тих же умовах на вхід параметричної системи зсунутий у часі тестовий сигнал, наприклад, (3.7А). Оскільки для параметричної системи її параметри з часом змінюються, то в цьому випадку відгук буде відрізнятися від відгуку (3.8) (рис. 3.4, б), що відображається тим, що другий аргумент дорівнює , тобто маємо

                    (3.9)

         Таким чином отримуємо наступне означення: відгук параметричної дискретної системи  (3.9), яка знаходиться в нульовому стані, на дію тестуючого одиничного сигналу  (3.7А), де  називається імпульсною характеристикою.

         Оскільки для реально існуючих  систем повинен виконуватися принцип причинності, а саме, при відсутності на вході впливу на виході відгук теж буде тотожно дорівнювати нулеві, то на імпульсну

 

Рис. 3.4. Реакція дискретної параметричної системи на тестуючий імпульс, поданий на вхід у різні моменти часу

 

характеристику (3.9) накладається обмеження фізичної можливості, тобто для фізично існуючих систем

.

         Розглянемо тепер стаціонарну ЛДС. Для такої системи відгук є інваріантним до зсувів вхідного сигналу у часі, тобто оператор , що описує математичну модель системи, тепер не залежить від часового параметра. Нехай система знаходиться в нульовому стані. В момент часу  подамо тестовий сигнал (3.7). Тоді відгук (див. рис 3.5, а) запишеться так

.                        (3.10)

         Якщо на лінійну стаціонарну систему, що знаходиться в нульовому стані, подати тестуючий сигнал у момент часу , то відгук

,

тобто буде мати ту ж форму, що і (3.10), але буде зсунутий у часі на  інтервалів (рис. 3.5, б).

 

Рис. 3.5. Реакція стаціонарної ЛДС тестуючий імпульс, поданий на вхід у різні моменти часу

         Таким чином для стаціонарної ДЛС  не важливо, в який момент часу подавати тестуючий сигнал. Форма реакції від цього не залежить (див. рис. 3.5). Тому маємо таке означення: відгук стаціонарної ЛДС  (3.10), яка знаходиться в нульовому стані, на дію тестуючого одиничного сигналу  (3.7) називається імпульсною характеристикою.

        

 


#18.1.Властивості кореляційних функцій випадкового процесу

Основні властивості кореляційних функцій випадкових процесів 


1. Кореляційні функції для типових сигналів.
 

2.Аппроксімаціі кореляційних функції.
 

3.Связь між видом КФ і видом реалізацій процесів.
 

4.Експеріментальное визначення кореляційних функції.
 
Наведемо деякі основні властивості кореляційних функцій
 R x (t ). 

1. Початкове значення кореляційної функції дорівнює середньому
 

значенням квадрата випадкового процесу:
 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_5ecef5be.png (7.1) 

Це випливає з (6.12), яке при
 t = 0 дорівнює 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_49b0624c.png (7.2) 

2. Кінцеве значення кореляційної функції дорівнює квадрату середнього значення випадкового процесу:
 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_25414c2b.png (7.3) 

Дійсно, чим більше
 t, тим менше пов'язані між собою випадкові величини X (t 1) і X (t 2). При t®¥ величини X (t 1) і X (t 2)можна вважати взаємно незалежними. Звідси, приймаючи до уваги (??) І (6.11), можна написати 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_16105154.png (7.4) 


3. Значення кореляційної функції за будь
 t не може перевищувати її початкового значення, тобто 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_m4562fc05.png (7.5) 

Щоб довести це, розглянемо очевидне нерівність
 

з якого випливає
 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_m554e2338.png (7.6) 

Знаходимо середні значення за часом від обох частин останнього нерівності:
 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_cba3360.png

і
 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_12fb5145.png

Таким чином, отримаємо нерівність
 




http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_bd7875f.png (7.7) 
4. Кореляційна функція є парна функція від
 t, тобто 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_180acc27.png (7.8) 

Це випливає з самого визначення кореляційної функції.
 

Дійсно,
 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_m34e25d8f.png (7.9) 

Тому на графіку кореляційна функція завжди симетрична щодо осі ординат.
 

5. Кореляційна функція суми випадкових процесів
 Z (t) = X (t) + G (t) визначається виразом 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_m49712e5a.png (7.10) 

де
 R xg (t) і R gx (t) - взаємні кореляційні функції. Дійсно, 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_m24825dc8.png (7.11) 

6. Кореляційна функція постійної величини
 x (t) = А 0 дорівнює квадрату цієї постійної величини A 0 2 (рис. 7.1, а), що випливає з самого визначення кореляційної функції: 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_593114fe.png (7.12) 

7. Кореляційна функція періодичної функції, наприклад
 x (t) = A sin (w 1 t + j), являє собою косінусоіду (рис. 7.1, д), т. е. 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_m74b6d58e.png (7.13) 

що має ту ж частоту 
w 1, що і x (t), і не залежну від зсуву фази j . 

Щоб довести це, зауважимо, що при знаходженні кореляційних функцій періодичних функцій x (t) можна використовувати наступне рівність: 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_m4a9c5f51.png (7.14) 

де T 0 = 2 
p / w 0 - період функції х (t) 

Остання рівність виходить після заміни інтеграла з межами від-Т до Т при Т 
®¥ сумою окремих інтегралів з ​​межами від (k-1) T 0 до kT 0, де k = 0, ± 1, ± 2, ..., ± п, і використання періодичності подинтегральних функцій. 

Тоді, враховуючи сказане вище, отримаємо 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_8179204.png (7.15) 

8. Кореляційна функція тимчасової функції, розкладається в ряд Фур'є: 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_m681a5cd2.png (7.16) 

має на підставі викладеного вище наступний вигляд: 

R x (
t) = A 0 2 + S (A k 2/2) cos w k t 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_m49dcea1e.png

Рис 7.1. 

9. Кореляційна функція стаціонарного випадкового процесу, на який накладено періодична складова з частотою w k, також буде містити періодичну складову тієї ж частоти. 

Цю обставину можна використовувати як один із способів про-наруженія «прихованої періодичності» у випадкових процесах, яка може не виявлятися при першому погляді на окремі записи реалізації випадкового процесу.
 

Зразковий вид кореляційної функції процесу
 X (t), що містить у своєму складі крім випадкової також і періодичну складову, зображений на рис. 7.2, де R x 0 (t) позначена кореляційна функція, відповідна випадкової складової. 

Щоб виявити приховану періодичну складову (така задача виникає, наприклад, при виділенні малого корисного сигналу на тлі великої перешкоди), найкраще визначити кореляційну функцію
 R x (t) для великих значень t, коли випадковий сигнал вже порівняно слабко коррелирован і випадкова складова слабо позначається на вигляді кореляційної функції. 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_2c27b3bf.png

Рис 7.2
 

10. Типова кореляційна функція стаціонарного випадкового процесу з не рівним нулю середнім значенням, що не містить прихованих періодичностей, наведена на рис. 7.3.
 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_m777906ca.png

Рис 7.3
 

Якщо середнє значення випадкового процесу дорівнює нулю, то його типова кореляційна функція (що збігається з центрованої кореляційної функцією) матиме вигляд, представлений на рис. 7.1,
 б, в. У цьому випадку її можна апроксимувати наступним аналітичним виразом: 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_54eb51da.png (7.17) 

де
 D x - дисперсія; а = const - параметр загасання. 

З ростом
 t   зв'язок між X (t) і X (t + t) слабшає і кореляційна функція стає менше. На рис. 7.1, б, в наведено, наприклад, дві кореляційні функції і дві відповідні їм реалізації випадкового процесу. Легко помітити, що кореляційна функція, відповідна випадковому процесу з більш тонкою структурою, убуває швидше. Іншими словами, чим вищі частоти присутні у випадковому процесі, тим швидше убуває відповідна йому кореляційна функція. 

Іноді зустрічаються кореляційні функції, які можуть бути апроксимовані аналітичним виразом
 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_m571230d8.png (7.18) 

де
 D x, - дисперсія; а = const - параметр загасання; g = const - резонансна частота. 

Кореляційні функції подібного виду мають, наприклад, випадкові процеси типу турбулентності атмосфери, федінга радіолокаційного сигналу, кутового мерехтіння цілі і т. п.
 

Вирази (7.17) і (7.18) часто використовуються для апроксимації кореляційних функцій, отриманих в результаті обробки експериментальних даних.
 

11. Чим слабкіше взаємозв'язок між попередніми
 X (t) і наступними X (t + t) значеннями випадкового процесу, тим швидше убуває кореляційна функція R x (t). 

Час
 t R, при якому має місце нерівність | R x (t R) - (х) 2 | <= D, де D - досить мала величина, називають часом кореляції випадкового процесу. 

Випадковий процес, в якому відсутній зв'язок між попередніми і наступними значеннями, називають чистим випадковим процесом або білим шумом. У разі білого шуму час кореляції
 t R = 0 і кореляційна функція являє собою d-функцію (див. рис. 7.1, г): 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_67ef7628.png (7.19) 

де N = const. 

Зауважимо, що випадковий процес типу білого шуму є фізично нереальним, так як йому відповідають нескінченно велике значення дисперсії і середнього значення квадрата випадкової величини D x = х 2 = R х (0) = oо, а отже, і нескінченно велика потужність. 

При вирішенні практичних завдань часто користуються нормованої кореляційної функцією 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_m22c3051c.png (7.20) 

Нормована кореляційна функція зручна тим, що завжди
 r x (0) = 1. Іноді в розгляд вводять нормовану взаємну кореляційну функцію 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_38338a1f.png (7.21) 

причому можна показати, що
 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_m4ea8986a.png (7.22) 

На закінчення коротко розглянемо спосіб експериментального визначення кореляційних функцій.
 

Якщо є експериментальна запис реалізації
 x (t) випадкового процесу X (t) на досить тривалому інтервалі часу, то кореляційна функція R x (t), що визначається виразом (7.18), може бути наближено обчислена таким чином. Весь інтервал запису осцилограми ділиться на l рівних частин, тривалість яких D t = T / l вибирається такий, щоб реалізація x (t) мало змінювалася протягом інтервалу D t (рис. 7.4). 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_2825f8ca.png

Рис 7.4
 

Значення ординати реалізації
 x (t) на деякому відрізку п позначимо x n, а значення ординати цієї ж кривої, але зміщеною на величину t = m D t, т. е. x (t + t), позначимо х п + т. 

Переймаючись різними значеннями
 т, знаходимо для різних значень t = m D t середнє значення твори ординат х п і х п + т.Наближене значення кореляційної функції 

http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_m7f0d3265.png (7.23) 

В (54) зменшення інтервалу
 Т на величину t обумовлено тим, що ординати х п + т, відомі тільки до t = Т-t = (l-т) D t. Чим менше тривалість відрізків D t і чим більше величина інтервалу Т, тим точніше вираз (7.23) відповідає кореляційної функціїR x (t). Для отримання помилки не більше 2% повинно виконуватися нерівність т <= 0,1 T / D t. 

Наведений спосіб визначення кореляційної функції з експериментально отриманої реалізації випадкового процесу досить трудомісткий, тому на практиці звичайно кореляційні функції знаходять за допомогою спеціальних приладів -корреляторов,
 які автоматично обчислюють середні твори двох ординат осцилограм, що знаходяться один від одного на відстані т. 

Якщо експериментально знайдена кореляційна функція
 R x (t) містить постійну складову x, то, використовуючи (6.13), можна знайти центровану кореляційну функцію http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_m2812c38.png тобто http://gendocs.ru/gendocs/docs/11/10678/conv_6/file6_html_234760ab.png


#18.2. Нормалізація випадкових процесів інерційними системами.

D:\учоба\стат\Новая папка (3)\djvupageright.php

 

 

D:\учоба\стат\Новая папка (3)\djvupageleft.php

 

 

D:\учоба\стат\Новая папка (3)\djvupageright (1).php

 

#19.1. Розподіл Пуасона та його властивості.


#19.2.  Перетворення нормального випадкового сигналу лінійною системою.

H:\DCIM\IMG_20140114_210834.jpg


#20.1.Перетворення випадкового процесу ідеальним обмежувачем.


#20.2. Нелінійні перетворення випадкових змінних

Конспект – тільки для одновимірних, книжка для всіх(але дуже багато інфи)
D:\Шева\4 курс\1семестр\стати\1.jpgD:\Шева\4 курс\1семестр\стати\2.jpgD:\Шева\4 курс\1семестр\стати\3.jpg

D:\Шева\4 курс\1семестр\стати\шпори\1.jpegD:\Шева\4 курс\1семестр\стати\шпори\2.jpeg

D:\Шева\4 курс\1семестр\стати\шпори\5.jpegD:\Шева\4 курс\1семестр\стати\шпори\6.jpegD:\Шева\4 курс\1семестр\стати\шпори\7.jpegD:\Шева\4 курс\1семестр\стати\шпори\8.jpegD:\Шева\4 курс\1семестр\стати\шпори\3.jpegD:\Шева\4 курс\1семестр\стати\шпори\4.jpeg

#21.1. Перетворення випадкового процесу ідеальним обмежувачем.

 

#21.2. Аналітичний сигнал, його означення та властивості.

C:\Users\Даша\Desktop\статфиз вита\img235.jpg

C:\Users\Даша\Desktop\статфиз вита\img236.jpg

C:\Users\Даша\Desktop\статфиз вита\img237.jpg

C:\Users\Даша\Desktop\статфиз вита\img238.jpg

C:\Users\Даша\Desktop\статфиз вита\img239.jpg

C:\Users\Даша\Desktop\статфиз вита\img240.jpg

C:\Users\Даша\Desktop\статфиз вита\img241.jpg


#22.1. Перетворення нормального випадкового процесу квадратичним детектором.

Збір інформації із сигналів, які її переносять неможливий без використання нелінійних перетворювачів. В найпростішому випадку це може бути звичайна демодуляція сигналу.  Звичайно, будь-яке нелінійне перетворення  в малому діапазоні зміни сигналу може бути лінеаризовано, тобто замінено близьким лінійним перетворенням. Проте в загальному випадку необхідно щоб була дуже велика кількість  апроксимуючих лінійних функцій, або це просто неможливо. Так чи інакше – найкраще застосовується теорія без інерційних перетворювачів. Одним із них є квадратичний детектор (в загальному випадку розглянемо «двосторонній квадратичний детектор»)


#22.2. Уширення спектральної лінії внаслідок зіткнення молекул.

 Ширина спектральных линий - интервал частот v характеризующий спектральные линии в спектрах оптических атомов, молекул и других квантовых систем. Каждому излучательному квантовому переходу между дискретными уровнями энергии Ek и Ei соответствует некоторый интервал δνki частот, близких к частоте перехода

http://www.heuristic.su/uploads/image/Zuev/Formulus/401_for_1.gif

Значение δνki определяет ширину спектральных линий, степень немонохроматичности данной спектральной линии. Контур спектральной линии I(ν) (зависимость интенсивности испускания (поглощения) от частоты) обычно имеет максимум при частоте перехода νki  или вблизи неё; за ширину спектральных линий принимают разность частот, которым соответствует уменьшение интенсивности вдвое (её называют иногда полушириной спектральной линии). Если не учитывать эффект Доплера, ширина спектральных линий δνki определяется суммой ширин уровней энергии Ek и Ei :

http://www.heuristic.su/uploads/image/Zuev/Formulus/401_for_2.gif

, то есть δνki тем больше, чем меньше времена жизни tk и ti. В зависимости от типа уширения получается симметричный или асимметричный контур спектральных линий (на рисунке 1 показан симметричный, так называемый дисперсионный, контур).

рис.1

http://www.heuristic.su/uploads/image/Zuev/Effects/401_eff_1.jpg

Симметричный контур спектральной линии

Частоте νki соответствует максимальная интенсивность I(ν) испускания; δνki  ширина спектральной линии, равна интервалу между частотами, которые соответствуют интенсивности, вдвое меньшей максимальной. Рассмотреный выше механизм носит название естественное уширение спектральных линий.

Естественная форма линии возникает в идеальных условиях, если атом покоится в лабораторной системе отсчета и не подвергается в процессе излучения внешним воздействиям. Реальные источники излучение представляют собой совокупность большого числа атомов (молекул), взаимодействующих с окружающей средой и друг другом. Это приводит к дополнительному уширению спектральных линий. Существует две группы факторов, влияющих на ширину спектральных линий. Первая – вызывает в излучении каждого атома одинаковое уширение линии. Это – однородное уширение. Вторая группа причин вызывает у разных атомов разную величину уширения линий. Спектральные линии таких источников можно представить как наложение спектральных линий, излучаемых отдельными атомами. Такое уширение называют неоднородным уширением.

Согласно классическим представлениям процесс столкновения приводит к нарушению (обрыву) процесса излучения классического осциллятора. В результате этого наблюдаемое время жизни (в отличие от радиационного) уменьшается. Это приводит к уширению контура излучаемой линии. Уширение спектральных линий, причиной которых является столкновение атомов, называется ударным.

Если средний промежуток между столкновениями Δtуд много меньше естественного времени жизни осциллятора τ0(Δtуд <<τ0), то уменьшение амплитуды за время между столкновениями можно не учитывать, и для определения спектра интенсивности можно использовать выражение

http://www.heuristic.su/uploads/image/Zuev/Formulus/401_for_3.gif

Однако, здесь необходимо учесть то обстоятельство, что промежутки времени между столкновениями являются случайными и описываются распределением Пуассона. Поэтому спектральная линия излучения в этом случае будет определяться функцией Лоренца:

http://www.heuristic.su/uploads/image/Zuev/Formulus/401_for_4.gif

Форма линии (спектральная плотность энергии излучения), которая определяется этим равенством называется лоренцевым контуром. Ударное уширение является однородным. Контур однородно уширенной линииописывается функцией  Лоренца. Этот вид уширения особенно проявляется для газов, находящихся при высоких температурах и больших давлениях. В современных ртутных лампах сверхвысокого давления, где давление паров ртути достигает 20—30 атм, «линии» ртутного излучения настолько уширены, что само выражение «спектральные линии» теряет смысл. Заметное уширение спектральных линий также наблюдается при добавлении к светящемуся газу значительных количеств постороннего газа.

Доплеровское уширение – наиболее существенная причина, которая определяет ширину спектральных линий. Например, при комнатных температурах для водорода доплеровская ширина спектральной линии почти в 500 раз больше естественной.

Причиной доплеровского уширения спектральных линий является эффект Доплера. Суть явления Доплера для световых волн состоит в том, что спектр излучения атома, который движется с некоторой скоростью в лабораторной системе отсчета, имеет некоторый сдвиг на частоте относительно спектра покоящегося атома. Выделяют поперечный и продольный эффекты Доплера. Продольный эффект наблюдается при относительном сближении или удалении источника или приемника. Поперечный эффект наблюдается при движении источника в направлении, перпендикулярном линии, соединяющей источник с наблюдателем. Поперечный эффект значительно меньше продольного. Поэтому ограничимся подробным рассмотрением уширения спектральных линий вследствие лишь продольного эффекта Доплера. Частота излучения , регистрируемого приемником, при нерелятивистском движении источника определяется выражением

http://www.heuristic.su/uploads/image/Zuev/Formulus/401_for_5.gif

где ω - частота излучения неподвижного источника, с – скорость света, vz - проекция скорости на направление наблюдения (ось Z). Причем знак «+» соответствует движению частицы к наблюдателю, а «-» от наблюдателя. При движении частицы к наблюдателю

http://www.heuristic.su/uploads/image/Zuev/Formulus/401_for_6.gif

Поскольку излучающие атомы двигаются хаотично, то полный спектр источника будет определяться наложением сдвинутых на определенную величину Δωi одинаковых по форме спектральных распределений отдельных атомов.

Получим для этого случая спектральное распределение . Для простоты будем считать, что ширина линии много меньше доплеровской, т.е. будем считать излучение атома монохроматическим с частотой ω0 .Вероятность того, что в состоянии теплового равновесия при температуре T атом имеет скорость, которая находится в интервале от v до v+dv , будет равна

http://www.heuristic.su/uploads/image/Zuev/Formulus/401_for_8.gif

Если в это распределение подставим v , то получим вероятность того, что частоты будут распределены в интервале  от ω до ω+dω

http://www.heuristic.su/uploads/image/Zuev/Formulus/401_for_9.gif

рис.2

http://www.heuristic.su/uploads/image/Zuev/Effects/401_eff_2.jpg

Форма спектральной линии при доплеровском уширении

Для интенсивности будем иметь

http://www.heuristic.su/uploads/image/Zuev/Formulus/401_for_10.gif

Контур спектральной линий, который описывается этим выражением, называется гауссовым. Гауссов контур имеет колоколоподобную форму.

Полуширина доплеровской спектральной линии равна

http://www.heuristic.su/uploads/image/Zuev/Formulus/401_for_11.gif

http://www.heuristic.su/uploads/image/Zuev/Formulus/401_for_12.gif

Таким образом, эффект Доплера является наиболее существенным фактором уширения спектральных линий. Величина доплеровского уширения зависит от температуры излучающего газа.
Также причинами
 уширения линий могут быть воздействия на излучающий атом различных силовых полей, в первую очередь электрических полей, создаваемых окружающими атомами. В постоянных электрических полях спектральные линии претерпевают расщепление (эффект Штарка). В переменных полях изменение спектральных линий носит более сложный характер. Это—одна из основных причин уширения спектральных линий.


#23.1. Нелінійні перетворення випадкового процесу. Метод характеристичних функцій.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Теоре́ма Леви́ в теории вероятностей — результат, увязывающий поточечную сходимость характеристических функций случайных величин со сходимостью этих случайных величин по распределению.

Формулировка

Пусть \scriptstyle \{X_n\}_{n=1}^{\infty} последовательность случайных величин, не обязательно определённых на одном вероятностном пространстве. Обозначим характеристическую функцию случайной величины X_n, где \scriptstyle n \in \mathbb{N}, символом \phi_n(t). Тогда если \scriptstyle X_n \to X по распределению при \scriptstyle n \to \infty, и \phi(t) — характеристическая функция X, то

\varphi_n(t) \to \varphi(t)\quad \forall t \in \mathbb{R}.

Обратно, если \scriptstyle \varphi_n(t) \to \varphi(t)\; \forall t \in \mathbb{R}, где \scriptstyle \varphi \in C(0) — функция действительного аргумента, непрерывная в нуле, то \phi(t) является характеристической функцией некоторой случайной величины X, и

X_n \to X по распределению при n \to \infty.

Замечание

Так как характеристическая функция любой случайной величины непрерывна в нуле, второе утверждение имеет следующее тривиальное следствие. Если \scriptstyle \varphi_n(t) \to \varphi(t)\; \forall t \in \mathbb{R}, где \phi_n(t) — характеристическая функция X_n, и \phi(t) — характеристическая функция X, то \scriptstyle X_n \to X по распределению при \scriptstyle n \to \infty. Использование этого факта при доказательстве сходимости по распределению иногда называют ме́тодомхарактеристи́ческихфу́нкций. Метод характеристических функций является стандартным способом доказательства классической Центральной предельной теоремы.

 


#23.2. Мінімально невизначений випадковий процес.C:\Users\putryan\Desktop\стати\Мої питання\1.jpg C:\Users\putryan\Desktop\стати\Мої питання\2.jpg C:\Users\putryan\Desktop\стати\Мої питання\4.jpg C:\Users\putryan\Desktop\стати\Мої питання\5.jpg C:\Users\putryan\Desktop\стати\Мої питання\6.jpg


#24.1. Умовні імовірності. Формула Байєса та її застосування.

 

Умо́вна ймові́рність — ймовірність однієї події за умови, що інша подія вже відбулася.

Нехай (\Omega,\mathcal{F},\mathbb{P}) — фіксований ймовірнісний простір. Нехай A,B\in \mathcal{F} дві випадкової події, причому \mathbb{P}(B)>0. Тоді умовною ймовірністю події A при умові події Bназивається

\mathbb{P}(A \vert B) = \frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}.

 

Властивості

·                    Прямо з визначення очевидно випливає, що

\mathbb{P}(A\cap B) = \mathbb{P}(A \vert B) \; \mathbb{P}(B).

·        Якщо \mathbb{P}(B) = 0, то умовна ймовірність, строго кажучи, не визначена. Проте іноді умовляються вважати її в цьому випадку рівною нулю .

·        Умовна ймовірність є ймовірністю, тобто функція \mathbb{Q}:\mathcal{F}\to \mathbb{R}, задана формулою

\mathbb{Q}(A) = \mathbb{P}(A \vert B ),\; \forall A \in \mathcal{F},

задовольняє усі аксіоми імовірнісної міри.

 

Теорема Байєса – одна з осн. теорем елементарної теорії ймовірності, яка визначає ймовірність настання події в умовах, коли на основі спостережень відома лише деяка часткова інформація про події. За допомогою формули Байєса можно більш точно обчислювати ймовірність, взявши до уваги як і раніше відому інформацію так і дані нових спостережень.

 

Формула Баєса:

P(A|B) = \frac{P(B|A)P(A)}{P(B)},

де

P(A) — апріорна ймовірність гіпотези A;

P(A|B) — ймовірність гіпотези A при настанні події B (апостеріорна ймовірність);

P(B|A) — ймовірність настання події B при істинності гіпотези A;

P(B) — ймовірність настання події B.

 

Доведення

Формула Байеса вытекает из определения условной вероятности. Вероятность совместного события  AB двояко выражается через условные вероятности

 P(AB) = P(A|B)P(B) = P(B|A)P(A)

Следовательно P(A|B) = \frac{P(AB)}{P(B)} =  \frac{P(B | A)\, P(A)}{P(B)}

 

Вычисление P(B)

В задачах и статистических приложениях P(B) обычно вычисляется по формуле полной вероятности события, зависящего от нескольких несовместных гипотез, имеющих суммарную вероятность 1.

P(B)=\sum_{i=1}^N P(A_i)P(B|A_i),

где вероятности под знаком суммы известны или допускают экспериментальную оценку.

В этом случае формула Байеса записывается так:

P(A_j|B) = \frac{P(A_j)P(B|A_j)}{\sum_{i=1}^N P(A_i)P(B|A_i)}

 

«Физический смысл» и терминология

Формула Байеса позволяет «переставить причину и следствие»: по известному факту события вычислить вероятность того, что оно было вызвано данной причиной.

События, отражающие действие «причин», в данном случае называют гипотезами, так как они — предполагаемые события, повлекшие данное. Безусловную вероятность справедливости гипотезы называют априорной (насколько вероятна причина вообще), а условную — с учетом факта произошедшего события — апостериорной (насколько вероятна причина оказалась с учетом данных о событии).

 

Важливим наслідком формули Баєса є формула повної ймовірності події, що залежить від декількох несуміснних гіпотез (і тільки від них).

P(B) = \sum_{i=1}^N P(A_i)P(B|A_i)  — ймовірність настання події B, що залежить від гіпотез A_i, якщо відомі їх ступені достовірності.

 

Oсновные сферы применения формулы Байеса

1)Математический инструмент в теории вероятностей.

2)В статистике – как обобщение предшествующего опыта. Предполагается, что нами накоплен опыт, позволяющий экспериментально(!) оценить априорное распределение вероятностей. Далее мы верим в то, что рассматриваемый нами новый объект относится к той же группе. Это позволяет строить классификаторы, основанные на байесовской формуле.

3)В статистике - для сравнения разных моделей в случае, когда априорные распределения настолько нечетки, что вообще несущественны. Очень часто используется BIC (байесовский информационный критерий)

 

 

 

 

 

#24.2.  Визначення лінійної системи. Імпульсний відгук та його властивості.

 

 

 

 

 

 

 

 

 

 

 

 

 


#25.2. Спектральна густина періодичного випадкового процесу

 

Під час дослідження автоматичних систем керування користуються ще однією характеристикою стаціонарного випадкового процесу – спектральною щільністю Sx(w), яка у багатьох випадках є більш зручною, ніж кореляційна функція.

Термін “спектральна щільність” походить з теорії електричних коливань. Фізичний зміст спектральної щільності полягає в тому, що вона характеризує розподіл потужності сигналу за частотним спектром (кожна елементарна потужність, яка відповідає нескінченно малій ділянці спектра від w до w + dw, пропорційна значенню функції Sx(w) для даної частоти w). Спектральну щільність можна визначити експериментально через середню величину квадрата амплітуди гармонік реалізації випадкового процесу. Прибори, що застосовують для цього, називаються спектрометрами.

Аналітично спектральна щільність Sx(w) випадкового процесу X(t) визначається як перетворення Фур’є кореляційної функції Rx(t):

                                                                                                          (12.38)

За допомогою формули Ейлера  вираз (12.38) можна подати у вигляді:

                          (12.39)

Оскільки  - непарна функція t, то другий інтеграл у виразі (12.39) дорівнює нулю. Тоді з урахуванням, що  - парна функція t, отримаємо:

                         (12.40)

Оскільки , то з (12.40) випливає:

Sx(w) = Sx(-w).                                                                     (12.41)

Таким чином, спектральна щільність Sx(w) є дійсною і парною функцією частоти w, тому графік цієї функції завжди симетричний відносно осі ординат.

Якщо спектральна щільність відома, то за формулою оберненого перетворення Фур’є можна знайти відповідну кореляційну функцію:

                   (12.42)

З урахуванням (12.25) і (12.42) можна встановити важливий зв’язок між дисперсією Dx і спектральною щільністю Sx(w) випадкового процесу:

                               (12.43)

Взаємну спектральну щільність Sxg(jw) двох стаціонарних випадкових процесів X(t) і G(t) визначають як перетворення Фур’є від взаємної кореляційної функції Rxg(t):

                                           (12.44)

Взаємна спектральна щільність Sxg(jw) є мірою статистичного зв’язку між двома стаціонарними випадковими процесами X(t) і G(t). Якщо ці процеси некорельовані й мають рівні нулю середні значення, то взаємна спектральна щільність дорівнює нулю, тобто Sxg(jw)=0.

На відміну від спектральної щільності Sx(w) взаємна спектральна щільність не є парною функцією w і являє собою не дійсну, а комплексну функцію.

Розглянемо без доказу деякі властивості спектральної щільності Sx(w).

1. Спектральна щільність білого шуму є постійною на всьому діапазоні частот (рис. 12.1, г):

Sx(w) = N = const.                                                                              (12.45)

Це означає, що енергія білого шуму розподілена за всім спектром рівномірно, а сумарна енергія процесу дорівнює нескінченності, що фізично неможливо. Тобто білий шум є математичною ідеалізацією реального процесу. Походження терміну “білий шум” пояснюється аналогією такого процесу з білим світлом, що має однакові інтенсивності всіх компонент.

2. Спектральна щільність постійного сигналу x(t) = A0 являє собою d-функцію, що розташована на початку координат (рис. 12.1, а):

Sx(w) = 2pA02d(w).                                                               (12.46)

Фізично це означає, що вся потужність постійного сигналу зосереджена на нульовій частоті.

3. Спектральна щільність періодичного сигналу x(t)=Asin(w1t+j) являє собою дві d-функції, що розташовані симетрично відносно початку координат при w = w1 і w = -w1 (рис. 12.1, д):

.                            (12.47)

Це означає, що вся потужність періодичного сигналу зосереджена на двох частотах: w1 і -w1 (для зони додатних частот уся потужність періодичного сигналу зосереджена на одні частоті w1).

4. Спектральна щільність часової функції, що розкладається у ряд Фур’є має вигляд:

.    (12.48)

Цій спектральній щільності відповідає лінійчатий спектр (рис. 12.2) із d-функціями, що розташовані на додатних і від’ємних частотах гармонік (d-функції умовно зображені так, що їх висоти показані пропорційними коефіцієнтам при одиничній d-функції, тобто величинам .

 

5. Спектральна щільність випадкового процесу, що не містить періодичну складову, являє собою графік без чітко виражених піків (рис. 12.1, б, в). У цьому випадку спектральна щільність апроксимується аналітичним виразом:

Sx(w)=2Dxa/(a2+w2)=

=2DxTx/(1+w2 Tx2),         (12.49)

де Dx – дисперсія; a = const – параметр затухання; Тх = 1/a - сталий коефіцієнт.

Із рис. 12.1, б, в видно, що чим ширше графік спектральної щільності Sx(w), тим вуже графік відповідної кореляційної функції Rx(t), і навпаки.

6. Спектральна щільність випадкового процесу, на який накладені періодичні складові, містить безперервну частину й окремі d-функції, що відповідають частотам цих періодичних складових.

Окремі піки на графіку спектральної щільності вказують на те, що випадковий процес змішаний із захованими періодичними складовими. На рис. 12.3 наведено графік спектральної щільності випадкового процесу, на який накладено один періодичний сигнал з частотою wk.

Іноді розглядають нормовану спектральну щільність bх(w), яка має розмірність часу:

bх(w) = Sx(w)/Dx.                                                                          

 

Під час дослідження автоматичних систем керування користуються ще однією характеристикою стаціонарного випадкового процесу – спектральною щільністю Sx(w), яка у багатьох випадках є більш зручною, ніж кореляційна функція.

Термін “спектральна щільність” походить з теорії електричних коливань. Фізичний зміст спектральної щільності полягає в тому, що вона характеризує розподіл потужності сигналу за частотним спектром (кожна елементарна потужність, яка відповідає нескінченно малій ділянці спектра від w до w + dw, пропорційна значенню функції Sx(w) для даної частоти w). Спектральну щільність можна визначити експериментально через середню величину квадрата амплітуди гармонік реалізації випадкового процесу. Прибори, що застосовують для цього, називаються спектрометрами.

Аналітично спектральна щільність Sx(w) випадкового процесу X(t) визначається як перетворення Фур’є кореляційної функції Rx(t):

                                                                                                          (12.38)

За допомогою формули Ейлера  вираз (12.38) можна подати у вигляді:

                          (12.39)

Оскільки  - непарна функція t, то другий інтеграл у виразі (12.39) дорівнює нулю. Тоді з урахуванням, що  - парна функція t, отримаємо:

                         (12.40)

Оскільки , то з (12.40) випливає:

Sx(w) = Sx(-w).                                                                     (12.41)

Таким чином, спектральна щільність Sx(w) є дійсною і парною функцією частоти w, тому графік цієї функції завжди симетричний відносно осі ординат.

Якщо спектральна щільність відома, то за формулою оберненого перетворення Фур’є можна знайти відповідну кореляційну функцію:

                   (12.42)

З урахуванням (12.25) і (12.42) можна встановити важливий зв’язок між дисперсією Dx і спектральною щільністю Sx(w) випадкового процесу:

                               (12.43)

Взаємну спектральну щільність Sxg(jw) двох стаціонарних випадкових процесів X(t) і G(t) визначають як перетворення Фур’є від взаємної кореляційної функції Rxg(t):

                                           (12.44)

Взаємна спектральна щільність Sxg(jw) є мірою статистичного зв’язку між двома стаціонарними випадковими процесами X(t) і G(t). Якщо ці процеси некорельовані й мають рівні нулю середні значення, то взаємна спектральна щільність дорівнює нулю, тобто Sxg(jw)=0.

На відміну від спектральної щільності Sx(w) взаємна спектральна щільність не є парною функцією w і являє собою не дійсну, а комплексну функцію.

Розглянемо без доказу деякі властивості спектральної щільності Sx(w).

1. Спектральна щільність білого шуму є постійною на всьому діапазоні частот (рис. 12.1, г):

Sx(w) = N = const.                                                                              (12.45)

Це означає, що енергія білого шуму розподілена за всім спектром рівномірно, а сумарна енергія процесу дорівнює нескінченності, що фізично неможливо. Тобто білий шум є математичною ідеалізацією реального процесу. Походження терміну “білий шум” пояснюється аналогією такого процесу з білим світлом, що має однакові інтенсивності всіх компонент.

2. Спектральна щільність постійного сигналу x(t) = A0 являє собою d-функцію, що розташована на початку координат (рис. 12.1, а):

Sx(w) = 2pA02d(w).                                                               (12.46)

Фізично це означає, що вся потужність постійного сигналу зосереджена на нульовій частоті.

3. Спектральна щільність періодичного сигналу x(t)=Asin(w1t+j) являє собою дві d-функції, що розташовані симетрично відносно початку координат при w = w1 і w = -w1 (рис. 12.1, д):

.                            (12.47)

Це означає, що вся потужність періодичного сигналу зосереджена на двох частотах: w1 і -w1 (для зони додатних частот уся потужність періодичного сигналу зосереджена на одні частоті w1).

4. Спектральна щільність часової функції, що розкладається у ряд Фур’є має вигляд:

.    (12.48)

Цій спектральній щільності відповідає лінійчатий спектр (рис. 12.2) із d-функціями, що розташовані на додатних і від’ємних частотах гармонік (d-функції умовно зображені так, що їх висоти показані пропорційними коефіцієнтам при одиничній d-функції, тобто величинам .

 

5. Спектральна щільність випадкового процесу, що не містить періодичну складову, являє собою графік без чітко виражених піків (рис. 12.1, б, в). У цьому випадку спектральна щільність апроксимується аналітичним виразом:

Sx(w)=2Dxa/(a2+w2)=

=2DxTx/(1+w2 Tx2),         (12.49)

де Dx – дисперсія; a = const – параметр затухання; Тх = 1/a - сталий коефіцієнт.

Із рис. 12.1, б, в видно, що чим ширше графік спектральної щільності Sx(w), тим вуже графік відповідної кореляційної функції Rx(t), і навпаки.

6. Спектральна щільність випадкового процесу, на який накладені періодичні складові, містить безперервну частину й окремі d-функції, що відповідають частотам цих періодичних складових.

Окремі піки на графіку спектральної щільності вказують на те, що випадковий процес змішаний із захованими періодичними складовими. На рис. 12.3 наведено графік спектральної щільності випадкового процесу, на який накладено один періодичний сигнал з частотою wk.

Іноді розглядають нормовану спектральну щільність bх(w), яка має розмірність часу:

bх(w) = Sx(w)/Dx.