Понятие случайной функции и ее характеристики. Случайные функции и их характеристики (примеры)

Лекция 13 Случайные процессы Основные понятия. Закон распределения и . Стационарные, эргодичес

Лекция 13
Случайные процессы
Основные понятия. Закон распределения и основные характеристики
случайных процессов. Стационарные, эргодические, элементарные случайные
процессы
(Ахметов С.К.)

Определения

Случайным процессом X(t) называется процесс, значение которого при
любом фиксированном t = ti является СВ X(ti)
Реализацией случайного процесса X(t) называется неслучайная функция
х(t), в которую превращается случайный процесс X(t) в результате опыта
Сечение случайного процесса (случайной функции) – это случайная
величина X(ti) при t = ti.

Случайный процесс X(t) называется процессом с дискретным
временем, если система, в которой он протекает, может менять
свои состояния только в моменты t1, t2, t3….. tn, число которых
конечно или счетно

временем, если переходы системы из состояния в состояние могут
происходить в любой момент времени t наблюдаемого периода
Случайный процесс X(t) называется процессом с непрерывным
состоянием, если его сечение в любой момент t представляет
собой не дискретную, а непрерывную величину
Случайный процесс X(t) называется процессом с дискретным
состоянием, если в любой момент времени t множество его
состояний конечно или счетно, то есть, если его сечение в любой
момент t характеризуется дискретной случайной величиной

Классификация случайных процессов

Таким образом, все СП можно разделить на 4 класса:
Процессы
временем;
Процессы
временем;
Процессы
временем;
Процессы
временем.
с дискретным состоянием и дискретным
с дискретным состоянием и непрерывным
с непрерывным состоянием и дискретным
с непрерывным состоянием и непрерывным
Большинство гидрологических процессов являются
процессами с непрерывным состоянием и непрерывным
временем. Но при вводе шага дискретности по времени они
превращаются из процесса с непрерывным временем в
процесс с дискретным временем. При этом процесс остается
непрерывным по состоянию

Основные характеристики случайных процессов

Сечение случайного процесса х(t) при любом фиксированном значении
аргумента t представляет собой СВ, которая имеет закон распределения
F (t, x) = P{X(t) < x}
Это одномерный закон распределения случайного процесса X(t)
Но, он не является исчерпывающей характеристикой СП, так как
характеризует свойства любого, но отдельно взятого сечения и не дает
представления о совместном распределении двух или более сечений.
Это видно на рисунке, где показаны два СП с разными вероятностными
структурами, но примерное одинаковыми распределениями СВ в каждом
сечении

Основные характеристики случайных процессов

Поэтому более полной характеристикой СП является двумерный закон
распределения
F(t1,t2,x1,x2) = P {X(t1) < x1, X(t2) < x2}
В общем случае исчерпывающей характеристикой СП является n мерный закон распределения
На практике вместо многомерных законов распределения используют
основные характеристики СП, такие как МО, дисперсия, начальные и
центральные моменты, но только для СП эти характеристики будут не
числами, а функциями
Математическое ожидание СП X(t) - неслучайная функция mx(t),
которая при любом значении аргумента t равна математическому
ожиданию соответствующего сечения СП:
где f1(x,t) – одномерная плотность распределения СП X(t)

Основные характеристики случайных процессов

МО СП представляет собой некоторую «среднею» функцию, вокруг
которой происходит разброс СП
Если из СП X(t) вычесть его МО, то получим центрированный СП:
X0(t) = X(t) – mx(t)
Дисперсией СП X(t) называется неслучайная функция СП X(t), которая
при любом значении аргумента t равна дисперсии соот – го сечения СП X(t)
СП X(t) = D = M{2}
Среднеквадратическим отклонением СП X(t) называется неслучайная
функция σx(t), которая равна корню квадратному из дисперсии СП:
σx(t) = σ = √Dx(t)

Основные характеристики случайных процессов

Для полной характеристики СП необходимо учитывать взаимосвязь
между различными сечениями. Поэтому, к комплексу перечисленных
характеристик нужно добавить также корреляционную функцию СП:
Корреляционной (или ковариационной) функцией СП X(t) называется
неслучайная функция Kx(t,t’), которая при каждой паре значений
аргументов t и t’ равна корреляции соответствующих сечений X(t) и X(t’)
Kx(t,t’) = M{ x }
или
Kx(t,t’) = M = M - mx(t) mx(t’)
Свойства корреляционной функции:
- при равенстве t = t’ корреляционная функция равна дисперсии СП, т. е.
Kx(t,t’) = Dx(t)
- корреляционная функция Kx(t,t’) симметрична относительно своих
аргументов, то есть
Kx(t,t’) = Kx(t’,t)

Основные характеристики случайных процессов

Нормированной корреляционной функцией rx(t,t’) СП X(t) называется
функция, полученная делением корреляционной функции на произведение
среднеквадратических отклонений σx(t) σx(t’)
rx(t,t’) = /(σx(t)σx(t’)) = /(√(Dx(t)Dx(t’))
Свойства нормированной корреляционной функции:
- при равенстве аргументов t и t’ нормированная корреляционная функция
равна единице rx(t,t’) = 1
-нормированная корреляционная функция симметрична относительно
своих аргументов, то есть rx(t,t’) = rx(t’,t)
- нормированная корреляционная функция по модулю не превышает
единицу rx(t,t’) ≤ 1

Основные характеристики случайных процессов

Скалярный СП – это когда речь идет об одном СП, как было до сих
пор.
Векторный СП – это когда рассматриваются 2 и более СП.
Допустим заданы расходы воды в нескольких створах во времени
В этом случае для характеристики СП нужно знать для каждого
скалярного процесса:
-МО
-корреляционную функцию
-взаимную корреляционную функцию
Взаимной корреляционной функцией Ri,j(t,t’) двух случайных
процессов X(t) и X(t’) называется неслучайная функция двух
аргументов t и t’, которая при каждой паре значений t и t’ равна
ковариации (линейной связи) двух сечений СП X(t) и X(t’)
Ri,j(t,t’) = M

Стационарные случайные процессы

Стационарные СП – это СП, у которых все вероятностные
характеристики не зависят от времени, то есть:
- mx = const
- Dx = const
Отличие стационарных и нестационарных СП показано на рисунке
а) стационарный СП
б) нестационарный СП по МО
с) нестационарный СП по дисперсии

Свойства корреляционной функции стационарного СП

Четность функции от своего аргумента, то есть kx(τ) = kx(-τ)
τ – сдвиг всех временных аргументов СП на одинаковую величину Θ
k – корреляционная функция СП при Kx(t1,t2) = kx(τ)
Значение корреляционной функции стационарного СП при нулевом
сдвиге τ равно дисперсии СП
Dx = Kx(t1,t2) = kx(t - t) = kx(0)
|kx(τ)| ≤ kx(0)
Помимо корреляционной функции используется нормированная
корреляционная функция стационарного СП, которую называют
автокорреляционной функцией
rx(τ) = kx(τ)/Dx = kx(τ)/kx(0)

Эргодические случайные процессы

Эргодическое свойство СП – это когда по одной достаточно
продолжительной реализации СП можно судить о СП в целом
Достаточным условием эргодичности СП является условие
lim kx(τ) = 0
при τ → ∞, т.е. при увеличении сдвига между сечениями
корреляционная функция затухает
На рисунке показаны а) неэргодический и б) эргодический СП
На практике (чаще всего) мы вынуждены принимать гипотезу о
стационарности и эргодичности гидрологических процессов, чтобы по
имеющемуся раду судить о всей генеральной совокупности

Элементарные случайные процессы

Элементарный СП (э.с.п) – это такая функция аргумента t, для
которой зависимость от t представлена обычной неслучайной функцией,
в которую в качестве аргумента входит одна или несколько обычных СВ
То есть каждая СВ порождает свою реализацию СП
К примеру, если в каком – то створе ветвь спада половодья является
устойчивой и описывается уравнением
Q(t) = Qнe-at
a - районный параметр (a>0)
Qн - расход воды в начальный момент времени t = t0
то процесс спада половодья можно считать э.с.п., где a - неслучайная
величина, Qн -случайная величина

1. ПОНЯТИЕ СЛУЧАЙНОЙ ФУНКЦИИ

До определенных пор теория вероятностей ограничивалась понятием случайных величин. Их использование позволяет выполнять статические расчеты, учитывающие случайные факторы. Однако механические системы подвергаются также разнообразным динамическим, то есть изменяющимся во времени воздействиям случайного характера. К ним относятся, в частности, вибрационные и ударные воздействия при движении транспортных средств, аэродинамические силы, вызванные атмосферной турбулентностью, сейсмические силы, нагрузки, обусловленные случайными отклонениями от номинальных режимов работы машин.

Случайные динамические явления изучаются при анализе тенденций в экономике (например, изменения курса акций или валюты). Работа в условиях случайных возмущений характерна для систем управления разнообразными динамическими объектами.

Для анализа подобных явлений используется понятие случайной функции . Случайной функцией X (t ) называется такая функция аргумента t , значение которой при любом t является случайной величиной. Если аргумент принимает дискретные значения t 1 , t 2 , …, t k то говорят о случайной последовательности X 1 , X 2 ,…, X k , где X i = X (t i ).

Во многих практических задачах неслучайный аргумент t имеет смысл времени, при этом случайную функцию называют случайным процессом , а случайную последовательностьвременным рядом . Вместе с тем, аргумент случайной функции может иметь и иной смысл. Например, речь может идти о рельефе местности Z (x , y ), где аргументами являются координаты местности x и y , а роль случайной функции играет высота над уровнем моря z. В дальнейшем, для определенности, имея в виду приложения случайных функций к исследованию динамических систем, будем говорить о случайных процессах.

Предположим, что при исследовании случайного процесса X (t ) произведено n независимых опытов, и получены реализации

представляющие собой n детерминированных функций. Соответствующее семейство кривых в определенной мере характеризует свойства случайного процесса. Так, на рис.1.1а представлены реализации случайного процесса с постоянными средним уровнем и разбросом значений возле среднего, на рис. 1.1б – реализации случайного процесса с постоянным средним и изменяющимся разбросом, на рис. 1.1в – реализации случайного процесса с изменяющимися во времени средним и разбросом.



Рис.1.1. Типичные реализации случайных процессов

На рис. 1.2 показаны реализации двух случайных процессов, имеющих одинаковый средний уровень и разброс, но различающихся плавностью. Реализации случайного процесса на рис. 1.2а имеют высокочастотный характер, а на рис. 1.2б – низкочастотный.

Рис. 1.2. Высокочастотный и низкочастотный случайные процессы

Таким образом, X (t ) можно рассматривать и как совокупность всевозможных реализаций, которая подчиняется определенным вероятностным закономерностям. Как и для случайных величин, исчерпывающую характеристику этих закономерностей дают функции или плотности распределения. Случайный процесс считается заданным, если заданы все многомерные законы распределения случайных величин X (t i ), X (t 2 ), …, X (t n ) для любых значений t 1 , t 2 , …, t n из области изменения аргумента t . Речь идет, в частности, об одномерной плотности распределения , двумерной плотности распределения и т.д. .

Для упрощения анализа в большинстве случаев ограничиваются моментными характеристиками, причем чаще всего используют моменты первого и второго порядков. Для характеристики среднего уровня случайного процесса служит математическое ожидание

. (1.1)

Для характеристики амплитуды отклонений случайного процесса от среднего уровня служит дисперсия

Для характеристики изменчивости (плавности) случайного процесса служит корреляционная (автокорреляционная) функция

(1.3)

Как следует из (1.3), корреляционная функция представляет собой ковариацию случайных величин X (t 1) и X (t 2). Ковариация же, как известно из курса теории вероятностей, характеризует взаимозависимость между X (t 1) и X (t 2).

В рамках корреляционной теории случайных функций, которая оперирует лишь моментами первого и второго порядков, могут быть решены многие технические задачи. В частности, могут быть определены априорная, а также условная вероятности выхода случайного процесса за пределы заданных границ. Вместе с тем, некоторые важные в практическом плане задачи не решаются средствами корреляционной теории и требуют использования многомерных плотностей распределения. К таким задачам относится, например, расчет среднего времени нахождения случайного процесса выше или ниже заданной границы.

2. ТИПЫ СЛУЧАЙНЫХ ПРОЦЕССОВ

2.1. Квазидетерминированные случайные процессы

Лабораторная работа № 4

СЛУЧАЙНЫЕ ПРОЦЕССЫ
И ИХ ХАРАКТЕРИСТИКИ

4.1. ЦЕЛЬ РАБОТЫ

Ознакомление с основными понятиями теории случайных процессов. Выполнение измерений моментных характеристик и оценки ПРВ мгновенных значений случайных процессов. Анализ вида автокорреляционной функции (АКФ) и спектральной плотности мощности (СПМ) случайного процесса. Исследование преобразований случайного процесса линейными стационарными и нелинейными безынерционными цепями.

4.2. ТЕОРЕТИЧЕСКИЕ СВЕДЕНИЯ

Случайные события и случайные величины
Событие , которое может произойти или не произойти в некотором опыте, называется случайным событием и характеризуется вероятностью осуществления
. Случайная величина (СВ)
может принять в опыте одно значение из некоторого множества
; это значение называется реализацией данной СВ. может быть, например, множеством вещественных чисел или его подмножеством. Если множество конечно или счетно (дискретная СВ), можно говорить о вероятности
осуществления события, которое заключается в принятии случайной величиной значения , т. е. на множестве значений дискретной случайной величины задается распределение вероятностей . Если множество несчетно (например, вся вещественная прямая), то полное описание случайной величины дает функция распределения, определяемая выражением

,

где
. Если функция распределения непрерывна и дифференцируема, то можно определить плотность распределения вероятностей (ПРВ), называемую также для краткости плотностью вероятности
(а иногда просто плотностью):

, при этом
.

Очевидно, функция распределения – неотрицательная неубывающая функция со свойствами
,
. Следовательно,
ПРВ – неотрицательная функция, удовлетворяющая условию нормировки
.

Иногда ограничиваются числовыми характеристиками случайной величины, чаще всего моментами . Начальный момент -го порядка (-й начальный момент)

,

где горизонтальная черта и
– символические обозначения интегрального оператора усреднения по ансамблю . Первый начальный момент
, называется математическим ожиданием или центром распределения.

Центральный момент -го порядка (-й центральный момент)

Наиболее употребительным из центральных моментов является второй центральный момент, или дисперсия

Вместо дисперсии часто оперируют среднеквадратическим отклонением (СКО) случайной величины
.

^ Средний квадрат , или второй начальный момент
, связан с дисперсией и математическим ожиданием:

Для описания формы ПРВ используют коэффициент асимметрии
и коэффициент эксцесса
(иногда эксцесс характеризуют величиной
).

Часто используется нормальное, или гауссовское (гауссово), распределение с ПРВ

,

где и – параметры распределения (математическое ожидание и СКО соответственно). Для гауссовского распределения
,
.

Две случайные величины и характеризуются совместной плотностью распределения
. Числовыми характеристиками совместной плотности служат начальные и центральные смешанные моменты

,
,

где и – произвольные целые положительные числа;
и – математические ожидания СВ x и y .

Наиболее часто используются смешанные моменты второго порядка – начальный (корреляционный момент):

и центральный (ковариационный момент, или ковариация )

.

Для пары гауссовских случайных величин двумерная совместная ПРВ имеет вид

где , – среднеквадратические отклонения;
– математические ожидания; коэффициент корреляции – нормированный ковариационный момент

.

При нулевом коэффициенте корреляции очевидно,

,

т. е. некоррелированные гауссовские случайные величины независимы.
^

Случайные процессы

Случайный процесс – это последовательность случайных величин, упорядоченная по возрастанию некоторой переменной (чаще всего времени). Перейти от описания случайной величины к описанию случайного процесса можно, рассматривая совместные распределения двух, трех и более значений процесса в некоторые различные моменты времени. В частности, рассматривая процесс в временных сечениях (при
), получаем -мерные совместные функцию распределения и плотность распределения вероятностей случайных величин

, определяемые выражением

.

Случайный процесс считается полностью определенным, если для любого можно записать его совместную ПРВ при любом выборе моментов времени
.

Часто при описании случайного процесса можно ограничиться совокупностью его смешанных начальных моментов (если они существуют, т.е. сходятся соответствующие интегралы)

и смешанных центральных моментов

при целых неотрицательных
и целом .

В общем случае моменты совместной ПРВ зависят от расположения сечений на оси времени и называются моментными функциями . Чаще всего используют второй смешанный центральный момент

,

называемый функцией автокорреляции или автокорреляционной функцией (АКФ). Напомним, что здесь и далее явно не указана зависимость от времени, а именно – функциями времени являются
,
и
.

Можно рассматривать совместно два случайных процесса
и
; такое рассмотрение предполагает их описание в виде совместной многомерной ПРВ, а также в виде совокупности всех моментов, в том числе смешанных. Наиболее часто при этом используют второй смешанный центральный момент

,

называемый взаимно корреляционной функцией
.

Среди всех случайных процессов выделяют СП, для которых совместная -мерная ПРВ не изменяется при одновременном изменении (сдвиге) всех временных сечений на одну и ту же величину. Такие процессы называются стационарными в узком смысле или строго стационарными .

Чаще рассматривают более широкий класс случайных процессов с ослабленным свойствам стационарности. СП называется стационарным в широком смысле , если при одновременном сдвиге сечений не изменяются лишь его моменты не выше второго порядка. Практически это означает, что СП стационарен в широком смысле, если он имеет постоянные среднее (математическое ожидание ) и дисперсию
, а АКФ зависит только от разности моментов времени, но не от их положений на временнóй оси:

1)
,

2) ,
.

Заметим, что
, откуда и следует постоянство дисперсии.

Нетрудно убедиться, что процесс, стационарный в узком смысле, стационарен и в широком смысле. Обратное утверждение вообще неверно, хотя существуют процессы, для которых стационарность в широком смысле влечет стационарность в узком смысле.

Совместная -мерная ПРВ отсчетов
гауссовского процесса, взятых во временных сечениях , имеет вид

, (4.1)

где – определитель квадратной матрицы, составленной из попарных коэффициентов корреляции отсчетов;
алгебраическое дополнение элемента этой матрицы.

Совместная гауссовская ПРВ при любом полностью определяется математическими ожиданиями, дисперсиями и коэффициентами корреляции отсчетов, т. е. моментными функциями не выше второго порядка. Если гауссовский процесс стационарен в широком смысле, то все математические ожидания одинаковы, все дисперсии (а значит, и СКО) равны друг другу, а коэффициенты корреляции определяются только тем, насколько временные сечения отстоят друг от друга. Тогда, очевидно, ПРВ (4.1) не изменится, если все временные сечения сдвинуть влево или вправо на одну и ту же величину. Отсюда следует, что гауссовский процесс, стационарный в широком смысле, стационарен и в узком смысле (строго стационарен).

Среди строго стационарных случайных процессов часто выделяют более узкий класс эргодических случайных процессов. Для эргодических процессов моменты, найденные усреднением по ансамблю, равны соответствующим моментам, найденным усреднением по времени:

,

(здесь – символическое обозначение оператора усреднения по времени).

В частности, для эргодического процесса математическое ожидание, дисперсия и АКФ равны соответственно

,

,

Эргодичность весьма желательна, так как дает возможность практически измерять (оценивать) числовые характеристики случайного процесса. Дело в том, что обычно наблюдателю доступна лишь одна (хотя, возможно, достаточно длинная) реализация случайного процесса. Эргодичность означает, по существу, что эта единственная реализация является полноправным представителем всего ансамбля .

Измерение характеристик эргодического процесса может быть выполнено при помощи простых измерительных устройств; так, если процесс представляет собой напряжение, зависящее от времени, то вольтметр магнитоэлектрической системы измеряет его математическое ожидание (постоянную составляющую), вольтметр электромагнитной или термоэлектрической системы, подключенный через разделительную емкость (для исключения постоянной составляющей), – его среднеквадратическое значение (СКО). Устройство, структурная схема которого показана на рис. 4.1, позволяет измерить значения функции автокорреляции при различных . Фильтр нижних частот играет здесь роль интегратора, конденсатор выполняет центрирование процесса, так как не пропускает постоянную составляющую тока. Это устройство называется коррелометром .


Рис. 4.1

Достаточными условиями эргодичности стационарного случайного процесса служат условие
, а также менее сильное условие Слуцкого
.
^

Дискретные алгоритмы оценивания параметров СП

Приведенные выше выражения для нахождения оценок параметров СП и корреляционной функции справедливы для непрерывного времени. В данной лабораторной работе (как и во многих современных технических системах и приборах) аналоговые сигналы генерируются и обрабатываются цифровыми устройствами, что приводит к необходимости некоторого изменения соответствующих выражений. В частности, для определения оценки математического ожидания используется выражение выборочного среднего

,

где
– последовательность отсчетов процесса (выборка объема
). Оценкой дисперсии служит выборочная дисперсия , определяемая выражением

.

Оценка автокорреляционной функции, иначе называемая коррелограммой , находится как

.

Оценкой плотности распределения вероятностей мгновенного значения ССП служит гистограмма . Для ее нахождения диапазон возможных значений СП разбивается на интервалов равной ширины, затем для каждого -го интервала подсчитывается количество отсчетов выборки, попавших в него. Гистограмма представляет собой набор чисел
, обычно изображаемый в виде решетчатой диаграммы. Количество интервалов при заданном объеме выборки выбирается исходя из компромисса между точностью оценивания и разрешением (степенью подробности) гистограммы.
^

Корреляционно-спектральная теория случайных процессов

Если интересоваться только моментными характеристиками первого и второго порядка, которые определяют свойство стационарности в широком смысле, то описание стационарного СП осуществляется на уровне автокорреляционной функции
и спектральной плотности мощности
, связанных парой преобразований Фурье (теорема Винера–Хинчина ):

,
.

Очевидно, СПМ – неотрицательная функция. Если процесс имеет ненулевое математическое ожидание , то к СПМ добавляется слагаемое
.

Для вещественного процесса АКФ и СПМ – четные вещественные функции.

Иногда можно ограничиться числовыми характеристиками – интервалом корреляции и эффективной шириной спектра. ^ Интервал корреляции определяют по-разному, в частности, известны следующие определе

Во всех предыдущих параграфах этой главы предполагалось, что управляющие и возмущающие воздействия являются определенными функциями времени. Однако для систем автоматического управления, работающих в реальных условиях, характерно, что эти воздействия носят случайный характер и принципиально непредсказуемы.

Рассмотрим, например, работу следящей системы, управляющей антенной радиолокатора. Для этой системы управляющим воздействием является положение цели, а возмущающими воздействиями можно считать ветровые нагрузки на антенну, отклонения луча от направления на цель из-за рефракции в атмосфере, собственные шумы в усилительном тракте системы, помехи от источников питания и т. п. Все эти процессы обусловлены множеством взаимодействующих причин и носят настолько сложный характер, что их нельзя представить какой-либо заданной функцией времени. То же самое можно сказать и относительно управляющего воздействия. На практике его нельзя считать типовым, например ступенчатым, линейно-растущим, синусоидальным или каким-либо регулярным сигналом. Реально цель маневрирует, поэтому ее положение в любой последующий момент не может быть точно предсказано. На этом маневрирование накладывается постоянное блуждание отражающей точки по корпусу цели.

Таким образом, сигналы управления и возмущения в реальных условиях являются случайными процессами. Случайным, или стохастическим процессом

называют такую функцию времени которая при каждом значении аргумента является случайной величиной. Если вместо времени употребляют другую независимую переменную, то используют термин случайная функция. При многократном воспроизведении условий протекания случайного процесса последний принимает каждый раз различные конкретные значения. Эти значения как функции времени называют реализациями случайного процесса. Типичный вид нескольких реализаций стохастического процесса ошибки угловой координаты цели, отслеживаемой радиолокационной станцией, представлен на рис. XIII. 14.

Математическое описание случайного процесса. При фиксированном значении аргумента случайный процесс является случайной величиной, полное описание которой дает функция распределения

т. е. вероятность того, что в данный момент случайная величина примет значение, меньшее Как известно из теории вероятностей, вместо функции распределения часто удобнее пользоваться плотностью вероятности, являющейся ее производной (в обобщенном смысле):

Если зафиксировать два момента времени то значения случайного процесса образуют систему двух случайных величин или двумерный случайный вектор. Для его полного описания требуется знать двумерную функцию распределения

Рис. ХIII.14. Стохастический процесс ошибки измерения угловой координаты цели, отслеживаемой радиолокационной станцией

или двумерную плотность

которые зависят от как от параметров.

Для более подробного описания случайного процесса в произвольные моменты времени аналогично вводятся функции распределения и плотности более высоких порядков. Таким образом, полное статистическое описание случайной функции (процесса) даетесконечная последовательность ее функций распределения:

или последовательность их производных

Каждый из членов этих последовательностей имеет обычные свойства функций распределения или соответственно плотностей. Кроме того, каждый следующий член последовательности определяет все предыдущие. Например, если положить то

аналогичные формулы имеем и для любых других моментов времени.

Это условие называют условием согласованности семейства функций распределения. Справедливо также условие симметрии:

В общем случае плотности или функции распределения более высокого порядка не определяются плотностями или функциями более низких порядков.

Однако часто полезно рассматривать так называемый абсолютно случайный процесс, значения которого независимы в совокупности для любых Для такого процесса плотность распределения любого порядка определяется через одномерную:

Такой процесс является математическим упрощением, поскольку при достаточно близких значениях значения любого реального процесса близки, и, следовательно, зависимы. Другим крайним случаем является вырожденный, или сингулярный процесс, определяемый одной или несколькими случайными величинами; например,

где - случайная величина; - известные константы. Такой процесс становится полностью известным, если можно измерить его в какой-либо момент времени. В более общем случае сингулярный случайный процесс характеризуется совокупностью случайных величин например,

где - обычные (детерминированные функции времени).

Рис. XIII.15. Возможные реализации двух случайных функций: а - с высокочастотными составляющими; б - с низкочастотными составляющими

Моментные функции. В практических задачах обычно пользуются более простыми характеристиками случайных процессов - моментными функциями. Моментом первого порядка или математическим ожиданием процесса называют выражение

Если эту функцию рассматривать в зависимости от то около среднего значения функции будут группироваться все реализации случайного процесса (рис. XIII.15).

Математические ожидания более высоких степеней носятназвания начальных моментов порядка

Случайная функция имеет нулевое среднее значение и называется центрированной. Центральным моментом -порядка процесса называется математическое ожидание степени центрированного процесса

Меру рассеяния значений случайного процесса относительно математического ожидания его определяет момент второго порядка, называемый чаще дисперсией:

Однако характеристики случайного процесса, основанные на первой плотности не отражают изменения реализаций во времени. Например, два процесса с одной и той же первой плотностью (рис. XIII. 15, а и б) различаются по скорости изменения реализаций, т. е. по степени взаимосвязи между двумя значениями, принимаемыми в одной реализации в различные моменты времени. Для описания временной внутренней структуры случайных процессов используют корреляционную функцию

Эту функцию часто называют также автокорреляционной, или ковариацией, она играет основную роль в теории случайных процессов.

Легко показать, что корреляционная функция симметрична относительно своих аргументов а при ее значение равно дисперсии случайного процесса . В самом деле,

Для характеристики точности систем автоматического регулирования удобно использовать нецентрированную корреляционную функцию:

называемую также вторым начальным моментом процесса.

Связь между устанавливается следующими преобразованиями:

При средний квадрат процесса будет

В системах автоматического регулирования часто действует несколько случайных возмущающих или управляющих сигналов, независимых или взаимосвязанных. Мерой взаимосвязи двух случайных процессов служит взаимная корреляционная функция

где - совместная плотность вероятности для независимых процессов

Для взаимной корреляционной функции справедливо равенство

Теория случайных процессов, в которой используются лишь моменты первого и второго порядков называется корреляционной теорией. Она была создана основополагающими работами А. Н. Колмогорова , Д. Я. Хинчина , Н. Вииера. Большой вклад в ее развитие внесли советские ученые В. С. Пугачев , В. В. Солодовников и др.

Стационарные случайные процессы. При рассмотрении различных случайных процессов выделяют группу процессов, статистические свойства которых не изменяются при сдвиге во времени. Такие процессы называются стационарными. Рассматривая множество реализаций случайного процесса, приведенного на рис. XIII. 14, можно предположить, что в данном случае начало отсчета времени может быть выбрано произвольно, т. е. налицо стационарный процесс. Напротив, на рис. XIII. 15, очевидно, имеем примеры нестационарных процессов.

Исследование систем, случайные процессы в которых стационарны, значительно проще, чем исследование систем с нестационарными процессами. Однако процессы во многих системах регулирования можно приближенно рассматривать как стационарные. Это имеет большое прикладное значение в теории стационарных случайных процессов.

По определению стационарного случайного процесса его математическое ожидание должно быть постоянно при сдвиге аргумента на любой тервал Т:

а корреляционная функция удовлетворяет соотношению

Полагая находим, что корреляционная функция стационарного процесса зависит только от разности отсчетов

Эргодические свойства случайных процессов. Если мы имеем совокупность, или, как говорят, ансамбль реализаций, то математическое ожидание и корреляционная функция получаются усреднением по ансамблю реализаций случайного процесса, т. е. «поперек» процесса в одном или соответственно двух его сечениях. Интересно рассмотреть также результаты усреднения реализаций стационарного процесса по времени вдоль оси на интервале , определив эту операцию естественным образом:

Эта величина различна для разных реализаций случайного процесса и сама является случайной. Можно показать, что ее математическое ожидание для стационарного процесса равно . В то же время дисперсия этой величины, как показывают непосредственные расчеты,

Рис. XIII.16. Структурная схема коррелятора

Условия эргодичности процесса по , сформулированные В. С. Пугачевым , содержат более высокие моменты случайного процесса и здесь не приводятся.

Свойства эргодичности случайных процессов позволяют заменить усреднение по множеству реализаций, практически редко осуществимое, усреднением по времени, взятым по одной реализации, когда Т велико..

Не все стационарные процессы имеют эргодические свойства. Например, процесс, все реализации которого есть случайные величины, не изменяющиеся во времени, как легко убедиться, неэргодичен. Отсюда следует, что физический смысл эргодичности заключается в «хорошей перемешиваемости» реализаций случайного процесса. Поскольку это имеет место практически во всех приложениях, в дальнейшем будем предполагать рассматриваемые процессы эргодическими.

Для таких процессов можно экспериментально определить среднее значение и корреляционную функцию процесса с помощью специальных приборов - корреляторов. Принцип действия корреляторов ясен из рис. XIII.16.

Подавая на вход коррелятора единичный сигнал, на его выходе при достаточно большом времени интегрирования Т будем иметь среднее значение процесса х, приблизительно совпадающее с его математическим ожиданием Если же то в результате будем иметь второй начальный момент по которому легко определить и корреляционную функцию.

Задание на курсовую работу

Дано: пять начальных моментов

а1 = 1, а2 = 2, а3 = 2, а4 = 1, а5 = 1 г = 0, µ 0 = 1).

Найти: пять центральных моментов.

Имея в своём распоряжении пять начальных и пять центральных моментов, вычислить значения:

а) математическое ожидание;

б) дисперсию;

в) стандартное отклонение;

г) коэффициент вариации;

д) коэффициент асимметрии;

е) коэффициент эксцессии.

По полученным данным качественно описать плотность вероятности данного процесса.

1. Теоретические сведения

Распределения случайных величин и функции распределения

Распределение числовой случайной величины - это функция, которая однозначно определяет вероятность того, что случайная величина принимает заданное значение или принадлежит к некоторому заданному интервалу.

Первое - если случайная величина принимает конечное число значений. Тогда распределение задается функцией Р (Х = х), ставящей каждому возможному значению х случайной величины X вероятность того, что X = х.

Второе - если случайная величина принимает бесконечно много значений. Это возможно лишь тогда, когда вероятностное пространство, на котором определена случайная величина, состоит из бесконечного числа элементарных событий. Тогда распределение задается набором вероятностей Р (а Х для всех пар чисел а, b таких, что аРаспределение может быть задано с помощью т.н. функции распределения F(x) = Р (Х<х), определяющей для всех действительных х вероятность того, что случайная величина X принимает значения, меньшие х. Ясно, что

Р (а Х

Это соотношение показывает, что как распределение может быть рассчитано по функции распределения, так и, наоборот, функция распределения - по распределению.

Используемые в вероятностно-статистических методах принятия решений и других прикладных исследованиях функции распределения бывают либо дискретными, либо непрерывными, либо их комбинациями.

Дискретные функции распределения соответствуют дискретным случайным величинам, принимающим конечное число значений или же значения из множества, элементы которого можно перенумеровать натуральными числами (такие множества в математике называют счетными). Их график имеет вид ступенчатой лестницы (рис. 1).

Пример 1. Число X дефектных изделий в партии принимает значение 0 с вероятностью 0,3, значение 1 с вероятностью 0,4, значение 2 с вероятностью 0,2 и значение 3 с вероятностью 0,1. График функции распределения случайной величины X изображен на рис. 1.

Рис. 1. График функции распределения числа дефектных изделий.

Непрерывные функции распределения не имеют скачков. Они монотонно возрастают при увеличении аргумента - от 0 при х→∞ до 1 при х→+∞. Случайные величины, имеющие непрерывные функции распределения, называют непрерывными.

Непрерывные функции распределения, используемые в вероятностно-статистических методах принятия решений, имеют производные. Первая производная f(x) функции распределения F(x) называется плотностью вероятности,

По плотности вероятности можно определить функцию распределения:

Для любой функции распределения

Перечисленные свойства функций распределения постоянно используются в вероятностно-статистических методах принятия решений. В частности, из последнего равенства вытекает конкретный вид констант в формулах для плотностей вероятностей, рассматриваемых ниже.

Пример 2. Часто используется следующая функция распределения:

(1)

где а и b - некоторые числа, аНайдем плотность вероятности этой функции распределения:

(в точках х = а их = b производная функции F(x) не существует).

Случайная величина с функцией распределения (1) называется «равномерно распределенной на отрезке ».

Смешанные функции распределения встречаются, в частности, тогда, когда наблюдения в какой-то момент прекращаются. Например, при анализе статистических данных, полученных при использовании планов испытании на надежность, предусматривающих прекращение испытаний по истечении некоторого срока. Или при анализе данных о технических изделиях, потребовавших гарантийного ремонта.

Пример 3. Пусть, например, срок службы электрической лампочки - случайная величина с функцией распределения F(t), а испытание проводится до выхода лампочки из строя, если это произойдет менее чем за 100 часов от начала испытаний, или до момента t 0 = 100 часов. Пусть G(t) - функция распределения времени эксплуатации лампочки в исправном состоянии при этом испытании. Тогда

Функция G(t) имеет скачок в точке t 0 , поскольку соответствующая случайная величина принимает значение t 0 с вероятностью 1-F(t 0 )>0.

Характеристики случайных величин. В вероятностно-статистических методах принятия решений используется ряд характеристик случайных величин, выражающихся через функции распределения и плотности вероятностей.

При описании дифференциации доходов, при нахождении доверительных границ для параметров распределений случайных величин и во многих иных случаях используется такое понятие, как «квантиль порядка р», где 0 <р < 1 (обозначается х р ). Квантиль порядка р - значение случайной величины, для которого функция распределения принимает значение р или имеет место «скачок» со значения меньшер до значения больше р (рис. 2). Может случиться, что это условие выполняется для всех значений х, принадлежащих этому интервалу (т.е. функция распределения постоянна на этом интервале и равна р). Тогда каждое такое значение называется «квантилем порядка р». Для непрерывных функций распределения, как правило, существует единственный квантиль х р порядка р (рис. 2), причем

F(x p )=p. (2)

Рис. 2. Определение квантиля х р порядка р.

Пример 4. Найдем квантиль х р порядка р для функции распределения F(x) из (1).

При 0 <р < 1 квантиль х р находится из уравнения

т.е. х р = а + p (b - а) = а (1-р) +bр. При р = 0 любое х а является квантилем порядка p = 0. Квантилем порядка р = 1 является любое число х b.

Для дискретных распределений, как правило, не существует х р , удовлетворяющих уравнению (2). Точнее, если распределение случайной величины дается табл. 1, где x 1 < х 2 <… < х к , то равенство (2), рассматриваемое как уравнение относительно х р , имеет решения только для k значений р, а именно,

p =p 1

p =p 1 +p 2 ,

p = p 1 +p 2 +p 3 ,

p = p 1 +p 2 + р т , 3<т<к,

р =р, + р 2 +… +p k

Таблица 1. Распределение дискретной случайной величины

Значения х случайной величины 1 х 2 х k Вероятности Р (Х =х)P 1 Р 2 Р k

Для перечисленных к значений вероятности р решение х р уравнения (2) неединственно, а именно,

F(x) =р, +р 2 +… + Р т

для всех х таких, что х т < х < х т+1 . Т.е. х р - любое число из интервала т ; x m+1 ). Для всех остальных р из промежутка (0; 1), не входящих в перечень (3), имеет место «скачок» со значения меньше р до значения больше р. А именно, если

p 1 +p 2 +… + p т 1 +p 2 + … + p т + p т+1 ,

то x р =x т+1 .

Рассмотренное свойство дискретных распределений создает значительные трудности при табулировании и использовании подобных распределений, поскольку невозможным оказывается точно выдержать типовые численные значения характеристик распределения. В частности, это так для критических значений и уровней значимости непараметрических статистических критериев (см. ниже), поскольку распределения статистик этих критериев дискретны.

Большое значение в статистике имеет квантиль порядка p = ½. Он называется медианой (случайной величины X или ее функции распределения F(x)) и обозначается Ме(Х). В геометрии есть понятие «медиана» - прямая, проходящая через вершину треугольника и делящая противоположную его сторону пополам. В математической статистике медиана делит пополам не сторону треугольника, а распределение случайной величины: равенство F(x 0,5 ) = 0,5 означает, что вероятность попасть левее x 0,5 и вероятность попасть правее x 0,5 (или непосредственно x 0,5 ) равны между собой и равны ½ , т.е.

Медиана указывает «центр» распределения. С точки зрения одной из современных концепций - теории устойчивых статистических процедур - медиана является более хорошей характеристикой случайной величины, чем математическое ожидание . При обработке результатов измерений в порядковой шкале (см. главу о теории измерений) медианой можно пользоваться, а математическим ожиданием - нет.

Ясный смысл имеет такая характеристика случайной величины, как мода - значение (или значения) случайной величины, соответствующее локальному максимуму плотности вероятности для непрерывной случайной величины или локальному максимуму вероятности для дискретной случайной величины.

Если х 0 - мода случайной величины с плотностью f(x), то, как известно

из дифференциального исчисления,

У случайной величины может быть много мод. Так, для равномерного распределения (1) каждая точка х такая, что а < х < b, является модой. Однако это исключение. Большинство случайных величин, используемых в вероятностно-статистических методах принятия решений и других прикладных исследованиях, имеют одну моду. Случайные величины, плотности, распределения, имеющие одну моду, называются унимодальными.

Математическое ожидание для дискретных случайных величин с конечным числом значений рассмотрено в главе «События и вероятности». Для непрерывной случайной величины X математическое ожидание М(Х) удовлетворяет равенству

Пример 5. Математическое ожидание для равномерно распределенной случайной величины X равно

Для рассматриваемых в настоящей главе случайных величин верны все те свойства математических ожиданий и дисперсий, которые были рассмотрены ранее для дискретных случайных величин с конечным числом значений. Однако доказательства этих свойств не приводим, поскольку они требуют углубления в математические тонкости, не являющегося необходимым для понимания и квалифицированного применения вероятностно-статистических методов принятия решений.

Замечание. В настоящем учебнике сознательно обходятся математические тонкости, связанные, в частности, с понятиями измеримых множеств и измеримых функций, -алгебры событий и т.п. Желающим освоить эти понятия необходимо обратиться к специальной литературе, в частности, к энциклопедии .

Каждая из трех характеристик - математическое ожидание, медиана, мода - описывает «центр» распределения вероятностей. Понятие «центр» можно определять разными способами - отсюда три разные характеристики. Однако для важного класса распределений - симметричных унимодальных - все три характеристики совпадают.

Плотность распределения f(x) - плотность симметричного распределения, если найдется число х 0 такое, что

(3)

Равенство (3) означает, что график функции у =f(х) симметричен относительно вертикальной прямой, проходящей через центр симметрии х = х 0 . Из (3) следует, что функция симметричного распределения удовлетворяет соотношению

(4)

Для симметричного распределения с одной модой математическое ожидание, медиана и мода совпадают и равны х 0 .

Наиболее важен случай симметрии относительно 0, т.е. х п = 0. Тогда (3) и (4) переходят в равенства

(5)

(6)

соответственно. Приведенные соотношения показывают, что симметричные распределения нет необходимости табулировать при всех х, достаточно иметь таблицы при х х 0 .

Отметим еще одно свойство симметричных распределений, постоянно используемое в вероятностно-статистических методах принятия решений и других прикладных исследованиях. Для непрерывной функции распределения

Р(а) = Р (-а а) = F(a) - F(-a),

где F - функция распределения случайной величины X. Если функция распределения F симметрична относительно 0, т.е. для нее справедлива формула (6), то

Р(а) =2F(a) - 1.

Часто используют другую формулировку рассматриваемого утверждения: если

Если и - квантили порядка α и 1-α соответственно (см. (2)) функции распределения, симметричной относительно 0, то из (6) следует, что

От характеристик положения - математического ожидания, медианы, моды - перейдем к характеристикам разброса случайной величины X:

дисперсии , среднему квадратическому отклонению σ и коэффициенту вариации v . Определение и свойства дисперсии для дискретных случайных величин рассмотрены в предыдущей главе. Для непрерывных случайных величин

Среднее квадратическое отклонение - это неотрицательное значение квадратного корня из дисперсии:

Коэффициент вариации - это отношение среднего квадратического отклонения к математическому ожиданию:

Коэффициент вариации применяется при М(Х)>0. Он измеряет разброс в относительных единицах, в то время как среднее квадратическое отклонение - в абсолютных.

Пример 6. Для равномерно распределенной случайной величины X найдем дисперсию, среднеквадратическое отклонение и коэффициент вариации. Дисперсия равна:

Замена переменной дает возможность записать:

где с = (b - а )/2. Следовательно, среднее квадратическое отклонение равно , а коэффициент вариации таков:

По каждой случайной величине X определяют еще три величины - центрированную Y, нормированную V и приведенную U. Центрированная случайная величина Y - это разность между данной случайной величиной X и ее математическим ожиданием М(Х), т.е. Y= Х - М(Х). Математическое ожидание центрированной случайной величины Г равно 0, а дисперсия - дисперсии данной случайной величины: M(Y) = 0, D(Y) = D(X). Функция распределения F Y (x) центрированной случайной величины Y связана с функцией распределения F(x) исходной случайной величины X соотношением:

F Y (x) =F (x + М(Х)).

Для плотностей этих случайных величин справедливо равенство

f Y (x) =f (x + М(Х)).

Нормированная случайная величина V -это отношение данной случайной величины Х к ее среднему квадратическому отклонению σ, т.е. . Математическое ожидание и дисперсия нормированной случайной величины V выражаются через характеристики X так:

где v - коэффициент вариации исходной случайной величины X. Для функции распределения F v (x) и плотности f v (x) нормированной случайной величины V имеем:

где F(x) - функция распределения исходной случайной величины X, a f(x) - ее плотность вероятности.

Приведенная случайная величина U - это центрированная и нормированная случайная величина:

Для приведенной случайной величины:

(7)

Нормированные, центрированные и приведенные случайные величины постоянно используются как в теоретических исследованиях, так и в алгоритмах, программных продуктах, нормативно-технической и инструктивно-методической документации. В частности, потому, что позволяют упростить обоснования методов, формулировки теорем и расчетные формулы.

Используются преобразования случайных величин и более общего плана. Так, если Y= аХ+ b, где а и b - некоторые числа, то

(8)

Пример 7. Если то У - приведенная случайная величина, и формулы (8) переходят в формулы (7).

С каждой случайной величиной X можно связать множество случайных величин Y, заданных формулой У = аХ+b при различных а>0 и b. Это множество называют масштабно-сдвиговым семейством, порожденным случайной величиной X. Функции распределения F Y (x) составляют масштабно сдвиговое семейство распределений, порожденное функцией распределения F(x). Вместо Y= аХ+ b часто используют запись

(9)

Число с называют параметром сдвига, а число d - параметром масштаба. Формула (9) показывает, что Х - результат измерения некоторой величины - переходит в У - результат измерения той же величины, если начало измерения перенести в точку с, а затем использовать новую единицу измерения, в d раз большую старой.

Для масштабно-сдвигового семейства (9) распределение X называют стандартным. В вероятностно-статистических методах принятия решений и других прикладных исследованиях используют стандартное нормальное распределение, стандартное распределение Вейбулла-Гнеденко, стандартное гамма-распределение и др. (см. ниже).

Применяют и другие преобразования случайных величин. Например, для положительной случайной величины X рассматривают Y= gX, где lgX -десятичный логарифм числа X. Цепочка равенств



Последние материалы раздела:

Изменение вида звездного неба в течение суток
Изменение вида звездного неба в течение суток

Тема урока «Изменение вида звездного неба в течение года». Цель урока: Изучить видимое годичное движение Солнца. Звёздное небо – великая книга...

Развитие критического мышления: технологии и методики
Развитие критического мышления: технологии и методики

Критическое мышление – это система суждений, способствующая анализу информации, ее собственной интерпретации, а также обоснованности...

Онлайн обучение профессии Программист 1С
Онлайн обучение профессии Программист 1С

В современном мире цифровых технологий профессия программиста остается одной из самых востребованных и перспективных. Особенно высок спрос на...