реферат, рефераты скачать
 

Шпоры


Шпоры

1. Случайные события и их виды, понятие вероятности.

Случайным естественно называть такое событие, которое при заданном

комплексе условий может, как произойти так и не произойти. Мера возможности

осуществления такого события и есть его вероятность. Достоверное и

невозможное события могут рассматриваться как крайние частные случаи

случайных событий. Достоверным называют событие, которое обязательно

произойдет при осуществлении определенного комплекса условий. Так,

например, вода при нормальных атмосферных условиях и 0 замерзает.

Невозможным является событие, которое при заданном комплексе условий

никогда не произойдет. Таким образом, вероятность – это шансы осуществления

любого составного события, состоящего из нескольких элементарных.

2. Классическая формула подсчета вероятностей. Комбинаторика.

В общем случае, когда имеется n равновозможных элементарных событий

w1,…,wn, вероятность любого составного события А, состоящего из m

элементарных событий wi1,…,wim, определяется как отношение числа

элементарных событий, благоприятствующих событию А, к общему числу

элементарных событий, т.е. P(A)=m/n.

3. Понятие геометрической и статистической вероятностей.

Пусть отрезок l составляет часть отрезка L. На отрезок L наудачу поставлена

точка. Если предположить, что вероятность попадания точки на отрезок l

пропорциональна длине этого отрезка и не зависит от его расположения

относительно отрезка L, то вероятность попадания точки на отрезок l

определяется равенством: P=Длина l/Длина L. Пусть плоская фигура g

составляет часть плоской фигуры G. На фигуру G наудачу брошена точка. Если

предположить, что вероятность попадания брошенной точки на фигуру g

пропорциональна площади этой фигуры и не зависит ни от ее расположения

относительно G, ни от формы g, то вероятность попадания точки в фигуру g

определяется равенством: P=площадь g/площадь G. Аналогично определяется

вероятность попадания точки в пространственную фигуру v, которая составляет

часть фигуры V: P=Объем v/Объем V.

4. Пространство элементарных событий, операции над событиями.

При общем определении вероятности используется пространство элементарных

событий, при этом элементарные события являются неопределяемым понятием, но

относительно них предполагается, что в результате испытаний обязательно

происходит одно из этих элементарных событий. Элементарные события попарно

не совместны и образуют группу событий. События, не являющиеся

элементарными, отождествляются с теми элементарными событиями, которые

благоприятствуют ему, следовательно, случайные события можно рассматривать

как подмножество в пространстве элементарных событий, поэтому операции над

случайными событиями: объединение (сложение), пересечение (умножение),

эквивалентность, отрицание – полностью совпадают с соответствующими

операциями над множествами. Операции объединения и пересечения множеств

симметричны, т.е.

A[pic]B = B[pic]A A[pic]B = B[pic]A

5. Аксиоматическое определение вероятности.

Вероятностью называется числовая функция, определенная на поле событий S и

обладающая следующими свойствами: Аксиома 1. Для любого события A прин. S

Р(А)>=0. Аксиома 2. Вероятность достоверного события равна единице Р

(омега)=1. Аксиома 3. Вероятность объединения двух несовместных событий

равна сумме вероятностей этих событий: А прин. S, В прин. S, А*В=0,

Р(А+В)=Р(А)+Р(В). Док-во: Событие А является подмножеством омега, так как

А={wi1,…,wim},то, согласно конечной схеме, Р(А)=сумме по l от 1 до m рil,

0=0, т.е. условие аксиомы 1 выполняется.

Условие аксиомы 2 выполняется, поскольку омега={w1,…,wn}и на основании

того, что Р(А)=сумме по l от 1 до m рil, то Р(омега)=сумма по i от 1 до n

pi=1. Условие аксиомы 3 также выполняется, так как оно представляет собой

содержание теоремы сложения для конечной схемы. Итак, конечная схема

является примером объекта, для которого выполняется система аксиом теории

вероятностей.

6. Теорема сложения вероятностей.

Вероятность появления хотя бы одного из двух совместных событий равна сумме

вероятностей этих событий без вероятности их совместного появления:

Р(А+В)=Р(А)+Р(В)-Р(АВ). Теорема может быть обобщена на любое конечное число

совместных событий. Например, для трех совместных событий

Р(А+В+С)=Р(А)+Р(В)+Р(С)-Р(АВ)-Р(АС)-Р(ВС)+Р(АВС). Если два составных

события А={wi1,…,wim}и В={wj1,…,wjk} являются несовместными, то вероятность

объединенного события С=А+В равна сумме вероятностей этих двух событий.

7. Условная вероятность. Теорема умножения вероятностей.

1) Условная вероятность события А при условии В равна Р(А/B)=P(A*B)/P(B),

Р(В)>0. 2) Событие А не зависит от события В, если Р(А/B)=P(A).

Независимость событий взаимна, т.е. если событие А не зависит от В, то

событие В не зависит от А. В самом деле при Р(А)>0 имеем

Р(B/A)=P(A*B)/P(A)=P(A/B)*P(B)/P(A)=P(A)*P(B)/P(A)=P(B). Вытекает следующая

формула умножения вероятностей: Р(А*В)=Р(А)*Р(В/A). Для независимых событий

вероятность произведения событий равна произведению их вероятностей:

Р(А*В)=Р(А)*Р(В). 3) События А1,А2,…,Аn образуют полную группу событий,

если они попарно несовместны и вместе образуют достоверное событие, т.е.

Аi*Aj=0, i не=j, U по i от 1 до n Аi=омега.

Вероятность совместного появления двух событий равна произведению

вероятности одного из них на условную вероятность другого, вычисленную в

предположении, что первое событие уже наступило: Р(АВ)=Р(А)*Ра(В). В

частности для независимых событий Р(АВ)=Р(А)*Р(В), т.е. вероятность

совместного появления двух независимых событий равна произведению

вероятностей этих событий.

8. Формула полной вероятности.

Вероятность события А, которое может наступить лишь при появлении одного из

несовместных событий (гипотез) В1,В2,…,Вn , образующих полную группу, равна

сумме произведений вероятностей каждой из гипотез на соответствующую

условную вероятность события А: Р(А)=Р(В1)*Рb1(A)+P(B2)*Pb2(A)+…+P(Bn)=1.

Если события А1,…,Аn, P(Ai)>0 образуют полную группу событий, то

вероятность события В может быть представлена как сумма произведений

безусловных вероятностей событий полной группы на условные вероятности

события В: Р(В)=сумма по i от 1 до n P(Ai)*P(B/Ai).

9. Формула Байеса.

Из формулы полной вероятности легко получить формулу Байеса: для события В

с Р(В)>0 и для системы попарно несовместных событий Аi, P(Ai)>0, B прин. U

по i от 1 до n Аi . Р(Аk/B)=P(Ak)*P(B/Ak)/сумма по i от 1 до n

P(Ai)*P(B/Ai).

10. Определение дискретной случайной величины. Ряд распределения.

Случайной величиной называется функция Х=Х(w), определенная на множестве

элементарных событий омега, w прин. омега. С.В. дискретна, если она

принимает значения только из некоторого дискретного множества, или,

точнее, С.В. дискретна, если существует конечное или счетное множество

чисел х1, х2, х3,… таких, что P{X=xn}=pn>=0, n=1,2,3… и р1+р2+р3+…=1. Закон

распределения Д.С.В. Х определен, если известны все хn и вероятности

рn=P{X=xn} такие, что р1+р2+р3+…=1. Если составить таблицу, в верхней

строке которой поместить значения Д.С.В. , а в нижней – соответствующие вер-

ти, то получим ряд распределения С.В.

11. Функция распределения С.В. и ее свойства.

Функция распределения Fx(x) C.В. Х определяется формулой Fx(x)=P{w:X(w)=F(x1),если х2>х1. 4) Р{X>=x}=1 – F(x). 5) Если х стремится к

бесконечности, то F(x) к 1. 6) Если х стремится к – бесконечности, то F(x)

к нулю. 7) Ф.Р. непрерывна слева, т.е. lim при дельта стрем. к +0 F(x –

дельта)=F(x).

12. Математическое ожидание Д.С.В. и его свойства.

Мат. Ожиданием Д.С.В. называют сумму произведений всех ее возможных

значений на их вероятности: М(Х)=х1р1+х2р2+…+хnpn. Если Д.С.В. принимает

счетное множество возможных значений, то М(Х)=сумма по i от 1 до

бесконечности xipi, причем мат. ожидание существует, если ряд в правой

части равенства сходится абсолютно. Мат. ожидание обладает следующими

свойствами: 1) Мат. ожидание постоянной величины равно самой постоянной:

М(С)=С. 2) Постоянный множитель можно выносить за знак мат. ожидания: М

(СХ)=СМ (Х). 3) Мат. ожидание произведения взаимно независимых С.В. равно

произведению мат. ожиданий сомножителей: М (Х1,Х2…Хn)=M(X1)*M(X2)…M(Xn). 4)

Мат. ожидание суммы С.В. равно сумме мат. ожиданий слагаемых: М

(Х1+Х2+Х3+…+Хn)=M(X1)+M(X2)+M(X3)+…+M(Xn).

13. Дисперсия Д.С.В. и ее свойства.

Дисперсией С.В. Х называют мат. ожидание квадрата отклонения С.В. от ее

мат. ожидания: D (X)=M[X – M(X)]*2. Дисперсию удобно вычислять по формуле:

D (X)=M (X*2) – [M (X)]*2. Дисперсия обладает следующими свойствами: 1) Д.

постоянной равна нулю: D(C)=0. 2) Постоянный множитель можно выносить за

знак Д., предварительно возведя его в квадрат: D (CX)=C*2D(X). 3) Д. суммы

независимых С.В. равна сумме Д. слагаемых: D (X1+X2+…+Xn)

=D(X1)+D(X2)+…+D(Xn).

14. Схема опытов Бернулли. Биномиальный закон распределения.

Биномиальным называют закон распределения Д.С.В. Х - числа появлений

события в n независимых испытаниях, в каждом из которых вероятность

появления события равна р, вер-ть возможного значения Х=k (числа k

появлений события) вычисляют по формуле Бернулли: Pn (k)=Cn*k p*k q*n-k.

15. Закон распределения Пуассона, пуассоновское распределение как

предельное для биномиального.

Если число испытаний велико, а вероятность р появления события в каждом

испытании очень мала, то используют приближенную формулу: Pn (k)=лямда*k e*-

лямда/k!, где к – число появлений события в n независимых испытаниях,

лямда=np (среднее число появлений события в n испытаниях), и говорят, что

С.В. распределена по закону Пуассона.

16. Геометрический закон распределения Д.С.В.

С.В. Х имеет геометрическое распределение, если Pm=P{X=m}=q*m p, m=0,1,2,…,

0=0. 2) Несобственный интеграл

от плотности распределения в пределах от –бесконечности до бесконечности

равен единице: интеграл от –бесконечности до бесконечности f(x)dx=1.

18. Математическое ожидание Н.С.В. и его свойства.

Мат. ожидание Н.С.В. Х, возможные значения которой принадлежат всей оси ОХ,

определяется равенством: М(Х)=интеграл от –бесконечности до бесконечности

хf(x)dx, где f(x) - плотность распределения С.В. Х. Предполагается, что

интеграл сходится абсолютно. В частности, если все возможные значения

принадлежат интервалу (а,b), то М(Х)=интеграл от а до b xf(x)dx. Все

свойства мат. ожидания, указаны выше, для Д.С.В. Они сохраняются и для

Н.С.В.

19. Дисперсия Н.С.В. и ее свойства.

Дисперсия Н.С.В. Х, возможные значения которой принадлежат всей оси ОХ,

определяется равенством: D(X)=интеграл от –бесконечности до бесконечности

[x-M(X)]*2f(x)dx, или равносильным равенством: D(X)=интеграл от

–бесконечности до бесконечности x*2f(x)dx – [M(X)]*2. В частности, если все

возможные значения х принадлежат интервалу (a,b),то D(X)=интервал от а до b

[x – M(X)]*2f(x)dx,или D(X)=интеграл от a до b x*2f(x)dx – [M(X)]*2. Все

свойства дисперсии Д.С.В. сохраняются и для Н.С.В.

20. Равномерный закон распределения.

Равномерным называют распределение вероятностей Н.С.В. Х, если на интервале

(а,b), которому принадлежат все возможные значения Х, плотность сохраняет

постоянное значение, а именно f(x)=1/(b-a); вне этого интервала f(x)=0.

Нетрудно убедиться, что интеграл от –бесконечности до бесконечности

р(х)dx=1. Для С.В., имеющей равномерное распределение , вероятность того,

что С.В. примет значения из заданного интервала (х,х+дельта) прин. [a,b],

не зависит от положения этого интервала на числовой оси и пропорциональна

длине этого интервала дельта: P{xb.

21. Показательный закон распределения.

Н.С.В. Х, принимающая неотрицательные значения, имеет показательное

распределение с параметром лямда, если плотность распределения С.В. при

x>=0 равна р(х)=лямда*е в степени - лямда*х и при x0.

22. Нормальный закон распределения.

Н.С.В. Х имеет нормальное распределение вероятностей с параметром а и

сигма>0, если ее плотность распределения имеет вид: р(х)=1/(корень

квадратный из 2пи *сигма) * е в степени –1/2*(x-a/сигма)*2. Если Х имеет

нормальное распределение, то будем кратко записывать это в виде Х прибл.

N(a,сигма). Так как фи(х)=1/(корень из 2пи)*е в степени –х*2/2 – плотность

нормального закона распределения с параметрами а=0 и сигма=1, то функция

Ф(х)=1/(корень из 2пи)* интеграл от –бесконечности до х е в степени

–t*2/2dt, с помощью которой вычисляется вероятность P{a0.

Функцией Лапласа называется функция вида(Z=x-a/()

Ф(Х)= [pic]. Аргумент—переменная верхнего предела.

Св-ва;

1. Функция Ф(х)—нечетная, т.е. Ф(-х_=-Ф(х)

1. Функция монотонно возрастает, т.е. х2>x1 следовательно, Ф(х2)>Ф(х1)

Ф(х2)=[pic]—> Ф(х2)>Ф(х1)

3.Ф(+()=0,5.Доказательство.

Ф(()=[pic]

Ф-ция Ф(Х) возрастает и стремится к 0,5.

Вероятность попадания в интервал для НРСВ.

Пусть (—НРСВ с пар. а и (((>0).

[pic]

24. Неравенство Чебышева.

Если известна дисперсия С.В., то с ее помощью можно оценить вероятность

отклонения этой величины на заданное значение от своего мат. ожидания,

причем оценка вероятности отклонения зависит лишь от дисперсии.

Соответствующую оценку вероятности дает неравенство Чебышева. Неравенство

Чебышева является частным случаем более общего неравенства, позволяющего

оценить вероятность события, состоящего в том, что С.В. Х превзойдет по

модулю произвольное число t>0. PX – MX=t равна сумме вероятностей pi, для которых xi находится вне

промежутка (-t,t). Очевидно, для всех xi, не принадлежащих промежутку (-

t,t), имеет место неравенство |xi|/t>=1. Учитывая это неравенство получаем:

PX=сумма по i: |xi|>=t pi =t |xi|/t pi=t |xi|/t pi+сумма по i:|xi|=t, равна сумме

интегралов от плотности вероятности по промежуткам (-бесконечность, -t) и

(t,бесконечность). На этих промежутках |x|/t*t>=1. Так как |x|/t*p(x)>=0,

то интеграл от –t до t по |x|/t*p(x)dx>=0. Воспользовавшись формулой

M|X|=интеграл от –бесконечности до бесконечности |x| p(x) dx, в результате

преобразований получаем неравенство Маркова.

26. Центральная предельная теорема, следствия (теорема Муавра-Лапласа).

Локальная теорема Лапласа. Вероятность того, что в n независимых

испытаниях, в каждом из которых вероятность появления события равна

р(0=F(x1,y), если х2>x1. F(x,y2)>=F(x,y1), если y2>y1. 3)

Имеют место предельные соотношения: 1) F(-бесконечность, у)=0, 2) F(x,-

бесконечность)=0, 3) F(-бесконечность, -бесконечность)=0, 4)

F(бесконечность, бесконечность)=1. 4) а) при у=бесконечность функция

распределения системы становится функцией распределения составляющей Х:

F(x,бесконечность)=F1(x). Б) при х=бесконечность функция распределения

системы становится функцией распределения составляющей У: F(бесконечность,

у)=F2(y).

28. Условные и безусловные законы распределения компонент двумерной С.В.

Условные. 1) Для дискретной двумерной С.В. Пусть составляющие X и Y

дискретны и имеют соответственно следующие возможные значения: x1,x2,…,xn;

y1,y2,…,ym. Условным распределением составляющей Х при Y=yj (j сохраняет

одно и то же значение при всех возможных значениях Х) называют совокупность

условных вероятностей p(x1|yj), p(x2|yj),…,p(xn|yj). Аналогично

определяется условное распределение Y. Условные вероятности составляющих Х

и Y вычисляют соответственно по формулам: p(xj|yi)=p(xi,yj)/p(yj),

p(yj|xi)=p(xi,yj)/p(xi).

29. Корреляционный момент, коэффициент корреляции.

Корреляционным моментом СВ ( и ( называется мат. ожидание произведения

отклонений этих СВ. (((=М(((—М(())*((—М(()))

Для вычисления корреляционного момента может быть использована формула:

(((=М((*()—М(()*М(() Доказательство: По определению

(((=М(((—М(())*((—М(())) По свойству мат. ожидания

(((=М(((—М(()—(М(()+М(()*М(())=М((()—М(()*М(()—М(()*М(()+М(()*М(()=М((()—М((

)*(()

Предполагая, что ( и ( независимые СВ, тогда

(((=М((()—М(()*М(()=М(()*М(()—М(()*М(()=0; (((=0. Можно доказать, что

если корреляционный момент=0, то СВ могут быть как зависимыми, так и

независимыми. Если ((( не равен 0, то СВ ( и ( зависимы. Если СВ ( и (

зависимы, то корреляционный момент может быть равным 0 и не равным 0. Можно

показать, что корреляционный момент характеризует степень линейной

зависимости между составляющими ( и (. При этом корреляционный момент

зависит от размерности самих СВ. Чтобы сделать характеристику линейной

связи ( и ( независимой от размерностей СВ ( и (, вводится коэффициент

корреляции:

К((=(((/((()*((() Коэффициент корреляции не зависит от разностей СВ ( и ( и

только показывает степень линейной зависимости между ( и (, обусловленную

только вероятностными свойствами ( и (. Коэффициент корреляции определяет

наклон прямой на графике в системе координат ((,() Свойства коэффициента

корреляции.

1. -10, то с ростом одной составляющей, вторая также в среднем растет.

К((1. 3. Интервальной оценкой

( с надежностью гамма) неизвестной вероятности р биномиального

распределения по относительной частоте w служит доверительный интервал ( с

приближенными концами р1 и р2).

35. Доверительный интервал для мат. ожидания при известной дисперсии.

(^=X=1/n сумма по i от 1 до n Xi является наилучшей несмещенной оценкой для

мат. ожидания МХ=( нормального распределения f(x,()=1/(корень из 2пи сигма

в квадрате)*е –(х-()*2/(2сигма в квадрате) по выборке объема n. Пусть

дисперсия Хi Dxi=сигма в квадрате известна, где сигма в квадрате –

некоторое конкретное число. Предполагается, что для нормально

распределенного признака (, дисперсия которого известна равна (2. По

выборке объема n получены выборочные значения (1, (2, ... , (n. Требуется

получить интервальную оценку неизвестного нам математического ожидания

этого признака. M |(| > a заданной надежности j. Сначала рассчитываем

точечную оценку математического ожидания:

[pic]; Будем считать, что (1, (2, ... , (n разные СВ, но распределенные по

одному и тому же закону и математическое ожидание.

M((i) = a; Д((i) = (2; [pic] - значение СВ [pic] и тогда [pic],

тогда

[pic][pic]

[pic]Доказательство несмещенности точечной оценки [pic]

[pic]

[pic]Вывод: [pic]- нормально распределенная СВ, [pic], [pic], тогда чтобы

найти вероятность заданного отклонения P(|a – [pic]| < () = j

P(|a – [pic]| < () = 2Ф([pic]) = 2Ф([pic]), где [pic]; Ф([pic]) = [pic]

По таблице для функции Лапласа по значению функции равной [pic] находим

значение аргумента [pic] ; [pic]; Вместо [pic] обозначаем [pic].;

P(|a –[pic]| < () = P(-(< a - [pic]< () = P([pic]- ( < a < [pic]+ () = j

([pic]- (; [pic]+ () – доверительный интервал.

36. Проверка гипотез. Ошибки первого и второго рода. Мощность критерия.

В статистике рассматриваются гипотезы двух типов:

1. Параметрические – гипотезы о значении параметра известного

распределения;

2. Непараметрические – гипотезы о виде распределения.

Обычно выделяют основную гипотезу – нулевую (H0). Пример: математическое

ожидание признака (, который распределен по нормальному закону и дисперсия

его известна, а H0: M(() = a. Предполагаем, что известна дисперсия

Конкурирующая гипотеза имеет вид: H1: M(() ( a;

H1: M(() > a, либо H1: M(() = a1. Для проверки гипотез используются

критерии, и они представляют собой специальным образом подобранные СВ, k –

точечный или приближенный закон, который известен.

Обычно предполагается, что если гипотеза Н0 выполняется, то вычисляемая по

выборочным данным kнабл. Этого критерия и гипотеза Н0 принимается, если

kнабл.( (kкритич. левостор.; kкритич. правостор.) Если kнабл. попадает в

критическую область (все остальные значения k ((- ( ; kкритич. лев.) (

(kкритич. прав. ; (), то гипотеза Н0 отвергается и принимается

конкурирующая гипотеза Н1. При этом возможны ошибки двух типов: Первого

рода: что гипотеза Н0 отвергается, в то время, как она верна. Вероятность

этой ошибки: P(H1/H0) = ( - уровень значимости критерия. Критерий

подбирается так, чтобы ( была как можно меньше. Второго рода: что

отвергается гипотеза Н1, в то время, как она верна. ( = P(H0/H1) Мощностью

критерия – (1-() - вероятность попасть точке-выборке в критическое

множество, когда верна конкурирующая гипотеза.

1-( = P(H1/H1)

37. Проверка гипотезы о равенстве генеральных средних при известных

дисперсиях. Признак ( и ( распределены нормально с известными дисперсиями.

Пусть по выборкам (1, (2, ... , (n объема n, (1, (2, ... , (m объема m,

получены выборочные средние значения ([pic] ; [pic]). Выдвигается гипотеза

о равенстве генеральных средних: H0: M(() = M((); При конкурирующей

гипотезе:

H1: M(() ( M((); В качестве проверки гипотезы выбираем новую СВ [pic];[pic]

[pic]- СВ:

Д(Z)- дисперсия Д(([pic]- [pic])/(([pic]-[pic])) = [pic]

M(Z) = 0; Д(Z) = 1. Для того, чтобы выбрать Zкр. и при заданном уровне

значимости (, определить принимается или не принимается основная гипотеза,

найти вероятности.

P(0 < Z < Zкр.) + P(Z > Zкр. прав.) = Ѕ Ф(Zкр.) + (/2 = Ѕ Ф(Zкр. прав.) = Ѕ

- (/2

Zнабл. = [pic]

|Zнабл.| < Zкр.прав. ( Н0 |Zнабл.| > Zкр.прав. ( Н0 отвергается.

38. Проверка гипотезы о равенстве генеральных средних при неизвестных

дисперсиях.

Пусть ( и ( нормально распределенные СВ, предполагается, что неизвестны, но

равны между собой дисперсии. (1, (2, ... , (n (1, (2, ... , (m

[pic]; [pic]: Н0: М(() = М(() Н1: М(() ( М(()

Для проверки гипотезы Н0, вводится СВ t, которая представляет собой

[pic]

Теоретическое обозначение признака; СВ Т распределена по закону Стъюдента,

зависит от первого параметра, который называется числом степеней свободы

(k).

k = n + m – 2 (по таблице для распределения Стъюдента при заданном значении

k и уровне значимости ( в зависимости от вида альтернативной и

конкурирующей гипотезы, находятся либо односторонние tкр., либо

двухсторонние tкр.).

Ткр. прав. = - Ткр. лев. | Тнабл. | < Ткр. двуст. ( Н0 | Тнабл. | > Ткр.

двуст. ( Н0 отвергается.

42. Марковские случайные процессы. Размеченный граф состояний.

Предположим, что дана система S. Предп., что состояние этой сис-мы хар-ся

параметрами состояний. Если состояние системы меняется во времени случайно,

то говорят, что в сис-ме протекает случайный процесс. Сис-ма —аудитория.

Для хар-ки состояния используется параметр—число студентов, тогда эта

система с дискретными состояниями. Будем рассматривать системы с

дискретными состояниями и непрерывным t: сис-ма мгновенно в произвольные

сегменты t скачками меняет состояние. Если параметр t принимает дискретные

значения (t=1,2,3,...), то происходит процесс с дискретным временем

(случайная последовательность), если же t изменяется на некотором

интервале, то процесс с непрерывным временем. Если случайные величины

семейства принимают дискретные значения, то имеет место процесс с

дискретными значениями, если же непрерывное, то с непрерывными значениями.

Предположим, что рассматривается система с дискретными состояниями и

непрерывным t. Пусть S1, S2,...,Sn —возможные состояния сис-мы. Для

описания процесса, происх. в сис-ме, надо знать вер-ти каждого состояния на

произвольный момент t. Р1(t)—вер-ть того, что в момент t сис-ма находится в

1-ом состоянии. Процесс, протекающий в системе, наз. марковским, если для

него вероятность попасть в состояние Xi=Si в момент ti зависит не от всего

прошлого, а лишь от состояния Xi-1=Si, в котором процесс был в предыдущий

момент времени ti-1. Графом называется совокупность вершин и дуг,

соединяющих эти вершины. Для описания процесса, протекающего в системе,

удобно использовать размеченный граф состояний, в котором в кач-ве вершин

исп-ся различные состояния системы, а в кач-ве дуг—стрелки, показ.

возможные переходы за 1 шаг из состояния в состояние. При этом над каждой

стрелкой указ. Плотность вероятности соответствующего перехода.

43. Система дифф. уравнений Колмогорова для вероятностей состояний.

Пусть дан марковский случайный процесс. Рi(t)—вер-ти состояний: i=1,n(все с

чертой), тогда для Рi(t) выполняется следующее дифференциальное уравнение

d Рi(t)/dt=(( от i<>k,k=1 до n) (ki* Рi(t)—(( от j<>1,j=i до n) (ij*Pi(t);

i=1,n(все с чертой) (1) Система из n уравнений , т.к. для любого момента t

(( от i=1 до n) Pi(t), то в системе (1) одно любое уравнение м-но

отбросить. И, задав начальное условие на момент t=t0, P1(t0)=1, Pi(t0)=0,

i=1,n( все с чертой).

В итоге м-но решить сис-му дифф. ур-ний и найти все вер-ти состояний Pi(t),

i=1,n(все с чертой).

44. Предельные вероятности состояний. Нахождение предельных вероятностей.

Предположим, что дан марковский случайный процесс, тогда, используя

уравнение Колмогорова, можно найти Рi(t); i = [pic]

Предельными или финальными вероятностями называют пределы

[pic], если эти вероятности существуют, т.е. [pic] = Рi.

Если эти предельные вероятности существуют, то в системе устанавливается

стационарный режим, при котором состояние системы меняется случайным

образом, но вероятность каждого состояния остается неизменной.

Предельная вероятность в марковском случайном процессе существует, если

этот процесс удовлетворяет свойству транзитивности. Процесс в протекающей

системе называется транзитивным, если существует интервал времени (, в

течение которого система может перейти из любого состояния Si в любое

другое состояние Sj.

Алгебраические уравнения для предельной вероятности состояний

Пусть марковский случайный процесс удовлетворяет свойству транзитивности,

тогда для него при t ( ( существуют предельные вероятности состояний

Pi=const.

[pic] [pic] , (, в этом случае вместо дифференциального уравнения

Колмогорова получили систему линейных уравнений относительно вероятности

состояний

Одно уравнение отбрасывается, остается n уравнений, решая эту систему

получаем Р1, Р2, ... , Рn.

45. Процессы гибели и размножения. Формулы для нахождения предельных

вероятностей.

Мы предполагаем, что все потоки, переводящие систему из любого Si в Si+1 и

из Si в Si-1 являются простейшими.

(i, i+1

(i, i-1

Процессы такого типа называются процессами гибели и размножения.

Составим систему уравнений для нахождения предельной вероятности состояний:

S0: (01P0 = (10P1 S1: (10P1 + (12P1 = (01P0 + (21P2 S2: (21P2 + (23P2 =

(12P1 + (32P3 ... Sn: (n, n-1 Pn = (n-1, n Pn-1 P0 + P1 + P2 + ... + Pn =

1

Из первого уравнения выражаем P1 =

(01P0 + (12P1 = (01P0 + (21P2

P2 = [pic]

P3 = [pic] Pn = [pic] ...

P0 + [pic][pic]... + [pic] = 1

[pic]

46. Потоки событий. Простейший поток и его свойства.

Потоком событий называется последовательность каких-то однородных событий,

следующих друг за другом через случайные интервалы времени, т.е. в

произвольные моменты времени.

Потоки избираются на числовой оси, представляющей ось времени, точками,

соответствующими моменту наступления событий.

Например: - поток вызовов, поступающих на станцию скорой помощи;

- поток автомобилей, пересекающих перекресток.

Среднее число событий, происходящих в единицу времени называется

интенсивностью потока. ( - среднее число событий в потоке, происходящее за

единицу времени. Свойства потока:

1. Поток называется стационарным, если вероятность наступления того или

иного числа событий за интервал времени длины а зависит от длины этого

интервала и не зависит от того, в какой момент времени начинается отсчет

этого интервала.

t2 – t1 = a

2. Поток событий называется потоком без последействия (без последствия),

если для любых непересекающихся интервалов времени длины (1 и (2.

Вероятность появления того или иного числа событий в интервале (2 не

зависит от того, какое число событий произошло в интервале (1.

Иначе, отсутствие последствия означает независимость наступления событий во

времени.

3. Поток называется ординарным, если вероятность наступления двух и более

событий за некоторый достаточно малый интервал времени [pic]t пренебрежимо

мала по сравнению с вероятностью наступления одного события за этот

интервал.

Поток, обладающий всеми тремя перечисленными свойствами называется

простейшим.

47. Закон распределения числа событий за фиксированный промежуток времени и

закон распределения интервала времени между событиями в простейшем потоке.

Пусть рассматривается какой-то поток событий. С ним всегда можно связать

дискретную СВ – число событий, происходящих за интервал длины (. Эта СВ

дискретна. С этим же потоком можно связать НСВ – интервал времени между

событиями. Т – интервал времени между событиями в потоке. Для простейшего

потока доказано, что число событий, попадающих на интервал длины ( является

ДСВ, распределенной по закону Пуассона. Вероятность того, что за время (

произойдет ровно k событий.

(a > 0)

a = ( (, ( - интенсивность простейшего потока

при ( = 1

Найдем закон распределения интервала времени между событиями простейшего

потока. Выведем закон распределения интервала времени между событиями в

потоке.

F(t) = ?

Fт(t) = P(T(. Тогда в выражении для Р0 имеем

Р0=[pic][pic]=[pic]

При m —>( ((((((2(...+(m-1 сходится только в том случае, если 0=1 сумма расходится, т.е. для этой СМО процесс не является транзитивным.

Следовательно, предельные вер-ти состояний не существенны.

Будем считать, что при m—>(, (<1 . Следовательно предельн. вер-ти сост-й

сущ. и хар-ки СМО след.:

1. [pic]

2. Ротказа=0

3. q=1 каждая заявка будет обслужена

4. [pic].

5. Среднее время ожидания [pic]. 6.A=(q=(. 7.[pic][pic]

-----------------------

[pic]

[pic]

Kкр., левостороннее

Kкр., правостороннее

x

f(x) для k

[pic]

Kкр., левостороннее

Kкр., правостороннее

x

f(x) для (

S1

S5

S4

S2

S3

S0

(01

(10

S1

(12

(21

S2

(23

(32

...

(n-2, n-1

S0

(01

(10

S1

(12

(21

(n-1, n-2

Sn-1

(n-1, n

(n, n-1

Sn

интенсивность потока

t1

t3

t4

t2

t

а

t1

t2

а

t3

t4

t

(1

(2

t

0

t

T

t

[pic]

[pic]

[pic]


ИНТЕРЕСНОЕ



© 2009 Все права защищены.