| |||||||||||||||||
МЕНЮ
| Основы теории систем и системный анализ (лекции)Для случайных величин (далее — СВ) приходится использовать особые, статистические методы их описания. В зависимости от типа самой СВ — дискретная или непрерывная это делается по разному. Дискретное описание заключается в том, что указываются все возможные значения данной величины (например - 7 цветов обычного спектра) и для каждой из них указывается вероятность или частота наблюдений именного этого значения при бесконечно большом числе всех наблюдений. Можно доказать (и это давно сделано), что при увеличении числа наблюдений в определенных условиях за значениями некоторой дискретной величины частота повторений данного значения будет все больше приближаться к некоторому фиксированному значению — которое и есть вероятность этого значения. К понятию вероятности значения дискретной СВ можно подойти и иным путем — через случайные события. Это наиболее простое понятие в теории вероятностей и математической статистике — событие с вероятностью 0.5 или 50% в 50 случаях из 100 может произойти или не произойти, если же его вероятность более 0.5 - оно чаще происходит, чем не происходит. События с вероятностью 1называют достоверными, а с вероятностью 0 — невозможными. Отсюда простое правило: для случайного события X вероятности P(X) (событие происходит) и P(X) (событие не происходит), в сумме для простого события дают 1. Если мы наблюдаем за сложным событием — например, выпадением чисел 1..6 на верхней грани игральной кости, то можно считать, что такое событие имеет множество исходов и для каждого из них вероятность составляет 1/6 при симметрии кости. Если же кость несимметрична, то вероятности отдельных чисел будут разными, но сумма их равна 1. Стоит только рассматривать итог бросания кости как дискретную случайную величину и мы придем к понятию распределения вероятностей такой величины. Пусть в результате достаточно большого числа наблюдений за игрой с помощью одной и той же кости мы получили следующие данные: Таблица 2.1
|
Грани
|
1
|
2
|
3
|
4
|
5
|
6
|
Итого
|
Наблюдения
|
140
|
80
|
200
|
400
|
100
|
80
|
1000 |
Подобную таблицу наблюдений за СВ часто называют выборочным распределением, а соответствующую ей картинку (диаграмму) — гистограммой.
Рис. 2.1
Какую же информацию несет такая табличка или соответствующая ей гистограмма?
Прежде всего, всю — так как иногда и таких данных о значениях случайной величины нет и их приходится либо добывать (эксперимент, моделирование), либо считать исходы такого сложного события равновероятными — по на любой из исходов.
С другой стороны — очень мало, особенно в цифровом, численном описании СВ. Как, например, ответить на вопрос: — а сколько в среднем мы выигрываем за одно бросание кости, если выигрыш соответствует выпавшему числу на грани?
Нетрудно сосчитать:
1•0.140+2•0.080+3•0.200+4•0.400+5•0.100+6•0.080= 3.48
То, что мы вычислили, называется средним значением случайной величины, если нас интересует прошлое.
Если же мы поставим вопрос иначе — оценить по этим данным наш будущий выигрыш, то ответ 3.48 принято называть математическим ожиданием случайной величины, которое в общем случае определяется как
Mx = å Xi · P(Xi); {2 - 1}
где P(Xi) — вероятность того, что X примет свое i-е очередное значение.
Таким образом, математическое ожидание случайной величины (как дискретной, так и непрерывной)— это то, к чему стремится ее среднее значение при достаточно большом числе наблюдений.
Обращаясь к нашему примеру, можно заметить, что кость несимметрична, в противном случае вероятности составляли бы по 1/6 каждая, а среднее и математическое ожидание составило бы 3.5.
Поэтому уместен следующий вопрос - а какова степень асимметрии кости - как ее оценить по итогам наблюдений?
Для этой цели используется специальная величина — мера рассеяния — так же как мы "усредняли" допустимые значения СВ, можно усреднить ее отклонения от среднего. Но так как разности (Xi - Mx) всегда будут компенсировать друг друга, то приходится усреднять не отклонения от среднего, а квадраты этих отклонений. Величину
{2 - 2}
принято называть дисперсией случайной величины X.
Вычисление дисперсии намного упрощается, если воспользоваться выражением
{2 - 3}
т. е. вычислять дисперсию случайной величины через усредненную разность квадратов ее значений и квадрат ее среднего значения.
Выполним такое вычисление для случайной величины с распределением рис. 1.
Таблица 2.2
Грани(X)
1
2
3
4
5
6
Итого
X2
1
4
9
16
25
36
Pi
0.140
0.080
0.200
0.400
0.100
0.080
1.00
Pi•X2•1000
140
320
1800
6400
2500
2880
14040
Таким образом, дисперсия составит 14.04 - (3.48)2 = 1.930.
Заметим, что размерность дисперсии не совпадает с размерностью самой СВ и это не позволяет оценить величину разброса. Поэтому чаще всего вместо дисперсии используется квадратный корень из ее значения — т. н. среднеквадратичное отклонение или отклонение от среднего значения:
{2 - 4}
составляющее в нашем случае = 1.389. Много это или мало?
Сообразим, что в случае наблюдения только одного из возможных значений (разброса нет) среднее было бы равно именно этому значению, а дисперсия составила бы 0. И наоборот - если бы все значения наблюдались одинаково часто (были бы равновероятными), то среднее значение составило бы (1+2+3+4+5+6) / 6 = 3.500; усредненный квадрат отклонения — (1 + 4 + 9 + 16 + 25 + 36) / 6 =15.167; а дисперсия 15.167-12.25 = 2.917.
Таким образом, наибольшее рассеяние значений СВ имеет место при ее равновероятном или равномерном распределении.
Отметим, что значения Mx и SX являются размерными и их абсолютные значения мало что говорят. Поэтому часто для грубой оценки "случайности" данной СВ используют т. н. коэффициент вариации или отношение корня квадратного из дисперсии к величине математического ожидания:
Vx = SX/MX . {2 - 5}
В нашем примере эта величина составит 1.389/3.48=0.399.
Итак, запомним, что неслучайная, детерминированная величина имеет математическое ожидание равное ей самой, нулевую дисперсию и нулевой коэффициент вариации, в то время как равномерно распределенная СВ имеет максимальную дисперсию и максимальный коэффициент вариации.
В ряде ситуаций приходится иметь дело с непрерывно распределенными СВ - весами, расстояниями и т. п. Для них идея оценки среднего значения (математического ожидания) и меры рассеяния (дисперсии) остается той же, что и для дискретных СВ. Приходится только вместо соответствующих сумм вычислять интегралы. Второе отличие — для непрерывной СВ вопрос о том какова вероятность принятия нею конкретного значения обычно не имеет смысла — как проверить, что вес товара составляет точно 242 кг - не больше и не меньше?
Для всех СВ — дискретных и непрерывно распределенных, имеет очень большой смысл вопрос о диапазоне значений. В самом деле, иногда знание вероятности того события, что случайная величина не превзойдет заданный рубеж, является единственным способом использовать имеющуюся информацию для системного анализа и системного подхода к управлению. Правило определения вероятности попадания в диапазон очень просто — надо просуммировать вероятности отдельных дискретных значений диапазона или проинтегрировать кривую распределения на этом диапазоне.
Вернемся теперь к вопросу о случайных событиях. Здесь методически удобнее рассматривать вначале простые события (может произойти или не произойти). Вероятность события X будем обозначать P(X) и иметь ввиду, что вероятность того, что событие не произойдет, составляет
P(X) = 1 - P(X). {2 - 6}
Самое важное при рассмотрении нескольких случайных событий (тем более в сложных системах с развитыми связями между элементами и подсистемами) — это понимание способа определения вероятности одновременного наступления нескольких событий или, короче, — совмещения событий.
Рассмотрим простейший пример двух событий X и Y, вероятности которых составляют P(X) и P(Y). Здесь важен лишь один вопрос — это события независимые или, наоборот взаимозависимые и тогда какова мера связи между ними? Попробуем разобраться в этом вопросе на основании здравого смысла.
Оценим вначале вероятность одновременного наступления двух независимых событий. Элементарные рассуждения приведут нас к выводу: если события независимы, то при 80%-й вероятности X и 20%-й вероятности Y одновременное их наступление имеет вероятность всего лишь 0.8 • 0.2 = 0.16 или 16% .
Итак — вероятность наступления двух независимых событий определяется произведением их вероятностей:
P(XY) = P(X) P(Y). {2 - 7}
Перейдем теперь к событиям зависимым. Будем называть вероятность события X при условии, что событие Y уже произошло условной вероятностью P(X/Y), считая при этом P(X) безусловной или полной вероятностью. Столь же простые рассуждения приводят к так называемой формуле Байеса
P(X/Y)P(Y) = P(Y/X)P(X) {2 - 8}
где слева и справа записано одно и то же — вероятности одновременного наступления двух "зависимых" или коррелированных событий.
Дополним эту формулу общим выражением безусловной вероятности события X:
P(X) = P(X/Y)P(Y) + P(X/Y)P(Y), {2 - 9}
означающей, что данное событие X может произойти либо после того как событие Y произошло, либо после того, как оно не произошло (Y) — третьего не дано!
Формулы Байеса или т. н. байесовский подход к оценке вероятностных связей для простых событий и дискретно распределенных СВ играют решающую роль в теории принятия решений в условиях неопределенности последствий этих решений или в условиях противо-действия со стороны природы, или других больших систем (конкуренции). В этих условиях ключевой является стратегия управления, основанная на прогнозе т. н. апостериорной (послеопытной) вероятности события
P(X/Y) . {2 - 10}
Прежде всего, еще раз отметим взаимную связь событий X и Y — если одно не зависит от другого, то данная формула обращается в тривиальное тождество. Кстати, это обстоятельство используется при решении задач оценки тесноты связей — корреляционном анализе. Если же взаимосвязь событий имеет место, то формула Байеса позволяет вести управление путем оценки вероятности достижения некоторой цели на основе наблюдений над процессом функционирования системы — путем перерасчета вариантов стратегий с учетом изменившихся представлений, т. е. новых значений вероятностей.
Дело в том, что любая стратегия управления будет строиться на базе определенных представлений о вероятности событий в системе — и на первых шагах эти вероятности будут взяты "из головы" или в лучшем случае из опыта управления другими системами. Но по мере "жизни" системы нельзя упускать из виду возможность "коррекции" управления - использования всего накапливаемого опыта.
Большую роль в теории и практике системного анализа играют некоторые стандартные распределения непрерывных и дискретных СВ.
Эти распределения иногда называют "теоретическими", поскольку для них разработаны методы расчета всех показателей распределения, зафиксированы связи между ними, построены алгоритмы расчета и т. п.
Таких, классических законов распределений достаточно много, хотя "штат" их за последние 30..50 лет практически не пополнился. Необходимость знакомства с этими распределениями для специалистов вашего профиля объясняется тем, что все они соответствуют некоторым "теоретическим" схемам случайных (большей частью — элементарных) событий.
Как уже отмечалось, наличие больших массивов взаимосвязанных событий и обилие случайных величин в системах экономики приводит к трудностям априорной оценки законов распределений этих событий или величин. Пусть, к примеру, мы каким-то образом установили математическое ожидание спроса некоторого товара. Но этого мало - надо хотя бы оценить степень колебания этого спроса, ответить на вопрос — а какова вероятность того, что он будет лежать в таких-то пределах? Вот если бы установить факт принадлежности данной случайной величины к такому классическому распределению как т. н. нормальное, то тогда задача оценки диапазона, доверия к нему (доверительных интервалов) была бы решена безо всяких проблем.
Доказано, например, что с вероятностью более 95% случайная величина X с нормальным законом распределения лежит в диапазоне — математическое ожидание Mx плюс/минус три среднеквадратичных отклонения SX.
Так вот — все дело в том к какой из схем случайных событий классического образца ближе всего схема функционирования элементов вашей большой системы. Простой пример - надо оценить показатели оплаты за услуги предоставления времени на междугородние переговоры - например, найти вероятность того, что за 1 минуту осуществляется ровно N переговоров, если заранее известно среднее число поступающих в минуту заказов. Оказывается, что схема таких случайных событий прекрасно укладывается в т. н. распределение Пуассона для дискретных случайных величин. Этому распределению подчинены почти все дискретные величины, связанные с так называемыми "редкими" событиями.
Далеко не всегда математическая оболочка классического закона распределения достаточно проста. Напротив — чаще всего это сложный математический аппарат со своими, специфическими приемами. Но дело не в этом, тем более при "повальной" компьютеризации всех областей деятельности человека. Разумеется, нет необходимости знать в деталях свойства всех или хоть какой-то части классических распределений - достаточно иметь в виду саму возможность воспользоваться ими.
Из личного опыта - очень давно, в до_компьютерную эру автору этих строк удалось предложить метод оценки степени надежности энергоснабжения, найти по сути дела игровой метод принятия решения о необходимости затрат на резервирование линий электропередач в условиях неопределенности — игры с природой.
Таким образом, при системном подходе к решению той или иной задачи управления (в том числе и экономического) надо очень взвешено отнестись к выбору элементов системы или отдельных системных операций. Не всегда "укрупнение показателей" обеспечит логическую стройность структуры системы — надо понимать, что заметить близость схемы событий в данной системе к схеме классической чаще всего удается на самом "элементарном" уровне системного анализа.
Завершая вопрос о распределении случайных величин обратим внимание на еще одно важное обстоятельство: даже если нам достаточно одного единственного показателя — математического ожидания данной случайной величины, то и в этом случае возникает вопрос о надежности данных об этом показателя.
В самом деле, пусть нам дано т. н. выборочное распределение случайной величины X (например — ежедневной выручки в $) в виде 100 наблюдений за этой величиной. Пусть мы рассчитали среднее Mx и оно составило $125 при колебаниях от $50 до $200. Попутно мы нашли SX, равное $5. Теперь уместен вопрос: а насколько правдоподобным будет утверждение о том, что в последующие дни выручка составит точно $125? Или будет лежать в интервале $120..$130? Или окажется более некоторой суммы — например, $90?
Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11
© 2009 Все права защищены. |