реферат, рефераты скачать
 

Математические основы теории систем


случае, если на np столбцов матрицы Р=[С* ,А* С* ,..,А*(n-1) С* ] натянуто

пространство состояний ? . ( Матрицы А*, С*,. получаются транспонированием

матриц А, С,. и заменой их элементов комплексно сопряженными. )

ХАРАКТЕРИСТИКИ УПРАВЛЯЕМОСТИ.

Тh: Система Y , описываемая уравнением (1), управляема тогда и только

тогда, когда на вектор столбцы В,АВ,..,B(n-1) матрицы Q?[В,АВ,...,А(n-1)В]

натянуто пространство состояний системы Y. Рассмотрим интерпритацию этой

теоремы в терминах канонической экордановой формы матрицы системы. Такая

форма позволяет определить управление, требуемое для перевода любого

состояния в нулевое. Для простоты будем рассматривать систему с одним

входом, описываемую уравнением:

(6) х=Ах+Вu

где А постоянная матрица порядка n, В -n-мерный вектор, u-скалярный вход.

Если минимальный многочлен матрицы А имеет степень k?(n-1, то

система, характеризуемая уравнением (6), неуправляема.

Произведем замену переменных, положив х=Тy, причем матрица Т такова, что Т(-

1)АТ=J, где J-каноническая форма Экордана матрицы А. Если обозначить е=Т(-

1)В, то уравнение (6) преобразуется к виду:

(7) y=Jy+eU

Th. Пусть А имеет различные собственные значения, так что

J=diag(?1,...,?N). Тогда система, описываемая (6), управляема в том и

только в том случае, когда все компоненты вектора e=Т-1В отличны от нуля.

1.7. СИГНАЛЫ В ЗАДАЧАХ УПРАВЛЕНИЯ И НАБЛЮДЕНИЯ ДИНАМИЧЕСКИХ ОБЬЕКТОВ.

Временная функция (форма передачи), передаваемая материальным

параметром, называемым носителем информации или пространственное размещение

(форма заполнения ), называется сигналом, если она по меньшей мере с

помощью одного из ее параметров передает информацию.

пример:

t t

Носителем информации здесь является электрическое напряжение;

информационным параметром амплитуда импульса. В качестве сигнала можно

рассматривать временную функцию U(t) (математическую функцию).

Сигналы называются аналоговыми или дискретными, если они передают или

изображают аналоговую или дискретную информацию. В аналоговых сигналах

информационные параметры в пределах определенных границ могут принимать

любое значение, а в дискретных сигналах они принимают только дискретные

значения.

Дискретные сигналы, информационные параметры, которых могут принимать

только два дискретных значения, называются двоичными.

Цифровыми сигналами являются закодированные дискретные сигналы, в

которых дискретные значения информационного параметра соответствуют словам

условного алфавита. Все дискретные сигналы не являющиеся цифровыми

называются многозначными. Для классификации сигналов имеет значение

разделения их на непрерывные и импульсные.

Сигналы называются непрерывными, если их информационные параметры

изменяются в любой момент времени, и импульсными, если они изменяются в

дискретные моменты времени.

Схема прохождения сигналов кибернетической системы представляет собой

граничное изображение (статической и динамической) характеристик звеньев и

связей с общей системой. Схема прохождения сигналов представляет собой

графическое изображение математической модели системы. Математическая

модель является совокупностью всех уравнений, которые описывают соотношение

между всеми рассматриваемыми входными и выходными сигналами. Для

изображения схем прохождения сигналов наиболее употребительны два способа,

которые имеют определенные преимущества: способ изображения в виде

структурной схемы и изображение в виде графа прохождения сигнала. При

изображении схемы прохождения сигналов в виде структурной схемы звенья

показываются в виде блоков, а стрелками указываются направления прохождения

сигналов. Структурная схема представляет собой схематическое (качественное)

изображение передаточных звеньев системы и ее связей через входные и

выходные сигналы. Качественное описание характеристики звена с выходными

сигналами U1,...,Um должна пониматься характеристика передачи в

установившемся режиме, которая описывается статическим передаточным

уравнением:

1) xg=x(?)=lim x(t)=f(U1,...,U v)

t>?

в случае если существует х (?).

Под динамическими характеристиками понимается зависимость выхода

системы от ее входа в переходном процессе. Динамическая характеристика

системы или звена может, быть описана различными способами.

Для аналоговых звеньев, входные и выходные характеристики которых

изменяются непрерывно, характеристика передачи может быть, описана

следующим дифференциальным уравнением в скалярной форме (после деления всех

членов на коэффициент х”)

(2) xn +An-1 xn-1+...+A1 x+A0 x=Bm Um+...+B0 U

где U(t)-входной сигнал, x(t) выходной сигнал.

x=q1, x=q2, xn-1=qn получим уравнения системы для случая одномерного

пространства:

(3) q(t)=Aq(t)+Bu(t)

x(t)=cTq(t)+du(t)

CКАЧКООБРАЗНАЯ И ПЕРЕХОДНАЯ ФУНКЦИИ.

Передаточные свойства линейного звена характеризуются реакцией на

скачкообразное изменение входного сигнала:

us(t)=uо?(t)= 0, при t0

u u

рис 2 рис 3

Разложение сигнала в последовательность импульсных эвристическая

интерпретация функций

Для хорошей аппроксимации, ширина u приведенных на рис. 2, 3 функций,

должна быть ничтожно мала. Реакция на импульсное воздействие х(t) линейного

звена:

6) x^(t)?q*u^(t)=q*A*?(t)

(* -обозначается свертка функции u(t) и q(t) с помощью интеграла свертки);

?(t)-импульсная функция; А - площадь импульса u^(t). Весовая функция q(t)

линейного звена:

q(t)? x^(t)/A=q*?(t)

Весовая функция q(t) линейного звена представляет его реакцию на

импульсное воздействие, отнесенную к интегралу от входного сигнала, взятому

по времени.

В соответствии с общим значением импульсного сигнала (рис 3) следует,

что весовая функция является свойством

передаточного звена, которое определяет его особенности при передаче

сигнала. Схема прохождения сигнала: изображение в виде графа прохождения

сигнала.

Граф представляет собой схему, состоящую из узлов и ветвей,

соединяющих узлы. Граф прохождения сигналов, представляет собой граф с

направленными ветвями.

x(t)=cu(t) узел x(p)=G(p)U(p)

x(t)=f{u(t)}

рис 4

При изображении схемы прохождения сигналов в виде графа, сигналы

условно изображаются узлами, а звенья ветвями с указанием направления

передачи. При этом принимается, что изображению временной функции (рис 4а)

соответствует выражение:

x(t)=Cu(t) или x(t)=F{u(t)}

С - постоянная,F оператор, являющийся функцией времени.

ДЕТЕТМЕНИРОВАННЫЕ СТОХАСТИЧЕСКИЕ СИГНАЛЫ И СИСТЕМЫ.

u u u

а) t б) t в) t

u

а-в детерминированные сигналы

г - стохастический сигнал

Рис. 5

г) t

Характеристика сигналов, представленных на рис 5, а –в, очевидно, что

может быть однозначно описана аналитической функцией для всех t, если

характер этой зависимости сохраняется за пределами показанного интервала.

Таким образом, значение в каждый момент времени t определено, т.е.

детерминировано.

Но это не имеет место для сигнала, показанного на рис 5г. Его

характеристика, замеренная в конечном интервале времени, может быть с

большими трудностями и разной степенью точности описана на этом интервале.

Отсюда, дальнейшее значение изменение сигнала, нельзя точно предугадать

заранее. Временная характеристика таких сигналов является случайной

функцией. Такие сигналы получаются из-за многих, причин, которые вследствие

больших трудностей не могут быть достаточно проанализированы.

Подобного вида сигналы называются стохастическими сигналами.

Сигналы называются детерминированными, если их временная

характеристика, может быть, однозначно определена.

Сигналы называются стохастическими, если их временные характеристики

являются случайными функциями, причем для этих характеристик могут быть

указаны общие статические параметры.

Если все сигналы в системе детерминированы, то также оказываются

детерминированными временные характеристики всей системы.

Стохастические сигналы могут возникать в системе из-за того, что-либо

входные сигналы являются стохастическими, либо определенные параметры

системы подвержены случайным колебаниям.

Системы называются детерминированными, если все сигналы (вход,

состояние, выход) детерминированы, и стохастическими, если, по крайней

мере, один сигнал является стохастическим. В детерминированных системах

возможна детерминированная обработка задачи управления, стохастическая

система требует стохастической обработки.

1.8. МОДЕЛИ СЛУЧАЙНЫХ СИГНАЛОВ.

Величина, которая в каждом определенном случае в зависимости от

результатов опыта может принимать то или иное числовое значение, называется

случайной величиной. Конкретное значение, которое может принять случайная

величина, называется возможным ее значением. Случайную величину можно

определить как, функцию заданную на пространстве элементарных событий.

Случайные величины обозначают большими буквами латинского алфавита

X,Y,Z,.., а возможные их значения соответствующими буквами x, y, z,...,.

Случайная величина зависит, от элементарного события. Этот факт

обозначается следующим образом Х=Х(?).

Случайная величина, множество значений которой конечно или счетною,

называется дискретной, случайной величиной.

ВЕКТОРНЫЕ (МНОГОМЕРНЫЕ) СЛУЧАИНЫЕ ВЕЛИЧИНЫ.

Кроме одномерных, случайных величин можно рассматривать многомерные,

случайные векторы, координаты которых являются одномерными, случайными

величинами. Такие случайные величины встречаются во многих технических

задачах.

Случайные сигналы G и Х на входе и выходе системы автоматического

регулирования (САР) с n -выходами и m -входами можно рассматривать n- и m-

мерные, случайные векторы (рис 1)

g1 x1

g2 x2

X G

gn xn

GT=[g1,g2,...,gn] XT=[x1,x2,...,xn]

Случайные векторные величины будем обозначать жирными буквами

латинского алфавита X,Y,Z, . Рассмотрим совокупность n случайных величин

x1( ), x ( ),.., x ( )заданных на пространстве элементарных событий. Эти

величины можно интегрировать как одну векторную, случайную величину:

(1) XT(?)=[x1(?),...,xn(?)]

Случайная векторная величина принимает каждый раз значения, зависящие

от элементарного события. Таким образом, многомерная, случайная величина

есть вектор-функция, заданная на пространстве элементарных событий, и

каждое ее возможное значение есть вектор.

ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ (МОМЕНТЫ) СЛУЧАЙНЫХ ВЕЛИЧИН.

Полными характеристиками случайных величин являются их функции

распределения или плотности распределения вероятностей. Однако многие

задачи теории вероятности можно решать, не используя функции распределения

вероятностей. Оказывается, что статические свойства случайных величин могут

быть описаны на основе числовых характеристик распределения этих случайных

величин. Одной из наиболее важных числовых характеристик случайной

величины является ее среднее значение, называемое также математическим

ожиданием.

Математическим ожиданием М [Х] случайной величины Х называется число,

определяемое интегралом вида:

?

(2) mX=M[X]=? xf(x)dx

-?

где f(х) - плотность распределения вероятностей случайной величины Х, х -

возможные ее значения.

Для дискретной, случайной величины Х, плотность распределения

вероятностей есть сумма дельта - функций получим:

n n

(3) M[X]=x S pk ?(x-xk)dx= S xk pk

k=1 k=1

здесь хk возможное значение случайной величины, pk- вероятность того, что

случайная величина примет значение хк.

Из равенства (3) следует, что математическое ожидание случайной

дискретной величины Х равно сумме произведений возможных значений,

принимаемых случайной величиной, на соответствующие им вероятности.

Отсюда вытекает вероятностный смысл математического ожидания, оно

определяет координату центра группирования значений, принимаемых случайной

величиной; следовательно, математическое ожидание является средним

значением случайной величины.

Для непрерывной, случайной величины каждому ее возможному значению х

соответствует элементарная вероятность f(х)dx . Если задана случайная

величина Y, которая является неслучайной функцией Y=?(x) случайного

дискретного элемента Х, то Y принимает возможные значения уk=?(хk) с

вероятностями pk; поэтому математическое ожидание случайной величины Y=?(х)

аналогично равенству (3).

n

(4) M[?(x)]= S ?(xk)pk

k=1

Если Х - непрерывная, случайная величина, то функция от этой величины

Y=?(х) принимает возможные значения?(x) с вероятностями f(х)dх. В этом

случае сумма (4) после предельного перехода равна соответствующему

интегралу:

?

(5) M[?(x)]= ? ?(x)f(x)dx

-?

Пологая, в формуле (5) ?(х)=хn получим выражение для моментов случайных

величин Х.

Начальным моментом (или просто моментом) случайной величины Х

называется математическое ожидание ее, n-ной степени. Этот момент

обозначается ?n т.е.

?

(6) ?n=M[Xn]= ? xn f(x)dx

-?

Очевидно, математическое ожидание не может дать полное представление

о случайной величине, т.к. характеризует только ее среднее значение:

* * * * ****

x1

0 m

* *** *** *

x2

0 m

На рисунке 2 крестиками показаны значения, которые приняли случайные

величины х1, х2. Эти случайные величины имеют одинаковые математические

ожидания M[x1]=M[x2]=m, но разброс значений, который имеет случайная

величина х2 около своего математического ожидания, больше чем разброс

значений случайной величины х1.

Для характеристики величины разброса значений случайной величины около

математического ожидания вводится еще одна характеристика случайной

величины, равная сумме произведений квадратов отклонений, возможных

значений случайной величины от математического ожидания на соответствующие

этим возможным значениям вероятности.

Такая числовая характеристика называется дисперсией случайной величины Х и

обозначается D[Х]. Для дисперсии случайной величины Х имеем:

n

(7) D[X]= S (xk-M[X])2 pk

k=1

Очевидно, что чем больше дисперсия, тем больше разброс возможных

значений случайной величины от математического ожидания. Из выражения (6)

следует, что дисперсия есть математическое ожидание квадрата разности

случайной величины и ее математического ожидания.

Для непрерывной, случайной величины Х формула (6) после предельного

перехода принимает вид:

?

(8) D[X]=M(X-M[X])2= ? (x-M[X])2 f(x)dx

-?

Разность между случайной величиной и ее математическим ожиданием

называется центрированной случайной величиной Х?.

(9) X?=X-M[X]

Центральным моментом n-го порядка случайной величины Х называется

математическое ожидание n-ой степени интегрированной случайной величины Х?,

т.е.

?

(10) ?n=M[(X?)n]=M[X-M[X]n]= ? (x-M[X]n) f(x)dx

-?

Из формул (8), (9) следует, что дисперсия является центральным моментом

второго порядка случайной величины. Дисперсия случайной величины имеет

разность квадрата этой величины, однако, удобнее пользоваться мерой

разброса случайной величины, имеющей ту же размерность, что и сама

случайная величина. За эту меру принимают положительное значение

квадратного корня из дисперсии и называют ее средним квадратичным

отклонением.

(11) ?x=? D[X] = ? ?x

МОМЕНТЫ МНОГОМЕРНЫХ СЛУЧАЙНЫХ ВЕЛИЧИН.

Как и для одномерных, случайных величин, для случайных векторов вводят

понятие начального и центрального моментов. Рассмотрим случайный n-мерный

вектор - столбец Х с координатами х1, х2,...,хn

Смешанным начальным моментом порядка k1+k2 +,...,+kn случайных,

величин х1, .. , хn называется математическое ожидание произведения

(12) ?k1, k2,..., kn=M[x1k1, x2k2,..., xnkn]

Смешанным центральным моментом порядка k1, k2,..., kn случайных,

величин х1 ,..,хn называется математическое ожидание произведения

(x1?)k1(x2?)k2..(xn?)kn соответствующих центрированных случайных величин

т.е.

(13) ?k1, k2,..., kn=M[(x1?)k1(x2?)k2...(xn?)kn]

Вычислим момент первого порядка для координат вектора X

(14) ?0,..,0,1,0,..,0=M[(x1)?...(xi-1)? xi (xi+1)?...(xn)?=M[xi]

Отсюда, следует, что начальные моменты первого порядка для системы n-

случайных величин, есть математическое ожидание этих случайных величин.

Математическим ожиданием случайного вектора Х называется вектор,

координатами которого являются математические ожидания соответствующих

координат случайного вектора Х, т.е.

(15) M[X]T=M[x1]...M[xn]

Рассмотрим момент второго порядка, пусть имеем две случайные величины хi,

уi. Вычислим смешанный центральный момент второго порядка. Согласно

равенству (13) имеем:

(16) ?1,1=M(xi?yj?)

Смешанный центральный момент второго порядка случайных величин называется

корреляционным моментом и обозначается Кij.

Кроме корреляционного момента двух случайных величин, для

характеристики связи случайных величин введем безразмерный коэффициент rij,

равный отношению корреляционного момента Kij случайных величин хi, уj к

положительному значению квадратного корня из произведения дисперсией этих

случайных величин. Этот коэффициент называется коэффициентом корреляции

случайных величин т. е.

Kij

(18) rij= ?D[xi]D[xj]

Рассмотрим случайный вектор Х с коэффициентами х1, х2,.., хn. Матрица

К, составленная из корреляционных моментов для всех координат этого

случайного вектора:

k11 k12 ......k1n

k21 k22 ......k2n

(19) K= ...................... =M[X?(X?)T]=[M[Xi?Xj?]]

kn1 kn2 ......knn

называется корреляционной матрицей случайного вектора Х. из свойств

корреляционного момента следует, что Кij=Кji, т.е. матрица К является

симметричной:

(20) КT=К

Пусть выполняется линейное преобразование случайного вектора Х, задаваемого

в некотором базисе матрицей В, т.е.

(21) Y=ВХ

Страницы: 1, 2, 3, 4


ИНТЕРЕСНОЕ



© 2009 Все права защищены.