Разделы


Рекомендуем
Автоматическая электрика  Структура электропривода 

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 [ 108 ] 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204

9.5. ОСНОВНЫЕ ПОЛОЖЕНИЯ СТАТИСТИЧЕСКОГО АНАЛИЗА СИСТЕМ АВТОМАТИЗИРОВАННОГО УПРАВЛЕНИЯ ЭЛЕКТРОПРИВОДАМИ

Наиболее общий подход к решению задач анализа и синтеза систем электроприводов дает статистическая (вероятностная) теория автоматического регулирования [9.21]. В соответствии с ней входные воздействия системы представляются как случайные величины, принимающие в каждом данном отсчете одно из множества возможных значений. Случайные процессы н величины обозначаются прописными буквами X (О в отлнчне от их реализаций X (Q. Так же, как рассматривавшиеся выше детерминированные процессы, которые полностью определяются как функции времени, случайные процессы могут квантоваться по уровню н дисхретнзнроваться во времени. Дискретизнрованнын случайный процесс называется случайной последовательностью. Он может быть образовав нз случайной непрерывной функции X (/) (как н для детерминированных функций) заменой аргумента / на пТд и обозначается X* (О-

Наиболее полными характернстнкамн случайной величины являются ее законы распределения. Для квантованной по уровню величины Хд, принимающей значения Xgi, одномерным (в статике) законом распределения является функция p{Xgi), выражающая вероятность каждого данного значения Xgi и называемая функцией распределения нлн просто распределением, причем

f = -го

Для неквантованной величины X кумулятивной функцией распределения нлн интегральным распределением называется функция Р {х), выражающая вероятность того, что рассматриваемая величина примет значение X X. Производная от нее функция

p(x)=dP{x)/dx (9.51)

есть плотность вероятности нлн дифференциальное распределение, причем Р (+< ) = 1 и

5 p{x)dx = l. (9.52)

Выражение (9.52) соответствует выражению (9.50) прн Q -> 0.

В качестве менее подробных описаний случайных величин часто пользуются момен-та.мн распределений [9.22]

;p*=M[;f*]= xip(x)dx

для некваитоваииых величин и (=-со

для квантованных величин.

Моменты первого порядка

- = А = Л1[Х]= xp{x)dx

( = -GO

называются математическим ожиданием и определяют среднее значение, вокруг которого группируются возможные реализации случайной величины. Случайная величина является центрированной н обозначается JC, если ее математическое ожидание равно нулю. Моменты К-то порядка центрированных величин называются центральными, а непентриро-ванных - начальными. Математическое ожидание отклонения случайной величины X от ее математического ожидания X (центральный момент первого порядка) всегда равно нулю. Второй центральный момент

D\X\ = M\b]= I {X-mYp(x)dX--= Л1[Х*1-(т)

f=-00

называется дисперсией случайной величины и характеризует меру рассеивания ее реализации относительно своего среднего значения. Среднеквадратнческое отклонение случайной величины обозначается o = o[X]=lD [X]. Плотность распределения вероятности

вида

р (X) = &i а)-1 ехр [-(Х- туЦ2а\)

определяет нормальное (гауссово) распределение случайной величины, известное как распределение уровней случайного шума, т. е. суммы большого числа независимых случайных величин. Для нормального распределения наибольшее абсолютное отклонение 8 j = 30;f с вероятностью 0,997.

Степень зависимости двух случайных величин X я Y характеризуется корреляционным моментом

K-M[iX~m){Y-my)l

Для независимых величин = 0.

Можно оперировать с квантованными и некваитованиыми распределениями совершеиг но одинаковым образом, если представить повторяющийся нмпульс (дельта-функцию Днрака)

тер, б {х)

- b(x-iq\ <.=-оо



компонентой квантованной плотности вероятности:

Р (Xgi) =гер, б W р (X) * rect (-)}. (9.53)

rect(iL)

1 при О при

обозначает единичный прямоугольный нмпульс.

Выражение (9.53) означает, что плотность р (х) сглаживаетсн в результате свертки с прямоугольником шириной q (шаг квантовании), а затем квантуется. Прн таком представлении, введи дополнительно понятие характеристической функции распределении

Р()= f p(x)exp(-iyx)dx, (9.54)

- 00

котораи ивлиется преобразованием Фурье длн плотиостн вероятности, можно сформулировать теорему квантовании: неквантованное распределение квантованного сигнала можно восстановить, если повторяющиеся копии его характеристической функции

Р (Уд) = гер2 /, {Р {у) sine yq) (9.55)

разнесены настолько, что их можно рассматривать и обрабатывать как отдельные, т. е. 2nlq больше протяженности спектра Р {у) по оси у и квантование производитси с достаточно малым шагом q.

Теорема квантования указывает ориентировочные границы соответствия цифровых и аналоговых величин и позволиет вычислить приблизительно наибольшие ошибки квантования на этих границах.

Так, путем повторного дифференцировании характеристической функции (9.54) можно показать, что моменты распределении опреде-лнютсн выражением

.?*-.(/)* р* (0),

и функцию можно представить в виде рнда Тейлора

00 со

Piy) J/*P*(0)/nl= {-iy) X/n\.

k=0 k = 0

(9.56)

Выделяй нервую из повторяющихся копни Р (уд) в (9.55) подобно тому, как при помощи фильтра нижних частот восстанавливают днскретизнрованный сигнал, н, раскладывай характеристическую функцию в степенной ряд, находит систему соотношений, связывающих моменты квантованного и не-квантованного сигналов:

: . х=}; xxi-qvi2: X =X-X<fiV4 и т. а.

в частности, из второго соотношения следует хорошо известное положение о том, что

при выполнении условий теоремы квантования и равномерном распределении значений ошибки квантовании в интервале (-q/2, q/2) среднеквадратичная ошибка квантовании ад=

= q/Ys. По теореме квантовании предпола-гаетсн статистическое восстановление сигнала, а не восстановление его отдельных реализаций.

Случайные функции, которыми приходится оперировать в цифровых системах управления электроприводами, могут быть функциями различных переменных, но чаще всего нх аргументом бывает времн. Обычно непрерывные случайные функции представ-лнютсн в виде элементарной случайной функции X (О = Хф (О, где X - случайная величина, ф (О - детерминированнан функция времени, илн в виде суммы элементарных случайных функций

Прн этом величина Xj может быть, например, квантованной по уровню Хд{, а функция ф (о - днскретнзнрованной во времени функцией (t). Случайная функция, у которой основные вероятностные характеристики не зависят от времени (хоти некоторые нз них могут зависеть от разности времен т = = а - i). называется стационарной. Длн исследовании снетем регулировании в рамках коррелиционной теории а качестве основных характеристик случайной функции обычно рассматривают ее математическое ожидание н корреляционную функцию.

Математическое ожидание случайной функции

m{t)=MlX(t)] (9.57)

- это детерминированнан функции, вблизи которой группируются конкретные реализации случайной функции X (/).

Многие стационарные случайные процессы обладают свойством эргодичности, т. е. длн них математическое ожидание совпадает со средним по времени, полученным в результате одной реализации.

Коррелиционнаи (автокоррелнционнан) функции

ЛГхСг h)=M{[X(t,)-m(t,)]x x[X(t,)-mX(t)]}=M[X(t,))c(t,)]

(9.58)

- это детерминированнан функции двух аргументов ti и t, характеризующан степень изменчивости случайной функции X (/) Из (9,58) при ti= ti - < находится значение дисперсии случайной функции

Dx(0 = AI[40] (?-59)

(также неслучайная функции) и значение среднеквадратичного отклонении ее

ах(0 = о[Л(0]-15, (9.60)

Характеристики дискретизироваииого случайного процесса получаются из выраже-



НИИ (9.57) - (9.60) посредством замены аргументов ti и ti на аргументы щТд и щТд соответственно. Например, выражение корреляционной функции стационарного процесса (<2 - <1 = т для непрерывных процессов и пТа - ПхТа - тТд для дискретных) имеет вид:

(т) = 1 im Т-1 f X (ti) X (ti+т) dti для непрерывных процессов и iv

= lim (2Л/+1)-1 У Я(П1То)Х

хХ[(П1+т)Го)

для декретных процессов.

Оптимизация систем управлеиия электроприводами по критерию минимума среднеквадратичного отклонения (9.60) широко распространена. В частности, если X (/) имеет размерность тока (или .напряжения), то (О в (9.59) имеет размерность мощности!

а интеграл от ( по времени есть мера энергии, рассеиваемой в сопротивления сигналом X (t).

В соответствии с теоремой Парсевали

Х (i)dt--

X*(p)dQ (9.61)

полная энергия сигнала равна сумме энергий каждой частотной составляющей его спектра. Важное значение имеет теорема Винера-Хинчииа о том, что временная автокорреляционная функция (т) и частотная функция (Q), пропорциональная среднему значению мощности спектральных составляющих стационарного процесса X (Q и называемая спектральной плотностью, связаны между собой преобразованиями Фурье:

S 5;f(Q)expyQT),

-00 00

Sx(Q)coeQxdQ; (9.62) (Q) - f (x) exp (- /От) dT=

- 00 CO

=2J ATjf(T)co8QT(fr.

Из (9.62) при т = О получается выражение для дисперсии X (i):

аналогичное (9.61). Приближеинаи оценка низкочастотной части суммарной среднеквадратичной ошибки в оптимизированной разомкнутой системе дискретизации и восстановления довольно распространенного сигнала, состоящего из большого числа прямоугольных импульсов со случайной амплитудой и случайной длительностью, записывается в виде [9.23]

0,425 / 2я-1 \/9о.\ад-1

(9.63)

где п - параметр среза спектра входаого сигнала, начиная от Ос, по закону 1/0* ; г - параметр среза характеристики входного фильтра, начиная с Оо/2, по закону 1/0* , причем обе характеристики До начала среза равномерны, и п+ г2. Зная параметры сигнала и фильтров и задаваясь допустимым значением < по (9.63) можио определить

частоту дискретизации Qq- Как следует из (9.63), величина при заданной частоте Од

уменьшается с ростом крутизны среза частотных характеристик сигнала и входного фильтра, что уже упоминалось выше без доказательства. Приведенный характерный пример не может быть распространен на случай нерегулярных спектров, в частности, содержащих периодаческне компоненты.

Дли важного класса стационарных нормальных случайных процессов имеет место весьма хорошее приближение характеристик сигнала ошибки кваитоваиии и физического белого шума [9.24].

Под термином белый шум> имеется н виду идеальный случайный шум, значении которого, разнесенные во времени, практически не коррелированы, т. е. для него К (т) = = б (<) и 5 (О) = 1 - спектральная плотность постоянна в бесконечно широкой полосе частот, а дасперсия ие имеет конечного значения. Под физическим белым шумом понимается такой процесс, у которого спектраль-иан плотность приблизительно постоянна в некоторой достаточно широкой полосе частот

(О) = С и (т) = С б (т). При такой аппроксимации корреляционная фуикции шума квантования может быть представлена в следующем виде:

iC,(x) = 4exp{-i[Ox-/C;c(x)]}.

где о и /Сх (х) - среявеквадратичное значение и корреляционная кция входаого сигнала, а дисперсия ошибки квантования, полутаииая иа осиованяк (9.55) и (9.56), равна о = 4/12. Спектральная плотность такого процесса близка к 4Ат/12, где Ах - интервал корреляция.

Для сигналов, представленных в аналоговой форме, безусловная энтропия имеет вид [9.211:

Я(Х)- J p{x)loap(x)dx. (9.64)

где р (дс) - плотность вероятности.




1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 [ 108 ] 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204

Яндекс.Метрика
© 2010 KinteRun.ru автоматическая электрика
Копирование материалов разрешено при наличии активной ссылки.