Система управления, управляемая данными

редактировать

Системы управления, управляемые данными - это широкое семейство систем управления, в которых идентификация модели процесса и / или конструкция контроллера полностью основаны на экспериментальных данных, собранных с завода.

Во многих приложениях управления попытка написать математическую модель Завод считается сложной задачей, требующей усилий и времени от инженеров-технологов и инженеров по управлению. Эта проблема решается с помощью методов, управляемых данными, которые позволяют подогнать модель системы к собранным экспериментальным данным, выбрав ее в конкретный класс моделей. Затем инженер по управлению может использовать эту модель для разработки подходящего контроллера для системы. Однако до сих пор трудно найти простую, но надежную модель физической системы, которая включала бы только те динамические характеристики системы, которые представляют интерес для спецификаций управления. Методы, управляемые прямыми данными, позволяют настраивать контроллер, принадлежащий к заданному классу, без необходимости идентифицировать модель системы. Таким образом, можно просто взвесить интересующую динамику процесса внутри функции затрат на управление и исключить те динамики, которые не представляют интереса.

Содержание
  • 1 Обзор
    • 1.1 Косвенные и прямые методы
    • 1.2 Итерационные и неитерационные методы
    • 1.3 Сетевые и автономные методы
  • 2 Итерационная настройка обратной связи
  • 3 Безытерационная корреляция настройка на основе
    • 3.1 Ограничение стабильности
  • 4 Настройка обратной связи виртуального задания
  • 5 Ссылки
  • 6 Внешние ссылки
Обзор

Стандартный подход к проектированию систем управления состоит из двух частей: шаги:

  1. Идентификация модели направлена ​​на оценку номинальной модели системы G ^ = G (q; θ ^ N) {\ displaystyle {\ widehat {G}} = G \ left (q; {\ widehat {\ theta}} _ {N} \ right)}{\ displaystyle {\ widehat {G}} = G \ left (q; {\ widehat {\ theta}} _ {N} \ right)} , где q {\ displaystyle q}q - оператор единичной задержки (для представления функций передачи в дискретном времени) и θ ^ N {\ displaystyle {\ widehat {\ theta}} _ {N}}{\ displaystyle {\ widehat {\ theta}} _ {N}} - вектор параметров G {\ displaystyle G}G идентифицировано в наборе данных N {\ displaystyle N}N . Затем проверка состоит в построении набора неопределенности Γ {\ displaystyle \ Gamma}\ Гамма , который содержит истинную систему G 0 {\ displaystyle G_ {0}}G_ {0} при определенный уровень вероятности.
  2. Дизайн контроллера направлен на поиск контроллера C {\ displaystyle C}C, обеспечивающего стабильность замкнутого контура и требуемую производительность с G ^ { \ displaystyle {\ widehat {G}}}\ widehat {G} .

Типичные цели идентификации системы - иметь G ^ {\ displaystyle {\ widehat {G}}}\ widehat {G} как как можно ближе к G 0 {\ displaystyle G_ {0}}G_ {0} и иметь как можно меньший размер Γ {\ displaystyle \ Gamma}\ Гамма . Однако с точки зрения идентификации для управления действительно имеет значение производительность, достигаемая контроллером, а не внутреннее качество модели.

Один из способов справиться с неопределенностью - разработать контроллер, который имеет приемлемую производительность со всеми моделями в Γ {\ displaystyle \ Gamma}\ Гамма , включая G 0 { \ Displaystyle G_ {0}}G_ {0} . Это основная идея, лежащая в основе процедуры проектирования робастного управления, которая направлена ​​на построение описаний неопределенности процесса в частотной области. Однако, будучи основанным на предположениях наихудшего случая, а не на идее усреднения шума, этот подход обычно приводит к консервативным наборам неопределенности. Скорее, методы, основанные на данных, имеют дело с неопределенностью, работая с экспериментальными данными и избегая чрезмерного консервативизма.

Далее представлены основные классификации систем управления, управляемых данными.

Косвенные и прямые методы

Есть много доступных методов для управления системами. Принципиальное различие заключается между косвенными и прямыми методами проектирования контроллера. Первая группа методик по-прежнему сохраняет стандартный двухэтапный подход, т.е. сначала идентифицируется модель, а затем настраивается контроллер на основе этой модели. Основная проблема при этом заключается в том, что контроллер вычисляется на основе оценочной модели G ^ {\ displaystyle {\ widehat {G}}}\ widehat {G} (согласно эквивалентности достоверности принцип), но на практике G ^ ≠ G 0 {\ displaystyle {\ widehat {G}} \ neq G_ {0}}{\ displaystyle {\ widehat {G}} \ neq G_ {0}} . Чтобы преодолеть эту проблему, идея последней группы методов состоит в том, чтобы отображать экспериментальные данные непосредственно на контроллер, без определения какой-либо модели между ними.

Итерационные и безытерационные методы

Еще одно важное различие заключается между итеративными и безитеративными (или одноразовыми ) методами. В первой группе необходимы повторные итерации для оценки параметров контроллера, во время которых выполняется задача оптимизации на основе результатов предыдущей итерации, и ожидается, что оценка будет становиться все более и более точной на каждой итерация. Этот подход также может быть реализован в интерактивном режиме (см. Ниже). В последней группе параметризация (оптимального) регулятора обеспечивается единственной оптимизационной задачей. Это особенно важно для тех систем, в которых итерации или повторения экспериментов по сбору данных ограничены или даже не разрешены (например, из-за экономических аспектов). В таких случаях следует выбрать метод проектирования, позволяющий поставить контроллер на одном наборе данных. Этот подход часто реализуется в автономном режиме (см. Ниже).

Интерактивные и автономные методы

Поскольку в практических промышленных приложениях данные разомкнутого или замкнутого контура часто доступны непрерывно, данные в режиме онлайн -зависимые методы используют эти данные для повышения качества идентифицированной модели и / или производительности контроллера каждый раз, когда на предприятии собирается новая информация. Вместо этого в автономном режиме работает с пакетом данных, который может собираться только один или несколько раз через регулярный (но довольно длинный) интервал времени.

Настройка итеративной обратной связи

Метод итеративной настройки обратной связи (IFT) был представлен в 1994 году, начиная с наблюдения, что при идентификации для управления каждая итерация основана на (неправильной) достоверности эквивалентности принцип.

IFT - это безмодельный метод прямой итеративной оптимизации параметров контроллера с фиксированным порядком; такие параметры могут быть последовательно обновлены с использованием информации, поступающей из стандартной (замкнутой) работы системы.

Пусть у д {\ displaystyle у ^ {d}}y ^ d быть желательным выходным сигналом для опорного сигнала г {\ displaystyle г}r ; ошибка между достигнутым и желаемым ответом составляет y ~ (ρ) = y (ρ) - yd {\ displaystyle {\ tilde {y}} (\ rho) = y (\ rho) -y ^ {d} }{\ displaystyle {\ tilde {y}} (\ rho) = y (\ rho) -y ^ {d}} . Цель дизайна управления может быть сформулирована как минимизация целевой функции:

J (ρ) = 1 2 N ∑ t = 1 N E [y ~ (t, ρ) 2]. {\ Displaystyle J (\ rho) = {\ frac {1} {2N}} \ sum _ {t = 1} ^ {N} E \ left [{\ tilde {y}} (t, \ rho) ^ { 2} \ right].}{\ displaystyle J (\ rho) = {\ frac {1} {2N}} \ sum _ {t = 1} ^ {N} E \ left [{\ тильда {y}} (t, \ rho) ^ {2} \ right].}

Для минимизации целевой функции можно применить квазиньютоновский метод, т.е. минимизацию на основе градиента с использованием поиска по градиенту типа:

ρ i + 1 = ρ i - γ i R i - 1 d J ^ d ρ (ρ i). {\ displaystyle \ rho _ {i + 1} = \ rho _ {i} - \ gamma _ {i} R_ {i} ^ {- 1} {\ frac {d {\ widehat {J}}} {d \ rho}} (\ rho _ {i}).}{\ displaystyle \ rho _ { i + 1} = \ rho _ {i} - \ gamma _ {i} R_ {i} ^ {- 1} {\ frac {d {\ widehat {J}}} {d \ rho}} (\ rho _ {i}).}

Значение γ i {\ displaystyle \ gamma _ {i}}\ gamma _ {i} - размер шага, R i { \ displaystyle R_ {i}}R_{i}является подходящей положительно определенной матрицей и d J ^ d ρ {\ displaystyle {\ frac {d {\ widehat {J}}} {d \ rho}} }{\ displaystyle {\ frac {d {\ widehat {J}}} {d \ rho}}} - аппроксимация градиента; истинное значение градиента определяется следующим образом:

d J d ρ (ρ) = 1 N ∑ t = 1 N [y ~ (t, ρ) δ y δ ρ (t, ρ)]. {\ displaystyle {\ frac {dJ} {d \ rho}} (\ rho) = {\ frac {1} {N}} \ sum _ {t = 1} ^ {N} \ left [{\ tilde {y }} (t, \ rho) {\ frac {\ delta y} {\ delta \ rho}} (t, \ rho) \ right].}{\ displaystyle {\ frac {dJ} {d \ rho}} (\ rho) = {\ frac {1} {N}} \ sum _ {t = 1} ^ {N} \ left [{\ tilde {y}} (t, \ rho) {\ frac {\ delta y} {\ delta \ rho}} (t, \ rho) \ right].}

Значение δ y δ ρ (t, ρ) {\ displaystyle {\ frac {\ delta y} {\ delta \ rho}} (t, \ rho)}{\ displaystyle {\ frac {\ delta y} {\ дельта \ rho}} (т, \ rho)} получается с помощью следующей трехэтапной методологии:

  1. Обычный эксперимент: выполнить эксперимент с замкнутой системой с C (ρ) {\ displaystyle C (\ rho)}C (\ rho) в качестве контроллера и r {\ displaystyle r}r в качестве ссылки ; собрать N измерений выходного сигнала Y (ρ) {\ displaystyle y (\ rho)}{\ displaystyle y (\ rho)} , обозначается как y (1) (ρ) {\ displaystyle y ^ {(1) } (\ rho)}{\ displaystyle y ^ {(1)} (\ rho)} .
  2. Эксперимент с градиентом: проведите эксперимент в замкнутой системе с C (ρ) {\ displaystyle C (\ rho)}C (\ rho) в качестве контроллера и 0 в качестве эталона р {\ displaystyle r}r ; ввести сигнал r - y (1) (ρ) {\ displaystyle ry ^ {(1)} (\ rho)}{\ displaystyle ry ^ {(1)} (\ rho) } так, чтобы он суммировался с выходом управляющей переменной с помощью C (ρ) {\ displaystyle C (\ rho)}C (\ rho) , входящий в завод. Соберите результат, обозначенный как y (2) (ρ) {\ displaystyle y ^ {(2)} (\ rho)}{\ displaystyle y ^ {(2)} (\ rho) } .
  3. В качестве аппроксимации градиента возьмите следующее: δ y ^ δ ρ ( ρ) знак равно δ С δ ρ (ρ) Y (2) (ρ) {\ displaystyle {\ frac {\ delta {\ widehat {y}}} {\ delta \ rho}} (\ rho) = {\ frac { \ delta C} {\ delta \ rho}} (\ rho) y ^ {(2)} (\ rho)}{\ displaystyle {\ frac {\ delta {\ widehat {y}}} {\ delta \ rho}} ( \ rho) = {\ frac {\ delta C} {\ delta \ rho}} (\ rho) y ^ {(2)} (\ rho)} .

Решающим фактором для скорости сходимости алгоритма является выбор R i { \ Displaystyle R_ {i}}R_{i}; когда y ~ {\ displaystyle {\ tilde {y}}}{\ tilde {y}} мало, хорошим выбором является приближение по направлению Гаусса – Ньютона:

R i = 1 N ∑ t = 1 N δ y ^ δ ρ (ρ i) δ y ^ T δ ρ (ρ i). {\ displaystyle R_ {i} = {\ frac {1} {N}} \ sum _ {t = 1} ^ {N} {\ frac {\ delta {\ widehat {y}}} {\ delta \ rho} } (\ rho _ {i}) {\ frac {\ delta {\ widehat {y}} ^ {T}} {\ delta \ rho}} (\ rho _ {i}).}{\ displaystyle R_ {i} = {\ frac {1} {N}} \ sum _ {t = 1} ^ {N} {\ frac {\ delta {\ widehat {y}}} { \ delta \ rho}} (\ rho _ {i}) {\ frac {\ delta {\ widehat {y}} ^ {T}} {\ delta \ rho}} (\ rho _ {i}).}
Безытерационная корреляция- настройка на основе

Безытерационная настройка на основе корреляции (nCbT) - это неитеративный метод управляемой данными настройки контроллера с фиксированной структурой. Он предоставляет одноразовый метод прямого синтеза контроллера на основе одного набора данных.

Предположим, что G {\ displaystyle G}G обозначает неизвестный LTI-стабильный объект SISO, M {\ displaystyle M}M определяемый пользователем эталонная модель и F {\ displaystyle F}F определяемая пользователем функция взвешивания. Контроллер фиксированного порядка LTI обозначается как K (ρ) = β T ρ {\ displaystyle K (\ rho) = \ beta ^ {T} \ rho}{\ displaystyle K (\ rho) = \ beta ^ {T} \ rho} , где ρ ∈ R n {\ displaystyle \ rho \ in \ mathbb {R} ^ {n}}{\ displaystyle \ rho \ in \ mathbb {R} ^ {n}} , а β {\ displaystyle \ beta}\ beta - вектор на основе LTI функции. Наконец, K ∗ {\ displaystyle K ^ {*}}K ^ {*} - идеальный контроллер LTI любой структуры, гарантирующий функцию замкнутого контура M {\ displaystyle M}M применительно к G {\ displaystyle G}G .

Цель состоит в том, чтобы минимизировать следующую целевую функцию:

J (ρ) = ‖ F (K ∗ G - K (ρ) G (1 + K ∗ G) 2) ‖ 2 2. {\ Displaystyle J (\ rho) = \ left \ | F {\ bigg (} {\ frac {K ^ {*} GK (\ rho) G} {(1 + K ^ {*} G) ^ {2} }} {\ bigg)} \ right \ | _ {2} ^ {2}.}{\ displaystyle J (\ rho) = \ left \ | F {\ bigg (} {\ frac {K ^ {*} GK (\ rho) G} {(1 + K ^ {*} G) ^ {2}}} {\ bigg)} \ right \ | _ {2} ^ {2}.}

J (ρ) {\ displaystyle J (\ rho)}{\ displaystyle J (\ rho)} - выпуклая аппроксимация цели функция, полученная из эталонной задачи модели, предполагая, что 1 (1 + K (ρ) G) ≈ 1 (1 + K ∗ G) {\ displaystyle {\ frac {1} {(1 + K (\ rho) G)}} \ приблизительно {\ frac {1} {(1 + K ^ {*} G)}}}{\ displaystyle {\ frac {1} {(1 + K (\ rho) G)}} \ приблизительно {\ frac {1} {(1 + K ^ {*} G)}}} .

Когда G {\ displaystyle G}G стабильно и минимально - На этапе приближенной эталонной задачи модели эквивалентна минимизации нормы ε (t) {\ displaystyle \ varepsilon (t)}\ varepsilon (t) в схеме на рисунке.

Идея состоит в том, что, когда G стабильна и имеет минимальную фазу, приближенная эталонная задача модели эквивалентна минимизации нормы ε {\ displaystyle \ varepsilon}\ varepsilon .

Входной сигнал r (t) {\ displaystyle r (t)}r(t)должен быть постоянно возбуждающим входным сигналом, а v (t) {\ displaystyle v (t)}v (t) должен быть генерируется стабильным механизмом генерации данных. Таким образом, в эксперименте с разомкнутым контуром два сигнала не коррелируют; следовательно, идеальная ошибка ε (t, ρ ∗) {\ displaystyle \ varepsilon (t, \ rho ^ {*})}{\ displaystyle \ varepsilon (t, \ rho ^ {*})} не коррелирует с r (t) {\ displaystyle r (t)}r(t). Таким образом, цель управления состоит в нахождении ρ {\ displaystyle \ rho}\ rho такого, что r (t) {\ displaystyle r (t)}r(t)и ε (t, ρ ∗) {\ displaystyle \ varepsilon (t, \ rho ^ {*})}{\ displaystyle \ varepsilon (t, \ rho ^ {*})} не коррелированы.

Вектор инструментальных переменных ζ (t) {\ displaystyle \ zeta (t)}\ zeta (t) определяется как:

ζ (t) = [r W (t + ℓ 1), r W (t + ℓ 1 - 1),…, r W (t),…, r W (t - ℓ 1)] T {\ displaystyle \ zeta (t) = [r_ {W} (t + \ ell _ {1}), r_ {W} (t + \ ell _ {1} -1), \ ldots, r_ {W} (t), \ ldots, r_ {W} (t- \ ell _ {1})] ^ {T}}{\ displaystyle \ zeta (t) = [r_ {W} (t + \ ell _ {1}), r_ {W } (t + \ ell _ {1} -1), \ ldots, r_ {W} (t), \ ldots, r_ {W} (t- \ ell _ {1})] ^ {T}}

где ℓ 1 {\ displaystyle \ ell _ {1}}\ ell _ { 1} достаточно велико и r W (t) = W r (t) {\ displaystyle r_ {W} (t) = Wr (t)}{\ displaystyle r_ {W} (t) = Wr (t)} , где W {\ displaystyle W}W - подходящий фильтр.

Корреляционная функция:

f N, ℓ 1 (ρ) = 1 N ∑ t = 1 N ζ (t) ε (t, ρ) {\ displaystyle f_ {N, \ ell _ {1}} (\ rho) = {\ frac {1} {N}} \ sum _ {t = 1} ^ {N} \ zeta (t) \ varepsilon (t, \ rho)}{\ displaystyle f_ {N, \ ell _ {1}} (\ rho) = {\ frac {1} {N}} \ sum _ {t = 1} ^ {N} \ zeta (t) \ varepsilon (t, \ rho)}

и задача оптимизации принимает следующий вид:

ρ ^ = argmin ρ ∈ D k JN, ℓ 1 (ρ) = argmin ρ ∈ D kf N, ℓ 1 T f N, ℓ 1. {\ displaystyle {\ widehat {\ rho}} = {\ underset {\ rho \ in D_ {k}} {\ operatorname {arg \, min}}} J_ {N, \ ell _ {1}} (\ rho) = {\ underset {\ rho \ in D_ {k}} {\ operatorname {arg \, min}}} f_ {N, \ ell _ {1}} ^ {T} f_ {N, \ ell _ {1 }}.}{\ displaystyle {\ widehat {\ rho}} = {\ underset {\ rho \ in D_ { k}} {\ operatorname {arg \, min}}} J_ {N, \ ell _ {1}} (\ rho) = {\ underset {\ rho \ in D_ {k}} {\ operatorname {arg \, min}}} f_ {N, \ ell _ {1}} ^ {T} f_ {N, \ ell _ {1}}.}

Обозначение ϕ r (ω) {\ displaystyle \ phi _ {r} (\ omega)}{\ displaystyle \ phi _ {r} (\ omega)} спектр r (t) {\ displaystyle r (t)}r(t), можно продемонстрировать, что при некоторых предположениях, если W {\ displaystyle W}W выбран как:

W (e - j ω) знак равно F (е - j ω) (1 - M (е - j ω)) ϕ r (ω) {\ displaystyle W (e ^ {- j \ omega}) = {\ frac {F (e ^ { -j \ omega}) (1-M (e ^ {- j \ omega}))} {\ phi _ {r} (\ omega)}}}{\ displaystyle W (e ^ {- j \ omega}) = {\ frac {F (e ^ {- j \ omega}) (1-M (e ^ {- j \ omega}))} {\ phi _ {r} (\ omega)}}}

тогда выполняется следующее:

lim N, 1 → ∞, ℓ 1 / N → ∞ ρ ^ = ρ ∗. {\ displaystyle \ lim _ {N, \ ell _ {1} \ to \ infty, \ ell _ {1} / N \ to \ infty} {\ widehat {\ rho}} = \ rho ^ {*}.}{\ displaystyle \ lim _ {N, \ ell _ {1} \ to \ infty, \ ell _ {1} / N \ to \ infty} {\ widehat {\ rho}} = \ rho ^ {*}.}

Ограничение стабильности

Нет гарантии, что контроллер K {\ displaystyle K}K , который минимизирует JN, ℓ 1 {\ displaystyle J_ {N, \ ell _ {1}}}{\ displaystyle J_ {N, \ ell _ {1}}} стабильно. Нестабильность может возникнуть в следующих случаях:

  • Если G {\ displaystyle G}G не минимальная фаза, K ∗ {\ displaystyle K ^ {*}}K ^ {*} может привести к сокращению в правой половине комплексной плоскости.
  • Если K ∗ {\ displaystyle K ^ {*}}K ^ {*} (даже если стабилизация) недостижима, K (ρ) {\ displaystyle K (\ rho)}{\ displaystyle K (\ rho)} может не быть стабилизирующим.
  • Из-за шума измерения, даже если K ∗ = K (ρ) {\ displaystyle K ^ {*} = K (\ rho)}{\ displaystyle K ^ {*} = K (\ rho)} стабилизирует, по оценкам данных K ^ (ρ) {\ displaystyle {\ widehat {K}} (\ rho) }{\ displaystyle {\ widehat {K} } (\ rho)} может быть не так.

Рассмотрим стабилизирующий контроллер K s {\ displaystyle K_ {s}}K_ {s } и передаточную функцию замкнутого контура M s = К s G 1 + К s G {\ displaystyle M_ {s} = {\ frac {K_ {s} G} {1 + K_ {s} G}}}{\ displaystyle M_ {s} = {\ frac {K_ {s} G} {1 + K_ {s} G}}} . Определите:

Δ (ρ): знак равно M s - K (ρ) G (1 - M s) {\ displaystyle \ Delta (\ rho): = M_ {s} -K (\ rho) G (1- M_ {s})}{\ displaystyle \ Delta (\ rho): = M_ {s} -K (\ rho) G (1-M_ {s})}
δ (ρ): = ‖ Δ (ρ) ‖ ∞. {\ displaystyle \ delta (\ rho): = \ left \ | \ Delta (\ rho) \ right \ | _ {\ infty}.}{\ displaystyle \ delta (\ rho): = \ влево \ | \ Delta (\ rho) \ right \ | _ {\ infty}.}
Теорема
Контроллер K (ρ) {\ displaystyle K (\ rho)}{\ displaystyle K (\ rho)} стабилизирует растение G {\ displaystyle G}G if
  1. Δ (ρ) {\ displaystyle \ Delta (\ rho)}{\ displaystyle \ Delta (\ rho)} стабильно
  2. ∃ δ N ∈ (0, 1) {\ displaystyle \ exists \ delta _ {N} \ in (0,1)}{\ displaystyle \ exists \ delta _ {N} \ in (0,1)} ул. δ (ρ) ≤ δ N. {\ displaystyle \ delta (\ rho) \ leq \ delta _ {N}.}{\ displaystyle \ delta (\ rho) \ leq \ delta _ {N}.}

Условие 1. выполняется, когда:

  • K (ρ) {\ displaystyle K (\ rho)}{\ displaystyle K (\ rho)} является стабильным
  • K (ρ) {\ displaystyle K (\ rho)}{\ displaystyle K (\ rho)} содержит интегратор (он отменен).

Эталонный проект модели с ограничением устойчивости принимает следующий вид:

ρ s = argmin ρ ∈ D К J (ρ) {\ Displaystyle \ rho _ {s} = {\ underset {\ rho \ in D_ {k}} {\ operatorname {arg \, min}}} J (\ rho) }{\ displaystyle \ rho _ {s} = {\ подмножество {\ rho \ in D_ {k}} {\ operatorname {arg \, min}}} J (\ rho)}
ул. δ (ρ) ≤ δ N. {\ displaystyle {\ text {s.t. }} \ delta (\ rho) \ leq \ delta _ {N}.}{\ displaystyle {\ text {st }} \ delta (\ rho) \ leq \ delta _ {N}.}

A выпуклая оценка на основе данных из δ (ρ) {\ displaystyle \ delta (\ rho)}{\ displaystyle \ delta (\ rho)} можно получить с помощью дискретного преобразования Фурье..

Определите следующее:

R ^ r (τ) = 1 N ∑ t = 1 N r (t - τ) r (t) для τ = - ℓ 2,…, ℓ 2 R ^ r ε (τ) = 1 N ∑ t = 1 N r (t - τ) ε (t, ρ) для τ = - ℓ 2,…, ℓ 2. {\ displaystyle {\ begin {align} {\ widehat {R}} _ {r} (\ tau) = {\ frac {1} {N}} \ sum _ {t = 1} ^ {N} r ( t- \ tau) r (t) {\ text {for}} \ tau = - \ ell _ {2}, \ ldots, \ ell _ {2} \\ [4pt] {\ widehat {R}} _ {r \ varepsilon} (\ tau) = {\ frac {1} {N}} \ sum _ {t = 1} ^ {N} r (t- \ tau) \ varepsilon (t, \ rho) {\ text {for}} \ tau = - \ ell _ {2}, \ ldots, \ ell _ {2}. \ end {align}}}{\ displaystyle {\ begin {align} {\ widehat {R}} _ {r} (\ tau) = {\ frac { 1} {N}} \ sum _ {t = 1} ^ {N} r (t- \ tau) r (t) {\ text {for}} \ tau = - \ ell _ {2}, \ ldots, \ ell _ {2} \\ [4pt] {\ widehat {R}} _ {r \ varepsilon} (\ tau) = {\ frac {1} {N}} \ sum _ {t = 1} ^ { N} r (t- \ tau) \ varepsilon (t, \ rho) {\ text {for}} \ tau = - \ ell _ {2}, \ ldots, \ ell _ {2}. \ End {выравнивается} }}

Для стабильных установок с минимальной фазой следующие дана выпуклая задача оптимизации, управляемая данными :

ρ ^ = argmin ρ ∈ D k JN, ℓ 1 (ρ) st | Τ = - ℓ 2 ℓ 2 R ^ r ε (τ, ρ) e - j τ ω k | ≤ δ N | Τ = - ℓ 2 ℓ 2 R ^ r (τ, ρ) e - j τ ω k | ω К знак равно 2 π К 2 ℓ 2 + 1, К знак равно 0,…, ℓ 2 + 1. {\ Displaystyle {\ begin {align} {\ widehat {\ rho}} = {\ underset {\ rho \ in D_ {k}} {\ operatorname {arg \, min}}} J_ {N, \ ell _ {1}} (\ rho) \\ [3pt] {\ text {st}} \\ [3pt] {\ bigg |} \ sum _ {\ tau = - \ ell _ {2}} ^ {\ ell _ {2}} {\ widehat {R}} _ {r \ varepsilon} (\ tau, \ rho) e ^ {- j \ tau \ omega _ {k}} {\ bigg |} \ leq \ delta _ {N} {\ bigg |} \ sum _ {\ tau = - \ ell _ {2}} ^ {\ ell _ {2}} {\ widehat {R}} _ {r} (\ tau, \ rho) e ^ {- j \ tau \ omega _ {k}} {\ bigg |} \\ [4pt] \ omega _ {k} = {\ frac {2 \ pi k} {2 \ ell _ {2} +1}}, \ qquad k = 0, \ ldots, \ ell _ {2} +1. \ end {выравнивается} }}{\ displaystyle {\ begin {align} {\ widehat {\ rho}} = {\ underset {\ rho \ in D_ {k}} {\ operatorname {arg \, min}}} J_ {N, \ ell _ {1}} (\ rho) \\ [3pt] {\ text {st}} \\ [3pt] {\ bigg |} \ sum _ {\ tau = - \ ell _ {2}} ^ { \ ell _ {2}} {\ widehat {R}} _ {r \ varepsilon} (\ tau, \ rho) e ^ {- j \ tau \ omega _ {k}} {\ bigg |} \ leq \ delta _ {N} {\ bigg |} \ sum _ {\ tau = - \ ell _ {2}} ^ {\ ell _ {2}} {\ widehat {R}} _ {r} (\ tau, \ rho) e ^ {- j \ tau \ omega _ {k}} {\ bigg |} \\ [4pt] \ omega _ {k} = {\ frac {2 \ pi k} {2 \ ell _ {2} +1}}, \ qquad k = 0, \ ldots, \ ell _ {2} +1. \ End {align}}}
Настройка обратной связи виртуального задания

Настройка обратной связи виртуального задания (VRFT) - это неитеративный метод для управляемой данными настройки контроллера с фиксированной структурой. Он предоставляет одноразовый метод прямого синтеза контроллера на основе одного набора данных.

VRFT был сначала предложен, а затем расширен на системы LPV. VRFT также основывается на идеях, представленных в виде VRD 2 {\ displaystyle VRD ^ {2}}{\ displaystyle VRD ^ {2}} .

Основная идея - определить желаемую модель замкнутого контура M {\ displaystyle M}M и использовать его обратную динамику для получения виртуального эталона rv (t) {\ displaystyle r_ {v} (t)}{\ displaystyle r_ {v} (t)} из измеренного выходного сигнала y (t) {\ displaystyle y (t)}y (t) .

Основная идея состоит в том, чтобы определить желаемую модель замкнутого контура M и использовать ее обратную динамику для получения виртуального эталона из измеренного выходного сигнала y.

Виртуальные сигналы: rv (t) знак равно M - 1 y (t) {\ displaystyle r_ {v} (t) = M ^ {- 1} y (t)}{\ displaystyle r_ {v} (t) = M ^ {- 1} y (t)} и ev (t) = rv ( т) - у (т). {\ displaystyle e_ {v} (t) = r_ {v} (t) -y (t).}{\ displaystyle e_ {v} ( t) = r_ {v} (t) -y (t).}

Оптимальный контроллер получается из бесшумных данных путем решения следующей задачи оптимизации:

ρ ^ ∞ = argmin ρ lim N → ∞ J vr (ρ) {\ displaystyle {\ widehat {\ rho}} _ {\ infty} = {\ underset {\ rho} {\ operatorname {arg \, min}}} \ lim _ { N \ to \ infty} J_ {vr} (\ rho)}{\ displaystyle {\ widehat {\ rho}} _ {\ infty} = {\ underset {\ rho} {\ operatorname {arg \, min}}} \ lim _ {N \ to \ infty} J_ {vr} (\ rho)}

где функция оптимизации задается следующим образом:

J vr N (ρ) = 1 N ∑ t = 1 N (u (t) - K (ρ) ev (t)) 2. {\ Displaystyle J_ {vr} ^ {N} (\ rho) = {\ frac {1} {N}} \ sum _ {t = 1} ^ {N} \ left (u (t) -K (\ rho) e_ {v} (t) \ right) ^ {2}.}{\ displaystyle J_ {vr} ^ {N} (\ rho) = {\ frac {1} {N}} \ sum _ {t = 1} ^ {N} \ left (u (t) -K (\ rho) e_ {v} (t) \ right) ^ {2}.}
Ссылки
Внешние ссылки
Последняя правка сделана 2021-05-17 14:07:22
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте