Нелинейная идентификация системы

редактировать

Идентификация системы - это метод идентификации или измерения математической модели элемента система по измерениям входов и выходов системы. Приложения идентификации системы включают любую систему, в которой можно измерить входы и выходы, и включают промышленные процессы, системы управления, экономические данные, биология и науки о жизни, медицина, социальные системы и многие другие.

A нелинейная система определяется как любая система, которая не является линейной, то есть любая система, которая не удовлетворяет принципу суперпозиции. Это отрицательное определение скрывает, что существует очень много разных типов нелинейных систем. Исторически идентификация систем для нелинейных систем развивалась путем сосредоточения внимания на конкретных классах систем и в целом может быть разделена на пять основных подходов, каждый из которых определяется классом модели:

  1. серия Volterra, модели,
  2. Блок -структурированные модели,
  3. модели нейронных сетей,
  4. модели NARMAX и
  5. модели пространства состояний.

Для идентификации системы необходимо выполнить четыре шага: данные сбор данных, постулат модели, идентификация параметров и проверка модели. Сбор данных рассматривается как первая и важная часть терминологии идентификации, используемая в качестве исходных данных для модели, которая будет подготовлена ​​позже. Он состоит из выбора подходящего набора данных, предварительной обработки и обработки. Он включает в себя реализацию известных алгоритмов вместе с записью полетных лент, хранением данных и управлением данными, калибровкой, обработкой, анализом и представлением. Более того, проверка модели необходима, чтобы получить уверенность в конкретной модели или отвергнуть ее. В частности, оценка параметров и проверка модели являются неотъемлемыми частями идентификации системы. Валидация относится к процессу подтверждения концептуальной модели и демонстрации адекватного соответствия между результатами вычислений модели и фактическими данными.

Содержание

  • 1 Методы серии Volterra
  • 2 Блочно-структурированные системы
  • 3 Нейронные сети
  • 4 Методы NARMAX
  • 5 Стохастические нелинейные модели
  • 6 См. Также
  • 7 Ссылки
  • 8 Дополнительная литература

Методы серии Вольтерра

В ранних работах преобладали методы, основанные на серии Вольтерра, которая в случае дискретного времени может быть выражена как

y (k) = h 0 + ∑ m 1 = 1 M h 1 (m 1) u (k - m 1) + ∑ m 1 = 1 M ∑ m 2 = 1 M h 2 (m 1, m 2) u (k - m 1) u (k - m 2) + ∑ m 1 = 1 M m 2 = 1 M ∑ м 3 знак равно 1 M час 3 (м 1, м 2, м 3) u (k - m 1) u (k - m 2) u (k - m 3) + ⋯ {\ displaystyle {\ begin { выровнено} y (k) = h_ {0} + \ sum \ limits _ {m_ {1} = 1} ^ {M} h_ {1} (m_ {1}) u (k-m_ {1}) + \ sum \ limits _ {m_ {1} = 1} ^ {M} \ sum \ limits _ {m_ {2} = 1} ^ {M} h_ {2} (m_ {1}, m_ {2}) u (k-m_ {1}) u (k-m_ {2}) \\ {} \ quad {} + \ sum \ li mits _ {m_ {1} = 1} ^ {M} \ sum \ limits _ {m_ {2} = 1} ^ {M} \ sum \ limits _ {m_ {3} = 1} ^ {M} h_ { 3} (m_ {1}, m_ {2}, m_ {3}) u (k-m_ {1}) u (k-m_ {2}) u (k-m_ {3}) + \ cdots \ end {выровнено}}}{\ begin {align} y (k) = h_ {0} + \ sum \ limits _ {{m_ {1} = 1} } ^ {M} h_ {1} (m_ {1}) u (k-m_ {1}) + \ sum \ limits _ {{m_ {1} = 1}} ^ {M} \ sum \ limits _ { {m_ {2} = 1}} ^ {M} h_ {2} (m_ {1}, m_ {2}) u (k-m_ {1}) u (k-m_ {2}) \\ { } \ quad {} + \ sum \ limits _ {{m_ {1} = 1}} ^ {M} \ sum \ limits _ {{m_ {2} = 1}} ^ {M} \ sum \ limits _ { {m_ {3} = 1}} ^ {M} h_ {3} (m_ {1}, m_ {2}, m_ {3}) u (k-m_ {1}) u (k-m_ {2}) u (k-m_ {3}) + \ cdots \ end {align}}

где u (k), y (k); k = 1, 2, 3,... - измеренные вход и выход соответственно и h ℓ (m 1,…, m ℓ) {\ displaystyle h _ {\ ell} (m_ {1}, \ ldots, m _ {\ ell})}h _ {\ ell } (m_ {1}, \ ldots, m _ {\ ell}) - ядро ​​Вольтерра l-го порядка или нелинейная импульсная характеристика l-го порядка. Серия Вольтерра является расширением линейного интеграла свертки. Большинство более ранних алгоритмов идентификации предполагали наличие только первых двух, линейного и квадратичного, ядра Вольтерра и использовали специальные входные данные, такие как гауссовский белый шум и методы корреляции, для идентификации двух ядер Вольтерра. В большинстве этих методов входные данные должны быть гауссовскими и белыми, что является серьезным ограничением для многих реальных процессов. Позднее эти результаты были расширены, чтобы включить первые три ядра Volterra, чтобы обеспечить возможность ввода различных данных, а также другие связанные разработки, включая серию Wiener. Винер, Ли, Бозе и его коллеги из Массачусетского технологического института разработали очень важную работу с 1940-х по 1960-е годы, включая знаменитый метод Ли и Шетцена. Хотя эти методы все еще активно изучаются сегодня, существует несколько основных ограничений. К ним относятся необходимость априори знать количество членов ряда Вольтерра, использование специальных входных данных и большое количество оценок, которые необходимо идентифицировать. Например, для системы, в которой ядро ​​Вольтерра первого порядка описывается, скажем, 30 выборками, потребуется 30x30 точек для ядра второго порядка, 30x30x30 для третьего порядка и так далее, и, следовательно, количество данных, необходимых для получения хороших оценок, становится равным. чрезмерно большой. Эти числа можно уменьшить, используя определенные симметрии, но требования по-прежнему являются чрезмерными, независимо от того, какой алгоритм используется для идентификации.

Блочно-структурированные системы

Из-за проблем с идентификацией моделей Вольтерра были исследованы другие формы моделей в качестве основы для идентификации систем для нелинейных систем. Были введены или повторно представлены различные формы блочных нелинейных моделей. Модель Хаммерштейна состоит из статического однозначного нелинейного элемента, за которым следует линейный динамический элемент. Модель Винера является обратной этой комбинации, так что линейный элемент находится перед статической нелинейной характеристикой. Модель Винера-Хаммерштейна состоит из статического нелинейного элемента, зажатого между двумя динамическими линейными элементами, и доступны несколько других форм модели. Модель Хаммерштейна-Винера состоит из линейного динамического блока, зажатого между двумя статическими нелинейными блоками. Модель Урысона отличается от других блочных моделей, она не состоит из последовательных линейных и нелинейных блоков, но описывает как динамические, так и статические нелинейности в выражении ядра оператора. Все эти модели могут быть представлены серией Volterra, но в этом случае ядра Volterra в каждом случае принимают особую форму. Идентификация состоит из методов на основе корреляции и оценки параметров. Методы корреляции используют определенные свойства этих систем, что означает, что если используются определенные входные данные, часто белый гауссов шум, отдельные элементы могут быть идентифицированы по одному. Это приводит к управляемым требованиям к данным, и отдельные блоки иногда могут быть связаны с компонентами в исследуемой системе.

Более свежие результаты основаны на оценке параметров и решениях на основе нейронных сетей. Было представлено много результатов, и эти системы продолжают углубляться. Одна из проблем заключается в том, что эти методы применимы только к очень специальной форме модели в каждом случае, и обычно эта форма модели должна быть известна до идентификации.

Нейронные сети

Искусственные нейронные сети пытаются свободно имитировать сеть нейронов в головном мозге, в которой вычисления происходят с помощью большого количества простых элементов обработки. Типичная нейронная сеть состоит из ряда простых блоков обработки, связанных между собой, чтобы сформировать сложную сеть. Слои таких модулей организованы таким образом, что данные вводятся на входном уровне и проходят через один или несколько промежуточных слоев, прежде чем попасть на выходной уровень. В контролируемом обучении сеть обучается, оперируя разницей между фактическим и желаемым выходом сети, ошибкой прогнозирования, для изменения силы соединения между узлами. Путем итерации веса изменяются до тех пор, пока ошибка вывода не достигнет приемлемого уровня. Этот процесс называется машинным обучением, потому что сеть регулирует веса так, чтобы воспроизводился выходной шаблон. Нейронные сети были тщательно изучены, и есть много отличных учебников, посвященных этой теме в целом, и более специализированных учебников, в которых упор делается на управление и системные приложения. Существует два основных типа задач, которые можно изучать с помощью нейронных сетей: статические задачи и динамические задачи. Статические проблемы включают распознавание образов, классификацию и аппроксимацию. Динамические проблемы связаны с запаздывающими переменными и больше подходят для идентификации системы и связанных приложений. В зависимости от архитектуры сети задача обучения может быть либо нелинейной по параметрам, которая включает оптимизацию, либо линейной по параметрам, которая может быть решена с использованием классических подходов. Алгоритмы обучения можно разделить на контролируемое, неконтролируемое обучение или обучение с подкреплением. Нейронные сети обладают отличными аппроксимирующими свойствами, но они обычно основаны на стандартных результатах аппроксимации функций с использованием, например, теоремы Вейерштрасса, которая одинаково хорошо применима к полиномам, рациональным функциям и другим хорошо известным моделям. Нейронные сети широко применяются для решения проблем идентификации систем, которые связаны с нелинейными и динамическими отношениями. Однако классические нейронные сети - это чисто статические аппроксимирующие машины. Внутри сети динамики нет. Следовательно, при подгонке динамических моделей вся динамика возникает за счет выделения запаздывающих входов и выходов входному слою сети. Затем процедура обучения создает наилучшее статическое приближение, которое связывает лаговые переменные, назначенные входным узлам, с выходными. Существуют более сложные сетевые архитектуры, в том числе рекуррентные сети, которые производят динамику, вводя во входные узлы возрастающие порядки запаздывающих переменных. Но в этих случаях очень легко переопределить задержки, что может привести к переобучению и плохим свойствам обобщения. У нейронных сетей есть несколько преимуществ; они концептуально просты, легки в обучении и использовании, обладают отличными аппроксимирующими свойствами, важна концепция локальной и параллельной обработки, которая обеспечивает целостность и отказоустойчивое поведение. Самая большая критика классических моделей нейронных сетей заключается в том, что созданные модели полностью непрозрачны и обычно не могут быть записаны или проанализированы. Поэтому очень трудно узнать, что к чему, проанализировать модель или вычислить динамические характеристики на основе модели. Некоторые из этих моментов актуальны не для всех приложений, но они предназначены для динамического моделирования.

Методы NARMAX

n onlinear a uto r egressive m oving средняя модель с исходными данными e x (модель NARMAX) может представлять широкий класс нелинейных систем и определяется как

y (k) = F [y (k - 1), y (k - 2),…, y (k - ny), u (k - d), u (k - d - 1),…, u (k - d - nu), e (k - 1) е (к - 2),…, е (к - ne)] + е (к) {\ Displaystyle {\ begin {выровнено} y (k) = F [y (k-1), y (k- 2), \ ldots, y (k-n_ {y}), u (kd), u (kd-1), \ ldots, u (kd-n_ {u}), \\ {} \ quad e ( k-1), e (k-2), \ ldots, e (k-n_ {e})] + e (k) \ end {align}}}{\ begin {выровнено} y (k) = F [y (k-1), y (k-2), \ ldots, y (k-n_ {y}), u (kd), u (kd-1), \ ldots, u (kd-n_ {u}), \\ {} \ quad e (k-1), e (k-2), \ ldots, e (k-n_ {e})] + e (k) \ end {align}}

где y (k), u (k) и e (k) - выходные, входные и шумовые последовательности системы соответственно; ny {\ displaystyle n_ {y}}n_ {y} , nu {\ displaystyle n_ {u}}n_ { u} и ne {\ displaystyle n_ {e}}n_ {e} - максимальные лаги для выхода, входа и шума системы; F [•] - некоторая нелинейная функция, d - временная задержка, обычно установленная на d = 1. Модель, по сути, представляет собой расширение прошлых входов, выходов и шумов. Поскольку шум моделируется явно, несмещенные оценки модели системы могут быть получены в присутствии ненаблюдаемого высококоррелированного и нелинейного шума. Volterra, блочно-структурированные модели и многие архитектуры нейронных сетей можно рассматривать как подмножества модели NARMAX. С тех пор, как был представлен NARMAX, доказывая, какой класс нелинейных систем может быть представлена ​​этой моделью, на основе этого описания были получены многие результаты и алгоритмы. Большая часть ранних работ была основана на полиномиальных расширениях модели NARMAX. Сегодня это все еще самые популярные методы, но были введены другие более сложные формы, основанные на вейвлетах и других расширениях для представления сильно нелинейных и очень сложных нелинейных систем. Значительная часть нелинейных систем может быть представлена ​​моделью NARMAX, включая системы с экзотическими поведениями, такими как хаос, бифуркации и субгармоники. Хотя NARMAX начинался как название модели, теперь он превратился в философию идентификации нелинейных систем. Подход NARMAX состоит из нескольких этапов:

  • Обнаружение структуры: какие термины присутствуют в модели
  • Оценка параметров: определение коэффициентов модели
  • Проверка модели: объективная и правильная модель
  • Прогнозирование: что будет на выходе в будущем
  • Анализ: каковы динамические свойства системы

Обнаружение структуры является наиболее фундаментальной частью NARMAX. Например, модель NARMAX, которая состоит из одного члена с запаздыванием на входе и одного члена с запаздыванием на выходе, трех слагаемых с запаздывающим шумом, развернутых как кубический многочлен, будет состоять из восьмидесяти двух возможных членов-кандидатов. Такое количество возможных членов возникает из-за того, что расширение по определению включает все возможные комбинации внутри кубического расширения. Наивный подход к оценке модели, включающей все эти термины, с последующим отсечением приведет к численным и вычислительным проблемам, и этого следует всегда избегать. Однако в модели часто важны лишь несколько членов. Поэтому критически важно обнаружение структуры, которое направлено на выбор терминов по одному. Этих целей можно легко достичь, используя алгоритм ортогональных наименьших квадратов и его производные для выбора членов модели NARMAX по одному. Эти идеи также могут быть адаптированы для распознавания образов и выбора признаков и обеспечивают альтернативу анализу главных компонентов, но с тем преимуществом, что признаки раскрываются как базовые функции. которые легко связаны с исходной проблемой.. Методы NARMAX предназначены не только для поиска наилучшей аппроксимирующей модели. Идентификацию системы можно разделить на две цели. Первый включает в себя аппроксимацию, где ключевая цель - разработать модель, которая аппроксимирует набор данных, чтобы можно было делать хорошие прогнозы. Есть много приложений, в которых уместен этот подход, например, для прогнозирования погодных условий, цен на акции, речи, отслеживания целей, классификации шаблонов и т. Д. В таких приложениях форма модели не так важна. Цель состоит в том, чтобы найти схему аппроксимации, которая дает минимальные ошибки прогнозирования. Вторая цель идентификации системы, которая включает первую цель как подмножество, включает в себя гораздо больше, чем просто поиск модели для достижения наилучших среднеквадратических ошибок. Эта вторая цель является причиной разработки философии NARMAX и связана с идеей поиска простейшей структуры модели. Цель здесь - разработать модели, воспроизводящие динамические характеристики базовой системы, найти простейшую возможную модель и, если возможно, связать ее с компонентами и поведением исследуемой системы. Таким образом, основная цель этого второго подхода к идентификации состоит в том, чтобы идентифицировать и раскрыть правило, которое представляет систему. Эти цели имеют отношение к моделированию моделирования и проектированию систем управления, но все чаще используются для приложений в медицине, неврологии и науках о жизни. Здесь цель состоит в том, чтобы идентифицировать модели, часто нелинейные, которые можно использовать для понимания основных механизмов работы и поведения этих систем, чтобы мы могли манипулировать ими и использовать их. Методы NARMAX также были разработаны в частотной и пространственно-временной областях.

Стохастические нелинейные модели

В общей ситуации может случиться так, что некоторое внешнее неопределенное возмущение проходит через нелинейную динамику и влияет на выходы. Класс модели, который является достаточно общим, чтобы отразить эту ситуацию, - это класс стохастических нелинейных моделей пространства состояний. Модель в пространстве состояний обычно получается с использованием основных законов, таких как механические, электрические или термодинамические физические законы, а параметры, которые необходимо идентифицировать, обычно имеют некоторый физический смысл или значение.

Модель в пространстве состояний с дискретным временем может быть определена с помощью разностных уравнений:

xt + 1 = f (xt, ut, wt; θ), yt = g (xt, ut, vt; θ), t = 1, 2,… {\ displaystyle {\ begin {align} x_ {t + 1} = f (x_ {t}, u_ {t}, w_ {t}; \ theta), \\ y_ {t} = g (x_ {t}, u_ {t}, v_ {t}; \ theta), \ quad t = 1,2, \ dots \ end {align}}}{\ displaystyle {\ begin {align} x_ {t + 1} = f (x_ {t}, u_ {t}, w_ {t}; \ theta), \\ y_ { t} = g (x_ {t}, u_ {t}, v_ {t}; \ theta), \ quad t = 1,2, \ dots \ end {align}}}

в котором t {\ displaystyle t}t - положительное целое число, относящееся ко времени. Функции f {\ displaystyle f}fи g {\ displaystyle g}gявляются общими нелинейными функциями. Первое уравнение известно как уравнение состояния, а второе - как уравнение выхода. Все сигналы моделируются с помощью случайных процессов. Процесс xt {\ displaystyle x_ {t}}x_ {t} известен как процесс состояния, wt {\ displaystyle w_ {t}}w_ {t} и vt. {\ displaystyle v_ {t}}v_ {t} обычно считаются независимыми и взаимно независимыми, так что wt ∼ p (w; θ), vt ∼ p (v; θ) { \ Displaystyle w_ {t} \ sim p (w; \ theta), \; v_ {t} \ sim p (v; \ theta)}{\ displaystyle w_ {t} \ sim p (w; \ theta), \; v_ {t} \ sim p (v; \ theta)} . Параметр θ {\ displaystyle \ theta}\ theta обычно является конечномерным (реальным) параметром, который необходимо оценить (с использованием экспериментальных данных). Обратите внимание, что процесс состояния не обязательно должен быть физическим сигналом, и обычно он не наблюдается (не измеряется). Набор данных задается как набор пар ввода-вывода (yt, ut) {\ displaystyle (y_ {t}, u_ {t})}{\ displaystyle (y_ {t}, u_ {t})} для t = 1, …, N {\ displaystyle t = 1, \ dots, N}{\ displaystyle t = 1, \ dots, N } для некоторого конечного положительного целого числа N {\ displaystyle N}N .

К сожалению, из-за нелинейного преобразования ненаблюдаемых случайных величин, функция правдоподобия выходных данных аналитически неразрешима; он дается в виде многомерного интеграла маргинализации. Следовательно, обычно используемые методы оценки параметров, такие как метод максимального правдоподобия или метод ошибки предсказания, основанные на оптимальном предсказателе на один шаг вперед, аналитически трудноразрешимы. В последнее время алгоритмы, основанные на последовательных методах Монте-Карло, использовались для аппроксимации условного среднего выходных значений или, в сочетании с алгоритмом Expectation-Maximization, для аппроксимации оценки максимального правдоподобия. Эти методы, хотя и асимптотически оптимальны, требуют вычислений, и их использование ограничено конкретными случаями, когда можно избежать фундаментальных ограничений применяемых фильтров частиц. Альтернативным решением является применение метода ошибки предсказания с использованием неоптимального предсказателя. Можно показать, что полученная оценка является строго согласованной и асимптотически нормальной и может быть оценена с использованием относительно простых алгоритмов.

См. Также

  • значок Портал математики

Ссылки

Дополнительная литература

  • Леннарт Юнг: Идентификация системы - теория для пользователя, 2-е изд., PTR Prentice Hall, Upper Saddle River, NJ, 1999.
  • R. Пинтелон, Дж. Скоукенс, Системная идентификация: подход в частотной области, IEEE Press, Нью-Йорк, 2001. ISBN 978-0-7803-6000-6
  • T. Седерстрём, П. Стойка, Системная идентификация, Prentice Hall, Upper Saddle River, N.J., 1989. ISBN 0-13-881236-5
  • R. К. Пирсон: Динамические модели с дискретным временем. Oxford University Press, 1999.
  • P. Мармарелис, В. Мармарелис, В. Анализ физиологических систем, Пленум, 1978.
  • К. Уорден, Г.Р. Томлинсон, Нелинейность в структурной динамике, Издательский институт физики, 2001.
Последняя правка сделана 2021-05-31 12:12:23
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте