Мультилинейное подпространственное обучение - это подход к уменьшению размерности. Снижение размерности может быть выполнено для тензора данных, наблюдения которого были векторизованы и организованы в тензор данных, или наблюдения которого представляют собой матрицы, которые объединены в тензор данных. Вот несколько примеров тензоров данных, наблюдения которых векторизованы или чьи наблюдения представляют собой матрицы, объединенные в изображения тензора данных (2D / 3D), видеопоследовательности (3D / 4D) и гиперспектральные кубы (3D / 4D).
Преобразование из многомерного векторного пространства в набор векторных пространств меньшей размерности является полилинейной проекцией. Когда наблюдения сохраняются в той же организационной структуре, что и датчик; в виде матриц или тензоров более высокого порядка их представления вычисляются путем выполнения N нескольких линейных проекций.
Мультилинейные алгоритмы обучения подпространств - это обобщения более высокого порядка методов обучения линейных подпространств, таких как анализ главных компонентов (PCA), анализ независимых компонентов (ICA), линейный дискриминантный анализ (LDA) и канонический корреляционный анализ (CCA).
С развитием сбора данных и технологии хранения, большие данные (или массовые наборы данных) генерируется на ежедневной основе в широком диапазоне новых приложений. Большинство этих больших данных многомерны. Более того, они обычно очень многомерны, с большой степенью избыточности и занимают только часть входного пространства. Следовательно, уменьшение размерности часто используется для отображения данных большой размерности в пространство низкой размерности, сохраняя при этом как можно больше информации.
Алгоритмы обучения линейному подпространству - это традиционные методы уменьшения размерности, которые представляют входные данные в виде векторов и находят оптимальное линейное отображение в пространство меньшей размерности. К сожалению, они часто становятся неадекватными при работе с огромными многомерными данными. Они приводят к векторам очень большой размерности, приводят к оценке большого количества параметров.
Мультилинейное обучение подпространству использует различные типы инструментов тензорного анализа данных для уменьшения размерности. Мультилинейное подпространственное обучение может применяться к наблюдениям, измерения которых были векторизованы и организованы в тензор данных, или измерения которых обрабатываются как матрица и объединяются в тензор.
Исторически сложилось так, что полилинейный анализ главных компонентов назывался «M-mode PCA» - терминология, которую ввел Петер Круненберг. В 2005 году Василеску и Терзопулос ввели терминологию Multilinear PCA как способ лучше различать полилинейные тензорные разложения, которые вычисляли статистику 2-го порядка, связанную с каждым режимом (осью) тензора данных, и последующую работу над Multilinear Independent Component Analysis, которая вычисляла статистику более высокого порядка связанный с каждой тензорной модой / осью. MPCA - это расширение PCA.
Мультилинейный независимый компонентный анализ - это расширение ICA.
Есть N наборов параметров, которые необходимо решить, по одному в каждом режиме. Решение одного набора часто зависит от других наборов (за исключением случая, когда N = 1, линейный случай). Следовательно, выполняется субоптимальная итерационная процедура.
Это происходит из метода альтернативных наименьших квадратов для многостороннего анализа данных.
Преимущества MSL по сравнению с традиционным моделированием линейных подпространств в общих областях, где представление, естественно, несколько тензорно:
Однако алгоритмы MSL являются итеративными и не гарантируют сходимость; там, где алгоритм MSL сходится, он может делать это с локальным оптимумом. (Напротив, традиционные методы линейного моделирования подпространств часто дают точное решение в замкнутой форме.) Проблемы сходимости MSL часто можно смягчить путем выбора подходящей размерности подпространства и соответствующих стратегий инициализации, завершения и выбора порядка, в котором прогнозы решены.