A рекурсивная нейронная сеть - это разновидность глубокой нейронной сети, созданная с применением того же набора весов рекурсивно по структурированному входу, чтобы произвести структурированное предсказание по входным структурам переменного размера или скалярное предсказание на нем, путем обхода заданной структуры в топологическом порядке. Рекурсивный нейронные сети, иногда обозначаемые сокращенно как RvNN, были успешными, например, в обучении последовательности и древовидных структур в обработке естественного языка, в основном непрерывных представлениях фраз и предложений. ed по встраиванию слов. RvNN были впервые введены для изучения распределенных представлений структуры, таких как логические термины. Модели и общие структуры разрабатывались в дальнейшей работе с 1990-х годов.
В самой простой архитектуре узлы объединяются в родительские с помощью весовой матрицы, которая является общей для всей сети, и нелинейности например tanh. Если c 1 и c 2 представляют собой n-мерное векторное представление узлов, их родительский элемент также будет n-мерным вектором, вычисляемым как
где W - обученный весовая матрица.
Эта архитектура с некоторыми улучшениями использовалась для успешного синтаксического анализа естественных сцен и синтаксического анализа предложений естественного языка.
RecCC представляет собой конструктивный подход нейронной сети для работы с древовидными доменами с новаторскими приложениями в области химии и расширением до направленных ациклических графов.
В 2004 году была представлена структура для неконтролируемой RNN.
Рекурсивные нейронные тензорные сети используют одну тензорную композиционную функцию для всех узлов в дереве.
Как правило, стохастический градиентный спуск (SGD) используется для обучения сети. Градиент вычисляется с использованием обратного распространения через структуру (BPTS), варианта обратного распространения во времени, используемого для рекуррентных нейронных сетей.
Универсальное приближение возможность RNN над деревьями была доказана в литературе.
Рекуррентные нейронные сети рекурсивные искусственные нейронные сети с определенная структура: линейная цепь. В то время как рекурсивные нейронные сети работают с любой иерархической структурой, комбинируя дочерние представления с родительскими представлениями, рекуррентные нейронные сети работают с линейной прогрессией времени, комбинируя предыдущий временной шаг и скрытое представление в представление для текущего временного шага.
Эффективный подход к реализации рекурсивных нейронных сетей дается сетью состояний эха дерева в рамках парадигмы вычислений резервуара.
Расширения до графов включают графическую нейронную сеть (GNN), нейронную сеть для графов (NN4G) и, в последнее время, сверточные нейронные сети для графиков.
.