Теория множественных следов

редактировать

Теория множественных следов - это модель консолидации памяти, предложенная в качестве альтернативы теории прочности. Он утверждает, что каждый раз, когда некоторая информация представляется человеку, она нейронно кодируется в уникальном следе памяти, состоящем из комбинации его атрибутов. Дальнейшее подтверждение этой теории было получено в 1960-х годах благодаря эмпирическим открытиям, согласно которым люди могут помнить определенные атрибуты объекта, не запоминая сам объект. Режим, в котором информация представляется и впоследствии кодируется, может быть гибко встроен в модель. Этот след памяти уникален от всех других, похожих на него, из-за различий в некоторых аспектах атрибутов предмета, и все следы памяти, включенные с рождения, объединяются в представление множества следов в мозгу. В исследованиях памяти математическая формулировка этой теории может успешно объяснить эмпирические явления, наблюдаемые в задачах распознавания и запоминания.

Содержание
  • 1 Атрибуты
    • 1.1 Физический
    • 1.2 Контекстный
    • 1.3 Модальный
    • 1.4 Классификация
  • 2 Математическая формулировка
    • 2.1 Матричное определение следов
    • 2.2 Контекст как стохастический вектор
    • 2.3 Суммарное сходство
  • 3 Приложения к явлениям памяти
    • 3.1 Признание
    • 3.2 Отзыв запроса
    • 3.3 Объяснение других общих результатов
  • 4 Недостатки
  • 5 См. Также
  • 6 Ссылки
Атрибуты

Атрибуты, которыми обладает предмет, формируют его след и могут относиться ко многим категориям. Когда элемент сохраняется в памяти, информация из каждой из этих категорий атрибуции кодируется в трассировке элемента. Может иметь место своего рода семантическая категоризация, посредством которой индивидуальный след включается во всеобъемлющие концепции объекта. Например, когда человек видит голубя, след добавляется к группе следов «голубя» в его или ее сознании. Этот новый «голубиный» след, хотя и отличимый от других экземпляров голубей, которых человек, возможно, видел в течение своей жизни, служит для поддержки более общей и всеобъемлющей концепции голубя.

Физический

Физические атрибуты предмета кодируют информацию о физических свойствах представленного предмета. Одним словом, это может включать цвет, шрифт, написание и размер, тогда как для изображения эквивалентными аспектами могут быть формы и цвета объектов. Экспериментально было показано, что люди, которые не могут вспомнить отдельное слово, иногда могут вспомнить первую или последнюю букву или даже рифмующиеся слова, все аспекты закодированы в физической орфографии следа слова. Даже когда элемент не представлен визуально, при кодировании он может иметь некоторые физические аспекты, основанные на визуальном представлении элемента.

Контекстуальный

Контекстные атрибуты - это широкий класс атрибутов, которые определяют внутренние и внешние функции, которые действуют одновременно с представлением элемента. Внутренний контекст - это ощущение внутренней сети, которое вызывает трассировка. Это может варьироваться от аспектов настроения человека до других семантических ассоциаций, которые вызывает представление слова. С другой стороны, внешний контекст кодирует информацию о пространственных и временных аспектах по мере представления информации. Это может отражать, например, время дня или погоду. Пространственные атрибуты могут относиться как к физической среде, так и к воображаемой среде. Метод локусов, мнемонические стратегии включения воображаемого пространственное положения, присваивает относительные пространственные положения для различных элементов запомнили, а затем «ходить через» эту присвоенных позицию помнить детали.

Модальный

Атрибуты модальности содержат информацию о методе представления элемента. Наиболее частые типы модальностей в экспериментальных условиях - слуховые и визуальные. Практически можно использовать любую сенсорную модальность.

Классификация

Эти атрибуты относятся к категоризации представленных элементов. Предметы, относящиеся к одним и тем же категориям, будут иметь одинаковые атрибуты класса. Например, если был представлен элемент «приземление», он вызвал бы всеобъемлющую концепцию «футбол» или, в более общем смысле, «спорт», и, вероятно, имел бы общие атрибуты класса с «конечной зоной» и другими элементами, которые вписываются в та же концепция. Один элемент может соответствовать различным концепциям в то время, когда он представлен, в зависимости от других атрибутов элемента, например контекста. Например, слово «звезда» может попасть в класс астрономии после посещения космического музея или в класс со словами «знаменитость» или «знаменитый» после просмотра фильма.

Математическая формулировка

Математическая формулировка следов позволяет создать модель памяти как постоянно растущую матрицу, которая непрерывно получает и включает информацию в виде векторов атрибутов. Теория множественных следов утверждает, что каждый когда-либо закодированный элемент, от рождения до смерти, будет существовать в этой матрице в виде множественных следов. Это делается путем присвоения каждому возможному атрибуту некоторого числового значения, чтобы классифицировать его при кодировании, поэтому каждая закодированная память будет иметь уникальный набор числовых атрибутов.

Матричное определение следов

Присваивая числовые значения всем возможным атрибутам, удобно построить представление вектора столбца каждого закодированного элемента. Это векторное представление также может быть введено в вычислительные модели мозга, такие как нейронные сети, которые принимают в качестве входных данных векторные «воспоминания» и моделируют их биологическое кодирование через нейроны.

Формально кодированную память можно обозначить числовым присвоением всех ее возможных атрибутов. Если два предмета воспринимаются как имеющие один и тот же цвет или воспринимаются в одном контексте, числа, обозначающие их цвет и контекстные атрибуты, соответственно, будут относительно близкими. Предположим, мы кодируем в общей сложности L атрибутов каждый раз, когда видим объект. Затем, когда память закодирована, ее можно записать как m 1 с L полными числовыми записями в векторе-столбце:

м 1 знак равно [ м 1 ( 1 ) м 1 ( 2 ) м 1 ( 3 ) м 1 ( L ) ] {\ Displaystyle \ mathbf {m_ {1}} = {\ begin {bmatrix} m_ {1} (1) \\ m_ {1} (2) \\ m_ {1} (3) \\\ vdots \\ m_ {1} (L) \ end {bmatrix}}}.

Подмножество атрибутов L будет посвящено контекстным атрибутам, подмножество - физическим атрибутам и так далее. Одно из основных предположений теории множественных следов состоит в том, что, когда мы конструируем несколько воспоминаний, мы организуем атрибуты в одном и том же порядке. Таким образом, мы можем аналогичным образом определить векторы m 2, m 3,..., m n для учета всего n закодированных запоминающих устройств. Теория множественных следов утверждает, что эти воспоминания объединяются в нашем мозгу, чтобы сформировать матрицу памяти из простого объединения отдельных воспоминаний:

M знак равно [ м 1 м 2 м 3 м п ] знак равно [ м 1 ( 1 ) м 2 ( 1 ) м 3 ( 1 ) м п ( 1 ) м 1 ( 2 ) м 2 ( 2 ) м 3 ( 2 ) м п ( 2 ) м 1 ( L ) м 2 ( L ) м 3 ( L ) м п ( L ) ] {\ displaystyle \ mathbf {M} = {\ begin {bmatrix} \ mathbf {m_ {1}} amp; \ mathbf {m_ {2}} amp; \ mathbf {m_ {3}} amp; \ cdots amp; \ mathbf {m_ { n}} \ end {bmatrix}} = {\ begin {bmatrix} m_ {1} (1) amp; m_ {2} (1) amp; m_ {3} (1) amp; \ cdots amp; m_ {n} (1) \\ m_ {1} (2) amp; m_ {2} (2) amp; m_ {3} (2) amp; \ cdots amp; m_ {n} (2) \\\ vdots amp; \ vdots amp; \ vdots amp; \ vdots amp; \ vdots \\ m_ { 1} (L) amp; m_ {2} (L) amp; m_ {3} (L) amp; \ cdots amp; m_ {n} (L) \ end {bmatrix}}}.

Для L общих атрибутов и n общих ячеек M будет иметь L строк и n столбцов. Обратите внимание, что, хотя n трасс объединены в большую матрицу памяти, каждая трасса доступна индивидуально в виде столбца в этой матрице.

В этой формулировке n различных воспоминаний сделаны более или менее независимыми друг от друга. Однако элементы, представленные вместе в некоторых настройках, будут косвенно связаны схожестью их контекстных векторов. Если несколько элементов связаны друг с другом и намеренно закодированы таким образом, скажем, элемент a и элемент b, тогда можно создать память для этих двух элементов, каждый из которых будет иметь следующие атрибуты k:

м а б знак равно [ а ( 1 ) а ( 2 ) а ( k ) б ( 1 ) б ( 2 ) б ( k ) ] знак равно [ а б ] {\ Displaystyle \ mathbf {m_ {ab}} = {\ begin {bmatrix} a (1) \\ a (2) \\\ vdots \\ a (k) \\ b (1) \\ b (2) \\\ vdots \\ b (k) \ end {bmatrix}} = {\ begin {bmatrix} \ mathbf {a} \\\ mathbf {b} \ end {bmatrix}}}.

Контекст как стохастический вектор

Когда элементы изучаются один за другим, возникает соблазн сказать, что они изучаются в одном и том же временном контексте. Однако в действительности в контексте есть небольшие вариации. Следовательно, часто считается, что контекстные атрибуты меняются со временем, моделируемые случайным процессом. Учитывая вектор только из r общих атрибутов контекста t i, который представляет контекст памяти m i, контекст следующей закодированной памяти задается как t i + 1:

т я + 1 ( j ) знак равно т я ( j ) + ϵ ( j ) {\ Displaystyle \ mathbf {t_ {я + 1} (j)} = \ mathbf {t_ {i} (j) + \ epsilon (j)}}

так,

т я + 1 знак равно [ т я ( 1 ) + ϵ ( 1 ) т я ( 2 ) + ϵ ( 2 ) т я ( р ) + ϵ ( р ) ] {\ displaystyle \ mathbf {t_ {i + 1}} = {\ begin {bmatrix} t_ {i} (1) + \ epsilon (1) \\ t_ {i} (2) + \ epsilon (2) \\ \ vdots \\ t_ {i} (r) + \ epsilon (r) \ end {bmatrix}}}

Здесь ε (j) - случайное число, выбранное из распределения Гаусса.

Суммарное сходство

Как объясняется в следующем разделе, отличительной чертой теории множественных трассировок является способность сравнивать какой-либо элемент зонда с уже существующей матрицей закодированных воспоминаний. Это имитирует процесс поиска в памяти, посредством чего мы можем определить, видели ли мы когда-либо пробу раньше, как в задачах распознавания, или же проба порождает другую ранее закодированную память, как при вызове по команде.

Сначала зонд p кодируется как вектор атрибутов. Продолжая предыдущий пример матрицы памяти M, зонд будет иметь L записей:

п знак равно [ п ( 1 ) п ( 2 ) п ( L ) ] {\ Displaystyle \ mathbf {p} = {\ begin {bmatrix} p (1) \\ p (2) \\\ vdots \\ p (L) \ end {bmatrix}}}.

Затем этот p сравнивается один за другим со всеми ранее существовавшими воспоминаниями (следом) в M, определяя евклидово расстояние между p и каждым m i:

п - м я знак равно j знак равно 1 L ( п ( j ) - м я ( j ) ) 2 {\ displaystyle \ left \ Vert \ mathbf {p-m_ {i}} \ right \ | = {\ sqrt {\ sum _ {j = 1} ^ {L} (p (j) -m_ {i} (j)) ^ {2}}}}.

Из-за стохастической природы контекста в теории множественных трасс почти никогда не бывает, чтобы элемент зонда точно соответствовал закодированной памяти. Тем не менее, на высокое сходство между p и m i указывает небольшое евклидово расстояние. Следовательно, на расстоянии должна быть выполнена другая операция, которая приводит к очень низкому подобию для большого расстояния и очень высокому подобию для малого расстояния. Линейная операция не устраняет элементы с низким сходством достаточно резко. Интуитивно кажется наиболее подходящей модель экспоненциального распада:

s я м я л а р я т y ( п , м я ) знак равно е - τ п - м я {\ displaystyle подобие (\ mathbf {p, m_ {i}}) = e ^ {- \ tau \ left \ Vert \ mathbf {p-m_ {i}} \ right \ |}}

где τ - параметр распада, который может быть задан экспериментально. Затем мы можем перейти к определению подобия для всей матрицы памяти посредством суммированного подобия SS (p, M) между зондом p и матрицей памяти M:

S S ( п , M ) знак равно я знак равно 1 п е - τ п - м я знак равно я знак равно 1 п е - τ j знак равно 1 L ( п ( j ) - м я ( j ) ) 2 {\ displaystyle \ mathbf {SS (p, M)} = \ sum _ {i = 1} ^ {n} e ^ {- \ tau \ left \ Vert \ mathbf {p-m_ {i}} \ right \ | } = \ sum _ {i = 1} ^ {n} e ^ {- \ tau {\ sqrt {\ sum _ {j = 1} ^ {L} (p (j) -m_ {i} (j)) ^ {2}}}}}.

Если элемент зондирования очень похож даже на одну из закодированных запоминающих устройств, SS получает большое повышение. Например, учитывая m 1 в качестве объекта проверки, мы получим расстояние, близкое к 0 (не совсем из-за контекста) для i = 1, что добавит почти максимальное возможное усиление SS. Чтобы отличить от фонового сходства (например, всегда будет некоторое низкое сходство с контекстом или несколькими атрибутами), SS часто сравнивают с каким-то произвольным критерием. Если оно выше критерия, то зонд считается среди закодированных. Критерий может варьироваться в зависимости от характера задачи и желания предотвратить ложные срабатывания. Таким образом, теория множественных следов предсказывает, что, получив некоторую реплику, мозг может сравнить эту реплику с критерием, чтобы ответить на такие вопросы, как «была ли эта реплика раньше?» (узнавание) или "какое воспоминание вызывает этот сигнал?" (повторное обращение), которые являются приложениями суммарного сходства, описанными ниже.

Приложения к феноменам памяти

Признание

Теория множественных следов хорошо вписывается в концептуальную основу распознавания. Признание требует, чтобы человек определил, видел ли он предмет раньше. Например, распознавание лиц определяет, видел ли человек раньше лицо. Когда его спрашивают об успешно закодированном элементе (то, что действительно видели раньше), распознавание должно происходить с высокой вероятностью. В математических рамках этой теории мы можем смоделировать распознавание отдельного исследуемого элемента p по суммированному сходству с критерием. Мы преобразуем тестовый элемент в вектор атрибутов, как это сделано для закодированных воспоминаний, и сравниваем с каждой когда-либо встреченной трассой. Если суммарное сходство соответствует критерию, мы говорим, что уже видели предмет раньше. Ожидается, что суммарное сходство будет очень низким, если элемент никогда не видели, но относительно большим, если это было из-за сходства атрибутов зонда с некоторой памятью матрицы памяти.

п ( р е c о грамм п я z я п грамм   п )   знак равно   п ( S S ( п , M ) gt; c р я т е р я о п ) {\ Displaystyle P (распознавание ~ p) ~ = ~ P (\ mathbf {SS (p, M)}gt; критерий)}

Это может применяться как для распознавания отдельных элементов, так и для ассоциативного распознавания двух или более элементов вместе.

Поданный отзыв

Теория также может объяснить отзыв с помощью реплики. Здесь дается некоторая подсказка, которая предназначена для извлечения элемента из памяти. Например, такой фактический вопрос, как «Кто был первым президентом Соединенных Штатов?» - это сигнал к ответу «Джорджа Вашингтона». В структуре «ab», описанной выше, мы можем взять все атрибуты, присутствующие в cue, и перечислить их, считая их элементом a в закодированной ассоциации, когда мы пытаемся вызвать часть b из памяти m ab. В этом примере такие атрибуты, как «first», «President» и «United States», будут объединены для формирования вектора a, который уже был записан в память m ab, значения b которой кодируют «George Washington». Учитывая a, есть две популярные модели того, как мы можем успешно вспомнить b:

1) Мы можем пройти и определить сходство (не суммированное сходство, см. Выше для различий) для каждого элемента в памяти для атрибутов a, а затем выбрать ту память, которая имеет наибольшее сходство для a. С какими бы атрибутами b- типа мы ни были связаны, мы получаем то, что мы помним. М абы память дает лучший шанс вспомнить, так как его а элементы будут иметь высокую степень сходства с кием а. Тем не менее, поскольку воспоминание происходит не всегда, мы можем сказать, что сходство должно соответствовать критерию, чтобы воспоминание вообще произошло. Это похоже на то, как работает машина IBM Watson. Здесь подобие сравнивает только атрибуты a -типа a с m ab.

п ( р е c а л л я п грамм   м а б )   знак равно   п ( s я м я л а р я т y ( а , м а б ) gt; c р я т е р я о п ) {\ displaystyle P (вспоминая ~ m_ {ab}) ~ = ~ P (подобие (a, m_ {ab})gt; критерий)}

2) Мы можем использовать правило вероятностного выбора, чтобы определить вероятность отзыва предмета пропорционально его сходству. Это похоже на бросание дротика в мишень, где большие области представлены большим сходством с репликой. С математической точки зрения вероятность вызова желаемого воспоминания m ab при заданном сигнале a равна:

п ( р е c а л л я п грамм   м а б )   знак равно   s я м я л а р я т y ( а , м а б ) S S ( а , M ) + е р р о р {\ displaystyle P (вспоминая ~ m_ {ab}) ~ = ~ {\ frac {подобие (a, m_ {ab})} {SS (a, M) + error}}}

При вычислении как сходства, так и суммарного сходства мы учитываем только отношения между атрибутами a- типа. Мы добавляем термин ошибки, потому что без него вероятность вызова любого воспоминания в M будет равна 1, но, безусловно, бывают случаи, когда отзыв не происходит вообще.

Объяснение других общих результатов

Явления в памяти, связанные, среди прочего, с повторением, частотой слов, новизной, забывчивостью и смежностью, могут быть легко объяснены в области теории множественных следов. Известно, что память улучшается при многократном воздействии на предметы. Например, если несколько раз услышать слово в списке, это улучшит распознавание и запоминание этого слова позже. Это связано с тем, что повторная экспозиция просто добавляет память в постоянно растущую матрицу памяти, поэтому суммарное сходство для этой памяти будет больше и, следовательно, с большей вероятностью будет соответствовать критерию.

При распознавании очень распространенные слова труднее распознать как часть заученного списка при проверке, чем редкие слова. Это известно как эффект частоты слов и также может быть объяснено теорией множественных следов. Для общих слов суммарное сходство будет относительно высоким, независимо от того, было ли слово встречено в списке или нет, потому что вполне вероятно, что слово встречалось и закодировалось в матрице памяти несколько раз на протяжении всей жизни. Таким образом, мозг обычно выбирает более высокий критерий при определении того, входят ли общие слова в список, что затрудняет их успешный выбор. Однако более редкие слова обычно встречаются реже на протяжении всей жизни, и поэтому их присутствие в матрице памяти ограничено. Следовательно, низкое общее суммарное сходство приведет к более слабому критерию. Если слово присутствовало в списке, высокое контекстное сходство во время теста и сходство других атрибутов приведет к достаточному увеличению суммарного сходства, чтобы превзойти прошлый критерий и, таким образом, успешно распознать редкое слово.

Новизна в эффекте последовательного положения может быть объяснена тем, что более свежие закодированные воспоминания будут иметь общий временной контекст, наиболее похожий на текущий контекст, поскольку стохастическая природа времени не будет иметь такого явного влияния. Таким образом, контекстное сходство будет высоким для недавно закодированных элементов, поэтому общее сходство будет также относительно выше для этих элементов. Также считается, что стохастический контекстуальный дрейф объясняет забывание, потому что контекст, в котором была закодирована память, теряется со временем, поэтому суммарное сходство для элемента, представленного только в этом контексте, со временем будет уменьшаться.

Наконец, эмпирические данные продемонстрировали эффект смежности, в результате чего элементы, которые представлены вместе во времени, даже если они не могут быть закодированы как единое воспоминание, как в парадигме «ab», описанной выше, с большей вероятностью будут запоминаться вместе. Это можно рассматривать как результат низкого контекстного дрейфа между элементами, запоминаемыми вместе, поэтому контекстное сходство между двумя элементами, представленными вместе, является высоким.

Недостатки

Один из самых больших недостатков теории множественных трассировок - это потребность в каком-либо элементе, с которым сравнивается матрица памяти при определении успешного кодирования. Как упоминалось выше, это довольно хорошо работает при распознавании и отзыве по сигналу, но есть явная неспособность включить в модель свободный отзыв. Свободный отзыв требует от человека свободного запоминания некоторого списка пунктов. Хотя сам процесс запроса на вспоминание может выступать в качестве реплики, которая затем может вызвать техники запоминания с помощью реплики, маловероятно, что реплика является достаточно уникальной, чтобы достичь суммарного критерия сходства или иным образом достичь высокой вероятности отзыва.

Другая важная проблема заключается в переводе модели на биологическое значение. Трудно представить, что мозг обладает неограниченной способностью отслеживать такую ​​большую матрицу воспоминаний и продолжать расширять ее с каждым предметом, который он когда-либо представлял. Более того, поиск в этой матрице - это исчерпывающий процесс, который не имеет отношения к биологическим временным шкалам.

Смотрите также
Ссылки
Последняя правка сделана 2023-03-19 06:25:31
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте