Наука о сетях

редактировать

Наука о сетях - это академическая область, изучающая сложные сети, такие как телекоммуникационные сети, компьютерные сети, биологические сети, когнитивные и семантические сети и социальные сети с учетом отдельных элементов или субъектов, представленных узлами (или вершины) и соединения между элементами или действующими лицами как связи (или ребра). Эта область основана на теориях и методах, включая теорию графов из математики, статистическую механику из физики, интеллектуальный анализ данных и визуализацию информации из компьютерных наук., логическое моделирование из статистики и социальная структура из социологии. Национальный исследовательский совет США определяет сетевую науку как «изучение сетевых представлений о физических, биологических и социальных явлениях, ведущее к прогнозным моделям этих явлений».

Содержание
  • 1 Предпосылки и история
    • 1.1 Инициативы Министерства обороны
  • 2 Свойства сети
    • 2.1 Размер
    • 2.2 Плотность
    • 2.3 Планарная плотность сети
    • 2.4 Средняя степень
    • 2.5 Средняя длина кратчайшего пути (или характерная длина пути)
    • 2.6 Оптимальный путь
    • 2.7 Диаметр сети
    • 2.8 Коэффициент кластеризации
    • 2.9 Связность
    • 2.10 Централизация узла
    • 2.11 Влияние узла
  • 3 Модели сети
    • 3.1 Erdős– Модель случайного графа Реньи
    • 3.2 Модель конфигурации
    • 3.3 Модель маленького мира Ваттса – Строгаца
    • 3.4 Модель предпочтительной привязанности Барабаши – Альберта (BA)
      • 3.4.1 Модель привязанности, управляемой посредником (MDA)
    • 3.5 Фитнес-модель
  • 4 Сетевой анализ
    • 4.1 Анализ социальных сетей
    • 4.2 Динамический сетевой анализ
    • 4.3 Биологические сети rk analysis
    • 4.4 Анализ каналов
      • 4.4.1 Устойчивость сети
      • 4.4.2 Пандемический анализ
        • 4.4.2.1 Восприимчивость к зараженным
        • 4.4.2.2 От зараженных к выздоровевшим
        • 4.4.2.3 Инфекционный период
      • 4.4.3 Анализ веб-ссылок
        • 4.4.3.1 PageRank
          • 4.4.3.1.1 Случайный скачок
    • 4.5 Измерения центральности
  • 5 Распространение контента в сетях
    • 5.1 Модель SIR
    • 5.2 Подход главного уравнения
  • 6 Взаимозависимые сети
  • 7 Многослойные сети
  • 8 Оптимизация сети
  • 9 См. Также
  • 10 Ссылки
  • 11 Дополнительная литература
Предпосылки и история

Изучение сетей возникло в различных дисциплинах как средство анализа сложных реляционных данных. Самая ранняя известная работа в этой области - знаменитые Семь мостов Кенигсберга, написанные Леонардом Эйлером в 1736 году. Математическое описание вершин и ребер Эйлера было основой теории графов, раздел математики, изучающий свойства парных отношений в сетевой структуре. Область теории графов продолжала развиваться и нашла применение в химии (Sylvester, 1878).

Денес Кениг, венгерский математик и профессор, написал первую книгу по теории графов, озаглавленную «Теория конечных и бесконечных графов», в 1936 году.

Социограмма Морено для учеников первого класса.

В 1930-е годы Джейкоб Морено, психолог в гештальт-традиции, прибыл в Соединенные Штаты. Он разработал социограмму и представил ее общественности в апреле 1933 года на съезде ученых-медиков. Морено утверждал, что «до появления социометрии никто не знал, как« в точности »выглядела межличностная структура группы» (Морено, 1953). Социограмма представляла собой социальную структуру группы учеников начальной школы. Мальчики дружили с мальчиками, а девочки дружили с девочками, за исключением одного мальчика, который сказал, что ему нравится одинокая девочка. Чувство не было взаимным. Это сетевое представление социальной структуры было настолько интригующим, что было напечатано в The New York Times (3 апреля 1933 г., стр. 17). Социограмма нашла множество приложений и превратилась в область анализа социальных сетей.

Теория вероятностей в сетевой науке, разработанная как ответвление теории графов с Полом Эрдёшем и Восемь знаменитых работ Альфреда Реньи о случайных графах. Для социальных сетей модель экспоненциального случайного графа или p * представляет собой систему обозначений, используемую для представления вероятностного пространства связи, возникающей в социальной сети. Альтернативный подход к сетевым вероятностным структурам - это матрица сетевой вероятности, которая моделирует вероятность появления ребер в сети на основе исторического наличия или отсутствия ребра в выборке сетей.

В 1998 году Дэвид Кракхардт и Кэтлин Карли представили идею метасети с моделью PCANS. Они предполагают, что «все организации структурированы по этим трем доменам: отдельные лица, задачи и ресурсы». В их статье представлена ​​концепция, согласно которой сети существуют в нескольких доменах и взаимосвязаны. Эта область превратилась в другую дисциплину сетевой науки, называемую динамическим сетевым анализом.

. В последнее время другие усилия сетевой науки были сосредоточены на математическом описании различных сетевых топологий. Дункан Уоттс согласовал эмпирические данные о сетях с математическим представлением, описав сеть малого мира. Альберт-Ласло Барабаши и Река Альберт разработали безмасштабируемую сеть, которая представляет собой слабо определенную топологию сети, которая содержит узловые вершины с множеством соединений, которые растут в способ поддерживать постоянное соотношение количества подключений по сравнению со всеми остальными узлами. Хотя многие сети, такие как Интернет, похоже, поддерживают этот аспект, другие сети имеют длиннохвостые распределения узлов, которые только приблизительно соответствуют свободному от масштаба соотношению.

Инициативы Министерства обороны

Военные США впервые заинтересовались сетецентрической войной как оперативной концепцией, основанной на сетевой науке в 1996 году. Джон А. Парментола, Директор по исследованиям и управлению лабораториями армии США 1 декабря 2003 г. предложил Совету по науке и технологиям (BAST) армии США сделать сетевые науки новой областью научных исследований армии. BAST, Отдел инженерных и физических наук Национального исследовательского совета (NRC) национальных академий, служит органом, организующим обсуждение вопросов науки и технологий, важных для армии, и наблюдает за независимыми исследованиями, связанными с армией, проводимыми Национальные академии. BAST провел исследование, чтобы выяснить, может ли выявление и финансирование новой области фундаментальных исследований, сетевой науки, помочь преодолеть разрыв между тем, что необходимо для реализации сетевых операций, и текущим примитивным состоянием фундаментальных знаний о сетях.

В результате BAST в 2005 году опубликовал исследование NRC под названием Network Science (упомянутое выше), которое определило новую область фундаментальных исследований в Network Science для армии. На основании выводов и рекомендаций этого исследования и последующего отчета NRC 2007 года под названием «Стратегия армейского центра сетевых наук, технологий и экспериментов» ресурсы базовых исследований армии были перенаправлены на запуск новой программы фундаментальных исследований в области сетевых наук. Чтобы создать новую теоретическую основу для сложных сетей, некоторые из ключевых исследований в области сетевой науки, которые в настоящее время проводятся в армейских лабораториях, касаются:

  • математических моделей поведения сети для прогнозирования производительности в зависимости от размера, сложности и среды сети
  • Оптимизированная человеческая производительность, необходимая для ведения войны с использованием сети
  • Создание сетей в экосистемах и на молекулярном уровне в клетках.

По инициативе Фредерика И. Моксли в 2004 году при поддержке, которую он запросил у Дэвида С. Альбертса, Департамента of Defense совместно с Армией США при Военной академии США (USMA) помог создать первый Центр сетевых наук. Под руководством доктора Моксли и преподавателей USMA первые междисциплинарные курсы бакалавриата по сетевым наукам были проведены курсантам в Вест-Пойнте. Чтобы лучше привить принципы сетевой науки своим кадрам будущих лидеров, USMA также учредило пять курсов для студентов-бакалавров по сетевым наукам.

В 2006 году армия США и Соединенное Королевство (Великобритания) сформировали Международный технологический альянс и информационные технологии , совместное партнерство Лаборатории армейских исследований, Министерства обороны Великобритании и консорциум промышленных предприятий и университетов США и Великобритании. Целью альянса является проведение фундаментальных исследований в поддержку сетевых операций с учетом потребностей обеих стран.

В 2009 году армия США сформировала Network Science CTA, совместный исследовательский альянс между Армейской исследовательской лабораторией, CERDEC и консорциум из около 30 промышленных научно-исследовательских лабораторий и университетов в США.Цель альянса состоит в том, чтобы развить глубокое понимание общих черт взаимосвязанных социальных / когнитивных, информационных и коммуникационных сетей и, как результат, улучшить нашу способность анализировать, прогнозировать, проектировать и влиять на сложные системы, переплетая множество видов сетей.

Впоследствии, в результате этих усилий, Министерство обороны США спонсировало многочисленные исследовательские проекты в поддержку сетевой науки.

Свойства сети

Часто сети имеют определенные атрибуты, которые можно вычислить для анализа свойств и характеристик сети. Поведение этих сетевых свойств часто определяет сетевые модели и может использоваться для анализа того, как определенные модели контрастируют друг с другом. Многие определения других терминов, используемых в сетевой науке, можно найти в Глоссарии теории графов.

Размер

Размер сети может относиться к количеству узлов N {\ displaystyle N}Nили, реже, количество ребер E {\ displaystyle E}E, которое (для связанных графов без мультиребер) может варьироваться от N - 1 {\ displaystyle N-1}N-1(дерево) до E max {\ displaystyle E _ {\ max}}{\displaystyle E_{\max }}(полный график). В случае простого графа (сеть, в которой не более одного (неориентированного) ребра существует между каждой парой вершин и в которой вершины не соединяются между собой), мы имеем E max = (N 2) = N (N - 1) / 2 {\ Displaystyle E _ {\ max} = {\ tbinom {N} {2}} = N (N-1) / 2}{\displaystyle E_{\max }={\tbinom {N}{2}}=N(N-1)/2}; для ориентированных графов (без самосвязанных узлов) E max = N (N - 1) {\ displaystyle E _ {\ max} = N (N-1)}{\displaystyle E_{\max }=N(N-1)}; для ориентированных графов с разрешенными самосоединениями E max = N 2 {\ displaystyle E _ {\ max} = N ^ {2}}{\displaystyle E_{\max }=N^{2}}. В случае графа, в котором между парой вершин может существовать несколько ребер, E max = ∞ {\ displaystyle E _ {\ max} = \ infty}{\displaystyle E_{\max }=\infty }.

Density

The density D {\ displaystyle D}Dсети определяется как отношение количества ребер E {\ displaystyle E}Eк количеству возможных ребер в сеть с узлами N {\ displaystyle N}N, заданными (в случае простых графиков) с помощью биномиального коэффициента (N 2) {\ displaystyle {\ tbinom {N} {2}}}{\tbinom N2}, что дает D = E - (N - 1) E max - (N - 1) = 2 (E - N + 1) N (N - 3) + 2 {\ displaystyle D = {\ frac {E- (N-1)} {Emax- (N-1)}} = {\ frac {2 (E-N + 1)} {N (N- 3) +2}}}{\displaystyle D={\frac {E-(N-1)}{Emax-(N-1)}}={\frac {2(E-N+1)}{N(N-3)+2}}}Другое возможное уравнение: D = T - 2 N + 2 N (N - 3) + 2, {\ displaystyle D = {\ frac {T-2N + 2} {N (N-3) +2}},}{\displaystyle D={\frac {T-2N+2}{N(N-3)+2}},}, тогда как связи T {\ displaystyle T}Tявляются однонаправленными (Wasserman Faust 1994). Это дает лучший обзор плотности сети, поскольку можно измерить однонаправленные отношения.

Планарная плотность сети

Плотность D {\ displaystyle D}Dсети, в которой нет пересечения между краями, определяется как отношение количество ребер E {\ displaystyle E}Eк количеству возможных ребер в сети с N {\ displaystyle N}Nузлами, заданным графом без пересекающихся краев (E max = 3 N - 6) {\ displaystyle (E _ {\ max} = 3N-6)}{\displaystyle (E_{\max }=3N-6)}, что дает D = E - N + 1 2 N - 5. {\ displaystyle D = {\ frac {E-N + 1} {2N-5}}.}{\displaystyle D={\frac {E-N+1}{2N-5}}.}

Средняя степень

Степень k {\ displaystyle k}kузла - это количество ребер, соединенных с ним. С плотностью сети тесно связана средняя степень, ⟨k⟩ = 2 EN {\ displaystyle \ langle k \ rangle = {\ tfrac {2E} {N}}}{\displaystyle \langle k\rangle ={\tfrac {2E}{N}}}(или, в случае ориентированных графов, ⟨k⟩ = EN {\ displaystyle \ langle k \ rangle = {\ tfrac {E} {N}}}{\displaystyle \langle k\rangle ={\tfrac {E}{N}}}, первый множитель 2 возникает из каждое ребро в неориентированном графе вносит вклад в степень двух различных вершин). В модели случайного графа ER (G (N, p) {\ displaystyle G (N, p)}{\displaystyle G(N,p)}) мы можем вычислить математическое ожидание ⟨ k⟩ {\ displaystyle \ langle k \ rangle}{\displaystyle \langle k\rangle }(равно ожидаемому значению k {\ displaystyle k}kпроизвольной вершины): случайная вершина имеет N - 1 {\ displaystyle N-1}N-1другие вершины в сети доступны и с вероятностью p {\ displaystyle p}pсоединяется с каждой из них. Таким образом, E [⟨К⟩] = E [k] = p (N - 1) {\ displaystyle \ mathbb {E} [\ langle k \ rangle] = \ mathbb {E} [k] = p ( N-1)}{\displaystyle \mathbb {E} [\langle k\rangle ]=\mathbb {E} [k]=p(N-1)}.

Средняя длина кратчайшего пути (или характерная длина пути)

Средняя длина кратчайшего пути вычисляется путем нахождения кратчайшего пути между всеми парами узлов и взятия среднего значения по всем путям его длина (длина - это количество промежуточных ребер, содержащихся в пути, т. е. расстояние du, v {\ displaystyle d_ {u, v}}{\displaystyle d_{u,v}}между двумя вершинами u, v {\ displaystyle u, v}u,vвнутри графика). Это показывает нам в среднем количество шагов, необходимых для перехода от одного участника сети к другому. Поведение ожидаемой средней длины кратчайшего пути (то есть среднего по ансамблю средней длины кратчайшего пути) в зависимости от количества вершин N {\ displaystyle N}Nслучайной сети модель определяет, проявляет ли эта модель эффект маленького мира; если он масштабируется как O (ln ⁡ N) {\ displaystyle O (\ ln N)}{\displaystyle O(\ln N)}, модель генерирует сети малого мира. Для роста, превышающего логарифмический, модель не создает маленьких миров. Особый случай O (ln ⁡ ln ⁡ N) {\ displaystyle O (\ ln \ ln N)}{\displaystyle O(\ln \ln N)}известен как эффект сверхмалого мира.

Оптимальный путь

Когда ссылки или узлы взвешены, можно рассмотреть оптимальный путь между узлами.

Диаметр сети

В качестве другого средства Измеряя сетевые графы, мы можем определить диаметр сети как самый длинный из всех вычисленных кратчайших путей в сети. Это кратчайшее расстояние между двумя наиболее удаленными узлами сети. Другими словами, как только вычислена длина кратчайшего пути от каждого узла до всех других узлов, диаметр будет самым длинным из всех рассчитанных длин пути. Диаметр соответствует линейному размеру сети. Если узел ABCD подключен, то при переходе от A->D это будет диаметр 3 (3 участка, 3 связи).

Коэффициент кластеризации

Коэффициент кластеризации является мерой свойство "все мои друзья знают друг друга". Иногда это называют друзьями моих друзей. Точнее, коэффициент кластеризации узла - это отношение существующих связей, соединяющих соседей узла друг с другом, к максимально возможному количеству таких связей. Коэффициент кластеризации для всей сети - это среднее значение коэффициентов кластеризации всех узлов. Высокий коэффициент кластеризации для сети является еще одним признаком маленького мира.

. Коэффициент кластеризации узла i {\ displaystyle i}iравен

C i = 2 eiki (ki - 1), {\ displaystyle C_ {i} = {2e_ {i} \ over k_ {i} {(k_ {i} -1)}} \,,}C_{i}={2e_{i} \over k_{i}{(k_{i}-1)}}\,,

где ki {\ displaystyle k_ {i}}k_{i}- это количество соседей i {\ displaystyle i}i'th node, и ei {\ displaystyle e_ { i}}e_{i}- количество соединений между этими соседями. Таким образом, максимально возможное количество соединений между соседями равно

(k 2) = k (k - 1) 2. {\ displaystyle {\ binom {k} {2}} = {{k (k-1)} \ over 2} \,.}{{\binom {k}{2}}}={{k(k-1)} \over 2}\,.

С вероятностной точки зрения ожидаемый коэффициент локальной кластеризации - это вероятность ссылки существующий между двумя произвольными соседями одного и того же узла.

Связность

Способ подключения сети играет большую роль в том, как сети анализируются и интерпретируются. Сети классифицируются по четырем различным категориям:

  • Клика / Полный график: полностью связанная сеть, в которой все узлы подключены ко всем остальным узлам. Эти сети симметричны в том смысле, что все узлы имеют входящие и исходящие ссылки от всех остальных.
  • Гигантский компонент: единственный связанный компонент, который содержит большинство узлов в сети.
  • Слабо Подключенный компонент: набор узлов, в котором существует путь от любого узла к любому другому, игнорируя направленность ребер.
  • Сильно связанный компонент: набор узлов, в которых существует направленный путь от любого узла к любому другому.

Центральность узла

Индексы центральности производят ранжирование, которое направлено на определение наиболее важных узлов в сетевой модели. Разные индексы центральности кодируют разные контексты слова «важность». Например, центральность по промежуточности считает узел очень важным, если он образует мосты между многими другими узлами. Центральность по собственным значениям, напротив, считает узел очень важным, если с ним связаны многие другие очень важные узлы. В литературе предложены сотни таких мер.

Индексы центральности точны только для идентификации самых центральных узлов. Эти меры редко, если вообще когда-либо, имеют смысл для остальных узлов сети. Кроме того, их указания точны только в рамках предполагаемого контекста важности и имеют тенденцию «ошибаться» в других контекстах. Например, представьте себе два отдельных сообщества, единственной связью которых является граница между самым младшим членом каждого сообщества. Поскольку любой переход от одного сообщества к другому должен происходить по этой ссылке, два младших члена будут иметь высокую промежуточную центральность. Но, поскольку они младшие (предположительно), у них мало связей с «важными» узлами в своем сообществе, а это означает, что их центральность по собственным значениям будет довольно низкой.

Концепция центральности в контексте статических сетей была расширена на основе эмпирических и теоретических исследований до динамической центральности в контексте временных и временных сетей.

Центральность узлов может быть оценивается методом k-оболочки. Метод k-shell был успешно применен к Интернету, идентифицируя центральный из различных узлов. Считается, что этот метод полезен для выявления влиятельных распространителей в сети.

Влияние узла

Ограничения на меры централизации привели к разработке более общих показателей. Двумя примерами являются доступность, в которой используется разнообразие случайных блужданий для измерения доступности остальной части сети с данного начального узла, и ожидаемая сила, полученная из ожидаемого значение силы заражения, генерируемой узлом. Обе эти меры могут быть осмысленно вычислены только на основе структуры сети.

Сетевые модели

Сетевые модели служат основой для понимания взаимодействий внутри эмпирических сложных сетей. Различные модели генерации случайного графа создают сетевые структуры, которые можно использовать по сравнению с реальными сложными сетями.

Модель случайного графа Эрдеша – Реньи

Эта модель Эрдеша – Реньи генерируется с N= 4 узлами. Для каждого ребра в полном графе, образованном всеми N узлами, генерируется случайное число и сравнивается с заданной вероятностью. Если случайное число меньше p, на модели образуется ребро.

Модель Эрдеш-Реньи, названная в честь Пола Эрдеша и Альфред Реньи, используется для создания случайных графов, в которых ребра устанавливаются между узлами с равными вероятностями. Его можно использовать в вероятностном методе для доказательства существования графов, удовлетворяющих различным свойствам, или для обеспечения строгого определения того, что означает выполнение свойства почти для всех графов.

Для создания модели Эрдеша – Реньи G (n, p) {\ displaystyle G (n, p)}{\displaystyle G(n,p)}необходимо указать два параметра: общее количество узлов n и вероятность p того, что случайная пара узлов имеет ребро.

Поскольку модель генерируется без смещения к конкретным узлам, распределение степеней является биномиальным: для случайно выбранной вершины v {\ displaystyle v}v,

P (deg ⁡ (v) = k) = (n - 1 k) pk (1 - p) n - 1 - k. {\ displaystyle P (\ deg (v) = k) = {n-1 \ choose k} p ^ {k} (1-p) ^ {n-1-k}.}{\displaystyle P(\deg(v)=k)={n-1 \choose k}p^{k}(1-p)^{n-1-k}.}

В этой модели кластеризация коэффициент равен 0 как. Поведение G (n, p) {\ displaystyle G (n, p)}{\displaystyle G(n,p)}можно разбить на три области.

Подкритический n p < 1 {\displaystyle np<1}{\displaystyle np<1}: Все компоненты простые и очень маленькие, самый большой компонент имеет размер | C 1 | Знак равно O (журнал ⁡ N) {\ displaystyle | C_ {1} | = O (\ log n)}{\displaystyle |C_{1}|=O(\log n)};

критический n p = 1 {\ displaystyle np = 1}{\displaystyle np=1}: | C 1 | = O (n 2 3) {\ displaystyle | C_ {1} | = O (n ^ {\ frac {2} {3}})}{\displaystyle |C_{1}|=O(n^{\frac {2}{3}})};

сверхкритический np>1 {\ displaystyle np>1}{\displaystyle np>1} : | C 1 | ≈ yn {\ displaystyle | C_ {1} | \ приблизительно yn}{\displaystyle |C_{1}|\approx yn}, где y = y (np) {\ displaystyle y = y (np)}{\displaystyle y=y(np)}- положительное решение уравнения e - pny = 1 - y {\ displaystyle e ^ {- pny} = 1-y}{\displaystyle e^{-pny}=1-y}.

Самый большой компонент связности имеет высокую сложность. Все остальные компоненты являются простой и маленький | C 2 | = O (log ⁡ n) {\ displaystyle | C_ {2} | = O (\ log n)}{\displaystyle |C_{2}|=O(\log n)}.

Модель конфигурации

Модель конфигурации принимает последовательность степеней или распределение степеней (которое впоследствии используется для генерации последовательности степеней) в качестве входных данных и производит произвольно связанные графы во всех отношениях, кроме последовательности степеней. Это означает, что для данного выбора последовательности степеней выбирается граф равномерно случайным образом из множества всех графов, соответствующих этой последовательности степеней. Степень k {\ displaystyle k}kслучайно выбранной вершины является независимой и одинаково распределенной случайной величиной с целыми значениями. Когда E [k 2] - 2 E [k]>0 {\ textstyle \ mathbb {E} [k ^ {2}] - 2 \ mathbb {E} [k]>0}{\textstyle \mathbb {E} [k^{2}]-2\mathbb {E} [k]>0} , граф конфигурации содержит гигантский компонент связности, имеющий бесконечный размер. Остальные компоненты имеют конечные размеры, которые можно количественно оценить с помощью понятия распределения размеров. Вероятность w (n) {\ displaystyle w ( n)}w(n), что случайно выбранный узел подключен к компоненту размера n {\ displaystyle n}nзадается мощностями свертки степени распределение:

вес (n) = {E [k] n - 1 u 1 ∗ n (n - 2), n>1, u (0) n = 1, {\ displaystyle w (n) = {\ begin {case} {\ frac {\ mathbb {E} [k]} {n-1}} u_ {1} ^ {* n} (n-2), n>1, \\ u (0) n = 1, \ end {cases}}}{\displaystyle w(n)={\begin{cases}{\frac {\mathbb {E} [k]}{n-1}}u_{1}^{*n}(n-2),n>1, \\ u (0) n = 1, \ end {ases}}} где u (k) {\ displaystyle u (k)}u(k)обозначает степень распределения, а u 1 (k) = (k + 1) и (к + 1) Е [к] {\ Displaystyle и_ {1} (к) = {\ гидроразрыва {(к + 1) и (к + 1)} {\ mathbb {E} [k]}}}{\displaystyle u_{1}(k)={\frac {(k+1)u(k+1)}{\mathbb {E} [k]}}}. Гигантский компонент может быть уничтожен путем случайного удаления критической части p c {\ displaystyle p_ {c}}p_{c}всех ребер. Этот процесс называется перколяцией в случайных сетях. Когда второй момент распределения степеней конечен, E [k 2] < ∞ {\textstyle \mathbb {E} [k^{2}]<\infty }{\textstyle \mathbb {E} [k^{2}]<\infty }, эта критическая доля края определяется как pc = 1 - E [k] E [k 2] - E [к] {\ displaystyle p_ {c} = 1 - {\ frac {\ mathbb {E} [k]} {\ mathbb {E} [k ^ {2}] - \ mathbb {E} [k]} }}{\displaystyle p_{c}=1-{\frac {\mathbb {E} [k]}{\mathbb {E} [k^{2}]-\mathbb {E} [k]}}}, а среднее расстояние вершина-вершина l {\ displaystyle l}lв гигантском компоненте логарифмически масштабируется с общим размером сети. l = O (log ⁡ N) {\ displaystyle l = O (\ log N)}{\displaystyle l=O(\log N)}.

В модели направленной конфигурации степень узла задается двумя числами в градусах k in {\ displaystyle k _ {\ text {in}}}k_{\text{in}}и степени выхода k out {\ displaystyle k _ {\ text {out}}}{\displaystyle k_{\text{out}}}, и, следовательно,, распределение степеней двумерное. Ожидаемое количество внутренних и внешних ребер совпадает, так что E [k in] = E [k out] {\ textstyle \ mathbb {E} [k _ {\ text {in}}] = \ mathbb {E} [k _ {\ text {out}}]}{\textstyle \mathbb {E} [k_{\text{in}}]=\mathbb {E} [k_{\text{out}}]}. Модель направленной конфигурации содержит гигантский компонент iff

2 E [k in] E [k in k out] - E [k in] E [k out 2] - E [k in] E [k in 2] + E [k in 2] E [k out 2] - E [k in k out] 2>0. {\ displaystyle 2 \ mathbb {E} [k _ {\ text {in}}] \ mathbb {E} [k _ {\ text {in}} k _ {\ text {out}}] - \ mathbb {E} [k_ {\ text {in}}] \ mathbb {E} [k _ {\ text {out}} ^ {2}] - \ mathbb {E} [k _ {\ text {in}}] \ mathbb {E} [k_ {\ text {in}} ^ {2}] + \ mathbb {E} [k _ {\ text {in}} ^ {2}] \ mathbb {E} [k _ {\ text {out}} ^ {2} ] - \ mathbb {E} [k _ {\ text {in}} k _ {\ text {out}}] ^ {2}>0.}{\displaystyle 2\mathbb {E} [k_{\text{in}}]\mathbb {E} [k_{\text{in}}k_{\text{out}}]-\mathbb {E} [k_{\text{in}}]\mathbb {E} [k_{\text{out}}^{2}]-\mathbb {E} [k_{\text{in}}]\mathbb {E} [k_{\text{in}}^{2}]+\mathbb {E} [k_{\text{in}}^{2}]\mathbb {E} [k_{\text{out}}^{2}]-\mathbb {E} [k_{\text{in}}k_{\text{out}}]^{2}>0.} Обратите внимание, что E [k in] {\ textstyle \ mathbb {E } [k _ {\ text {in}}]}{\textstyle \mathbb {E} [k_{\text{in}}]}и E [k out] {\ textstyle \ mathbb {E} [k _ {\ text {out}}]}{\textstyle \mathbb {E} [k_{\text{out}}]}равны и, следовательно, взаимозаменяемы в последнем неравенстве. Вероятность того, что случайно выбранная вершина принадлежит компоненту размера n {\ displaystyle n}n, определяется как: h in ( n) = E [kin] n - 1 u ~ in ∗ n (n - 2), n>1, u ~ in = k in + 1 E [k in] ∑ k out ≥ 0 u (k in + 1, k out), {\ displaystyle h _ {\ text {in}} (n) = {\ frac {\ mathbb {E} [k_ {in}]} {n-1}} {\ tilde {u}} _ {\ text {in}} ^ {* n} (n-2), \; n>1, \; {\ тильда {u}} _ {\ text {in}} = {\ frac {k _ {\ text {in}} + 1} {\ mathbb {E} [k _ {\ text {in}}]}} \ sum \ limits _ {k _ {\ text {out}} \ geq 0} u (k _ {\ text {in}} + 1, k _ {\ text {out}}),}{\displaystyle h_{\text{in}}(n)={\frac {\mathbb {E} [k_{in}]}{n-1}}{\tilde {u}}_{\text{in}}^{*n}(n-2),\;n>1, \; {\ tilde {u }} _ {\ text {in}} = {\ frac {k _ {\ text {in}} + 1} {\ mathbb {E} [k _ {\ text {in}}]}} \ sum \ limits _ { k _ {\ text {out}} \ geq 0} u (k _ {\ text {in}} + 1, k _ {\ text {out}}),} для in-components и

h out (n) = E [ k out] n - 1 u ~ out ∗ n (n - 2), n>1, u ~ out = k out + 1 E [k out] ∑ k in ≥ 0 u (k in, k out + 1), {\ displaystyle h _ {\ text {out}} (n) = {\ frac {\ mathbb {E} [k _ {\ text {out}}]} {n-1}} {\ tilde {u}} _ { \ text {out}} ^ {* n} (n-2), \; n>1, \; {\ tilde {u}} _ {\ text {out}} = {\ frac {k _ {\ text { out}} + 1} {\ mathbb {E} [k _ {\ text {out}}]}} \ sum \ limits _ {k _ {\ text {in}} \ geq 0} u (k _ {\ text {in }}, k _ {\ text {out}} + 1),}{\displaystyle h_{\text{out}}(n)={\frac {\mathbb {E} [k_{\text{out}}]}{n-1}}{\tilde {u}}_{\text{out}}^{*n}(n-2),\;n>1, \; {\ tilde {u}} _ {\ text {out}} = {\ f rac {k _ {\ text {out}} + 1} {\ mathbb {E} [k _ {\ text {out}}]}} \ sum \ limits _ {k _ {\ text {in}} \ geq 0} u (k _ {\ text {in}}, k _ {\ text {out}} + 1),}

для компонентов out.

Модель маленького мира Уоттса – Строгаца

Модель Уоттса и Строгаца использует концепцию изменения проводки для достижения своей структуры. Генератор модели будет перебирать каждое ребро в исходной структуре решетки. Ребро может менять свои соединенные вершины в соответствии с заданной вероятностью перепрограммирования. ⟨k⟩ = 4 {\ displaystyle \ langle k \ rangle = 4}{\displaystyle \langle k\rangle =4}в этом примере.

модель Уоттса и Строгаца - это модель генерации случайного графа, которая создает графы с свойствами маленького мира.

Начальная структура решетки используется для создания модели Уоттса – Строгаца. Каждый узел в сети изначально связан со своими ⟨k⟩ {\ displaystyle \ langle k \ rangle}\langle k\rangle ближайшими соседями. Другой параметр задается как вероятность перенаправления. Каждое ребро имеет вероятность p {\ displaystyle p}p, что оно будет преобразовано в граф как случайное ребро. Ожидаемое количество перепрограммированных звеньев в модели равно p E = p N ⟨k⟩ / 2 {\ displaystyle pE = pN \ langle k \ rangle / 2}{\displaystyle pE=pN\langle k\rangle /2}.

Поскольку модель Уоттса – Строгаца начинается как не- случайная структура решетки, она имеет очень высокий коэффициент кластеризации наряду с высокой средней длиной пути. Каждое повторное подключение может создать ярлык между кластерами с высокой степенью связи. По мере увеличения вероятности повторного подключения коэффициент кластеризации уменьшается медленнее, чем средняя длина пути. Фактически, это позволяет значительно уменьшить среднюю длину пути в сети с незначительным уменьшением коэффициента кластеризации. Более высокие значения p приводят к большему количеству перемонтированных ребер, что фактически делает модель Уоттса – Строгаца случайной сетью.

Модель предпочтительной привязанности Барабаши – Альберта (BA)

Модель Барабаши – Альберта - это случайная сетевая модель, используемая для демонстрации предпочтительной привязанности или «богатого-получающего» более богатый »эффект. В этой модели ребро, скорее всего, присоединится к узлам с более высокими степенями. Сеть начинается с начальной сети из m 0 узлов. m 0 ≥ 2, и степень каждого узла в исходной сети должна быть не менее 1, в противном случае он всегда будет оставаться отключенным от остальной сети.

В модели BA новые узлы добавляются в сеть по одному. Каждый новый узел подключается к m {\ displaystyle m}mсуществующим узлам с вероятностью, которая пропорциональна количеству ссылок, которые уже есть у существующих узлов. Формально вероятность p i того, что новый узел подключен к узлу i, равна

pi = ki ∑ jkj, {\ displaystyle p_ {i} = {\ frac {k_ {i}} {\ sum _ {j} k_ {j}}},}p_{i}={\frac {k_{i}}{\sum _{j}k_{j}}},

где k i - степень узла i. Сильно связанные узлы («концентраторы») имеют тенденцию быстро накапливать еще больше ссылок, в то время как узлы с небольшим количеством ссылок вряд ли будут выбраны в качестве места назначения для новой ссылки. Новые узлы имеют «предпочтение» присоединяться к уже сильно связанным узлам.

Распределение степеней модели BA, которое следует степенному закону. В логарифмическом масштабе функция степенного закона представляет собой прямую линию.

Распределение степеней, полученное на основе модели BA, не масштабируется, в частности, это степенной закон вида:

P (k) ∼ k - 3 {\ displaystyle P (k) \ sim k ^ {- 3} \,}P(k)\sim k^{{-3}}\,

Концентраторы обладают высокой центральностью между узлами, что позволяет существовать коротким путям между узлами. В результате модель BA имеет тенденцию к очень короткой средней длине пути. Коэффициент кластеризации этой модели также стремится к 0. В то время как диаметр D многих моделей, включая модель случайного графа Эрдеша Реньи и несколько сетей малых миров, пропорционален log N, модель BA показывает D ~ loglogN (ультрамалый мир). Обратите внимание, что средняя длина пути зависит от диаметра N.

Модель подключения, управляемого посредником (MDA)

В модели подключения, управляемого посредником (MDA), в которой новый узел идет с m {\ displaystyle m}mребра выбирают существующий связанный узел случайным образом, а затем соединяются не с этим, а с m {\ displaystyle m}mиз его соседей, выбранных также случайным образом. Вероятность Π (i) {\ displaystyle \ Pi (i)}{\displaystyle \Pi (i)}того, что узел i {\ displaystyle i}iиз существующего выбранного узла будет

Π (i) = ki N ∑ j = 1 ki 1 kjki. {\ displaystyle \ Pi (i) = {\ frac {k_ {i}} {N}} {\ frac {\ sum _ {j = 1} ^ {k_ {i}} {\ frac {1} {k_ { j}}}} {k_ {i}}}.}{\displaystyle \Pi (i)={\frac {k_{i}}{N}}{\frac {\sum _{j=1}^{k_{i}}{\frac {1}{k_{j}}}}{k_{i}}}.}

Фактор ∑ j = 1 ki 1 kjki {\ displaystyle {\ frac {\ sum _ {j = 1} ^ {k_ {i} } {\ frac {1} {k_ {j}}}} {k_ {i}}}}{\displaystyle {\frac {\sum _{j=1}^{k_{i}}{\frac {1}{k_{j}}}}{k_{i}}}}- это величина, обратная гармоническому среднему (IHM) степеней ki {\ displaystyle k_ {i}}k_{i}соседи узла i {\ displaystyle i}i. Подробные численные исследования показывают, что для примерно m>14 {\ displaystyle m>14}{\displaystyle m>14} среднее значение IHM в большом N {\ displaystyle N}Nпредельное значение 475 становится константой.>Π (i) ∝ ki {\ displaystyle \ Pi (i) \ propto k_ {i}}{\displaystyle \Pi (i)\propto k_{i}}. Это означает, что чем выше звенья (степень) у узла, тем выше его шанс получить больше связей, поскольку они могут быть достигнуты большим количеством способов через посредников, что по сути воплощает интуитивную идею механизма обогащения богатых (или правило предпочтительной привязанности модели Барабаши-Альберта). Таким образом, можно видеть, что сеть MDA следует принципу Правило PA, но замаскировано.

Тем не менее, для m = 1 {\ displaystyle m = 1}m=1оно описывает, как победитель получает весь механизм, поскольку мы находим, что почти 99% {\ displaystyle 99 \%}{\displaystyle 99\%}из все узлы имеют степень один, а один супербогат по степени. По мере того как значение m {\ displaystyle m}mувеличивает неравенство между сверхбогатыми и бедными, уменьшается, и как m>14 {\ displaystyle m>14}{\displaystyle m>14} мы находим переход от богатого к супер-богатому Механизм обогащения - обогащение.

Фитнес-модель

Другая модель, в которой ключевым ингредиентом является природа вершины, была представлена ​​Калдарелли и др. Здесь создается связь между двумя вершинами я, j {\ displaystyle i, j}i,jс вероятностью, заданной функцией связывания f (η i, η j) {\ displaystyle f (\ eta _ {i}, \ eta _ {j})}{\displaystyle f(\eta _{i},\eta _{j})}из приспособленности задействованных вершин. Степень вершины i определяется как

k (η i) = N ∫ 0 ∞ f ( η я, η j) ρ (η j) d η J {\ Displaystyle к (\ eta _ {i}) = N \ int _ {0} ^ {\ infty} f (\ eta _ {i}, \ eta _ {j}) \ rho (\ eta _ {j}) \, d \ eta _ {j}}{\displaystyle k(\eta _{i})=N\int _{0}^{\infty }f(\eta _{i},\eta _{j})\rho (\eta _{j})\,d\eta _{j}}

Если k (η i) {\ displaystyle k (\ eta _ {i})}{\displaystyle k(\eta _{i})}- обратимая и возрастающая функция от η i {\ displaystyle \ eta _ {i}}\eta _{i}, тогда распределение вероятностей P (k) {\ displaystyle P (k)}P(k)определяется выражением

P (k) = ρ (η (k)) ⋅ η ′ (k) {\ displaystyle P ( k) = \ rho (\ eta (k)) \ cdot \ eta '(k)}{\displaystyle P(k)=\rho (\eta (k))\cdot \eta '(k)}

В результате, если пригодности η {\ displaystyle \ eta}\eta распределяются как степенной закон, то также степень узла.

Менее интуитивно с быстро убывающим распределением вероятностей, как ρ (η) = e - η {\ displaystyle \ rho (\ eta) = e ^ {- \ eta}}{\displaystyle \rho (\eta)=e^{-\eta }}вместе с функцией связывания типа

е (η я, η J) знак равно Θ (η я + η J - Z) {\ Displaystyle F (\ eta _ {i}, \ eta _ {j}) = \ Theta (\ eta _ {i} + \ eta _ {j} -Z)}{\displaystyle f(\eta _{i},\eta _{j})=\Theta (\eta _{i}+\eta _{j}-Z)}

с Z {\ displaystyle Z}Zконстантой и Θ {\ displaystyle \ Theta}\Theta функцией Хевисайда., мы также получаем безмасштабные сети.

Такая модель успешно применялась для описания торговли между странами с использованием ВВП как пригодности для различных узлов i, j {\ displaystyle i, j}i,jи связывающей функции вида

δ η i η j 1 + δ η i η j. {\ displaystyle {\ frac {\ delta \ eta _ {i} \ eta _ {j}} {1+ \ delta \ eta _ {i} \ eta _ {j}}}.}{\displaystyle {\frac {\delta \eta _{i}\eta _{j}}{1+\delta \eta _{i}\eta _{j}}}.}
Сетевой анализ

Анализ социальных сетей

Анализ социальных сетей исследует структуру отношений между социальными объектами. Эти организации часто являются людьми, но также могут быть группами, организациями, национальными государствами, веб-сайтами, научными публикациями.

С 1970-х годов эмпирическое исследование сетей играет центральную роль в социальных науках, и многие из математических и статистических инструментов, используемых для изучения сетей, были впервые разработаны в социология. Среди множества других приложений, анализ социальных сетей использовался для понимания распространения инноваций, новостей и слухов. Точно так же он использовался для изучения распространения как болезней, так и поведения, связанного со здоровьем. Он также применялся в исследовании рынков, где он использовался для изучения роли доверия в обменных отношениях и социальных механизмов в установлении цен. Точно так же он использовался для изучения вербовки в политические движения и социальные организации. Он также использовался для концептуализации научных разногласий, а также академического престижа. В последнее время сетевой анализ (и его близкий родственник анализ трафика ) получил широкое применение в военной разведке для выявления повстанческих сетей как иерархического, так и безлидерного характера. В криминологии он используется для выявления влиятельных участников преступных группировок, движений преступников, соучастия в преступлениях, прогнозирования преступной деятельности и разработки политики.

Динамический сетевой анализ

Динамический сетевой анализ исследует изменяющуюся структуру отношений между различными классами сущностей в сложных социотехнических системах, а также отражает социальную стабильность и изменения, такие как появление новых групп, тем и лидеров. Динамический сетевой анализ фокусируется на метасетях, состоящих из нескольких типов узлов (объектов) и нескольких типов ссылок. Эти сущности могут быть самыми разными. Примеры включают людей, организации, темы, ресурсы, задачи, события, места и убеждения.

Динамические сетевые методы особенно полезны для оценки тенденций и изменений в сетях с течением времени, выявления появляющихся лидеров и изучения совместной эволюции людей и идей.

Анализ биологических сетей

В связи с недавним взрывом общедоступных высокопроизводительных биологических данных, анализ молекулярных сетей вызвал значительный интерес. Тип анализа в этом контенте тесно связан с анализом социальных сетей, но часто фокусируется на локальных моделях в сети. Например, сетевые мотивы - это небольшие подграфы, которые чрезмерно представлены в сети. представляют собой аналогичные избыточно представленные шаблоны в атрибутах узлов и ребер в сети, которые избыточно представлены с учетом сетевой структуры. Анализ биологических сетей привел к разработке сетевой медицины, которая рассматривает влияние болезней в интерактоме.

Анализ ссылок

Анализ связей - это подмножество сетевого анализа, изучающего связи между объектами. Примером может быть проверка адресов подозреваемых и потерпевших, телефонных номеров, которые они набрали, и финансовых транзакций, в которых они участвовали в течение определенного периода времени, а также семейных отношений между этими субъектами в рамках полицейского расследования. Анализ связей здесь обеспечивает важные взаимосвязи и ассоциации между очень многими объектами разных типов, которые не очевидны из отдельных фрагментов информации. Компьютерный или полностью автоматический компьютерный анализ каналов все чаще используется банками и страховыми агентствами при обнаружении мошенничества операторами связи при анализе сетей электросвязи посредством медицинский сектор в эпидемиологии и фармакологии, в правоохранительных расследованиях, в поисковых системах для релевантности рейтинга (и и наоборот, спамерами для спамодексирования и владельцами бизнеса для поисковой оптимизации ), а также везде, где необходимо анализировать отношения между многими объектами.

Устойчивость сети

Структурная устойчивость сетей изучается с помощью теории перколяции. Когда критическая часть узлов удаляется, сеть становится фрагментированной на небольшие кластеры. Это явление называется перколяцией и представляет собой фазовый переход типа порядок-беспорядок с критическими показателями.

Пандемический анализ

Модель SIR является одной из наиболее известных алгоритмов прогнозирования распространения глобальных пандемий среди инфекционной популяции.

Восприимчивость к заражению
S = β (1 N) {\ displaystyle S = \ beta \ left ({\ frac {1} {N}} \ right)}{\displaystyle S=\beta \left({\frac {1}{N}}\right)}

Формула выше описывает «сила» инфекции для каждой восприимчивой единицы в заразной популяции, где β эквивалентно скорости передачи указанного заболевания.

Чтобы отслеживать изменение восприимчивых в инфекционной популяции:

Δ S = β × S 1 N Δ t {\ displaystyle \ Delta S = \ beta \ times S {1 \ over N} \, \ Delta t}{\displaystyle \Delta S=\beta \times S{1 \over N}\,\Delta t}
От зараженных к выздоровевшим
Δ I = μ I Δ t {\ displaystyle \ Delta I = \ mu I \, \ Delta t}{\displaystyle \Delta I=\mu I\,\Delta t}

Со временем количество зараженных колеблется на : указанная скорость выздоровления, представленная как μ {\ displaystyle \ mu}\mu , но вычтенная до единицы за средний инфекционный период 1 τ {\ displaystyle {1 \ over \ tau}}{1 \over \tau }, номер инфекционных особей, I {\ displaystyle I}I, и изменение во времени, Δ t {\ displaystyle \ Delta t}\Delta t.

Инфекционный период

Будет ли население преодолено пандемией, с точки зрения модели SIR, зависит от значения R 0 {\ displaystyle R_ {0}}R_{0}или «средние люди, инфицированные инфицированным человеком».

R 0 = β τ = β μ {\ displaystyle R_ {0} = \ beta \ tau = {\ beta \ over \ mu}}R_{0}=\beta \tau ={\beta \over \mu }

Анализ веб-ссылок

Несколько Интернета поиск алгоритмы ранжирования используют метрики центральности на основе ссылок, включая (в порядке появления) Hyper Search, Google <582 Marchiori >PageRank, алгоритм Клейнберга HITS, алгоритмы CheiRank и TrustRank. Анализ ссылок также проводится в области информатики и коммуникаций, чтобы понять и извлечь информацию из структуры коллекций веб-страниц. Например, анализ может касаться взаимосвязи между веб-сайтами политиков или блогами.

PageRank

PageRank работает путем случайного выбора «узлов» или веб-сайтов, а затем с определенной вероятностью «случайного перехода» к другим узлам. Путем случайного перехода к этим другим узлам он помогает PageRank полностью пройти по сети, поскольку некоторые веб-страницы существуют на периферии и их не так легко оценить.

Каждый узел, xi {\ displaystyle x_ {i}}x_{i}, имеет PageRank, определяемый суммой страниц j {\ displaystyle j}jэта ссылка на i {\ displaystyle i}i, умноженная на единицу по исходящим ссылкам, или «степень выхода» из j {\ displaystyle j}j, умноженная на «важность» или PageRank j {\ displaystyle j}j.

xi = ∑ j → i 1 N jxj (k) {\ displaystyle x_ {i} = \ sum _ {j \ rightarrow i} {1 \ over N_ {j}} x_ {j} ^ {(k)}}x_{i}=\sum _{{j\rightarrow i}}{1 \over N_{j}}x_{j}^{{(k)}}
Случайный переход

Как объяснено выше, PageRank включает случайные скачки в попытках присвоить PageRank каждому веб-сайту в Интернете. Эти случайные переходы позволяют находить веб-сайты, которые могут не быть найдены при использовании обычных методов поиска, таких как поиск в ширину и поиск в глубину.

. Улучшение по сравнению с вышеупомянутой формулой для определения PageRank включает добавление эти случайные компоненты скачка. Без случайных переходов некоторые страницы получили бы PageRank 0, что было бы плохо.

Первый - это α {\ displaystyle \ alpha}\alpha , или вероятность того, что произойдет случайный скачок. Контраст - это «коэффициент затухания», или 1 - α {\ displaystyle 1- \ alpha}1-\alpha .

R (p) = α N + (1 - α) ∑ j → i 1 N jxj (k) { \ Displaystyle R {(p)} = {\ альфа \ над N} + (1- \ альфа) \ сумма _ {j \ rightarrow i} {1 \ над N_ {j}} x_ {j} ^ {(k) }}{\displaystyle R{(p)}={\alpha \over N}+(1-\alpha)\sum _{j\rightarrow i}{1 \over N_{j}}x_{j}^{(k)}}

Другой способ взглянуть на это:

R (A) = ∑ RBB (исходящие ссылки) + ⋯ + R nn (исходящие ссылки) {\ displaystyle R (A) = \ sum {R_ {B} \ over B _ {\ text {(outlinks)}}} + \ cdots + {R_ {n} \ over n _ {\ text {(outlinks)}}}}{\displaystyle R(A)=\sum {R_{B} \over B_{\text{(outlinks)}}}+\cdots +{R_{n} \over n_{\text{(outlinks)}}}}

Меры центральности

Информация об относительной важности узлов и ребер в графе можно получить с помощью мер центральности, широко используемых в таких дисциплинах, как социология. Меры централизации важны, когда сетевой анализ должен ответить на такие вопросы, как: «Какие узлы в сети должны быть нацелены, чтобы гарантировать распространение сообщения или информации на все или большинство узлов в сети?» или, наоборот, «Какие узлы следует задействовать, чтобы ограничить распространение болезни?». Формально установленные меры центральности: центральность по степени, центральность по близости, центральность по промежуточности, центральность по собственному вектору и центральность по кацу. Цель сетевого анализа обычно определяет тип используемых мер центральности.

  • Степень центральности узла в сети - это количество связей (вершин), связанных с узлом.
  • Близость центральность определяет, насколько «близок» узел к другим узлам в сети, путем измерения суммы кратчайших расстояний (геодезических путей) между этим узлом и всеми другими узлами в сети.
  • Центральность между узлами определяет относительная важность узла путем измерения объема трафика, проходящего через этот узел к другим узлам в сети. Это делается путем измерения доли путей, соединяющих все пары узлов и содержащих интересующий узел. Центральность группы между узлами измеряет объем трафика, проходящего через группу узлов.
  • Центральность по собственному вектору - это более сложная версия степени центральности, где центральность узла зависит не только от количества ссылок, связанных с узлом, но и также качество этих ссылок. Этот коэффициент качества определяется собственными векторами матрицы смежности сети.
  • Центральность по Кацу узла измеряется путем суммирования геодезических путей между этим узлом и всеми (достижимыми) узлами в сети. Эти пути взвешены, пути, соединяющие узел с его непосредственными соседями, имеют более высокий вес, чем пути, которые соединяются с узлами, находящимися дальше от ближайших соседей.
Распространение контента в сетях

Контент в комплексе сеть может распространяться двумя основными способами: с сохранением распространения и без сохранения распространения. При сохранении распространения общий объем контента, поступающего в сложную сеть, остается постоянным по мере прохождения. Модель консервированного распространения лучше всего можно представить в виде кувшина с фиксированным количеством воды, наливаемого в ряд воронок, соединенных трубками. Здесь кувшин представляет собой первоначальный источник, а вода - это распространяемое содержимое. Воронки и соединительные трубки представляют собой узлы и соединения между узлами соответственно. Когда вода переходит из одной воронки в другую, вода мгновенно исчезает из воронки, которая ранее была подвергнута воздействию воды. При несохраняемом распространении количество контента изменяется по мере того, как оно входит и проходит через сложную сеть. Модель несохраняемого спреда лучше всего можно представить в виде непрерывно работающего крана, проходящего через ряд воронок, соединенных трубками. Здесь количество воды из первоисточника бесконечно. Кроме того, любые воронки, подвергшиеся воздействию воды, продолжают воспринимать воду, даже когда она переходит в последовательные воронки. Неконсервативная модель является наиболее подходящей для объяснения передачи большинства инфекционных заболеваний.

Модель SIR

В 1927 году В.О. Кермак и А.Г. Маккендрик создали модель, в которой они рассматривали фиксированную популяцию. только с тремя отсеками, восприимчивые: S (t) {\ displaystyle S (t)}S(t), заражены, I (t) {\ displaystyle I (t)}I(t)и восстановлено, R (t) {\ displaystyle R (t)}R(t). Разделы, используемые для этой модели, состоят из трех классов:

  • S (t) {\ displaystyle S (t)}S(t)используется для представления количества людей, еще не инфицированных этим заболеванием в момент времени t, или те, кто подвержен заболеванию
  • I (t) {\ displaystyle I (t)}I(t)обозначает количество людей, инфицированных этим заболеванием и способных распространить болезнь среди людей в категория восприимчивости
  • R (t) {\ displaystyle R (t)}R(t)- это отделение, используемое для тех людей, которые были инфицированы, а затем вылечились от болезни. Те, кто находится в этой категории, не могут снова заразиться или передать инфекцию другим.

Ход этой модели можно рассматривать следующим образом:

S → I → R {\ displaystyle {\ mathcal {S} } \ rightarrow {\ mathcal {I}} \ rightarrow {\ mathcal {R}}}{\displaystyle {\mathcal {S}}\rightarrow {\mathcal {I}}\rightarrow {\mathcal {R}}}

Используя фиксированную совокупность, N = S (t) + I (t) + R (t) {\ displaystyle N = S (t) + I (t) + R (t)}N=S(t)+I(t)+R(t), Кермак и МакКендрик вывели следующие уравнения:

d S dt = - β SI d I dt = β SI - γ I d R dt = γ I {\ Displaystyle {\ begin {align} {\ frac {dS} {dt}} = - \ beta SI \\ [8pt] {\ frac {dI} {dt}} = \ beta SI- \ gamma I \\ [8pt] {\ frac {dR} {dt}} = \ gamma I \ end {align}}}{\displaystyle {\begin{aligned}{\frac {dS}{dt}}=-\beta SI\\[8pt]{\frac {dI}{dt}}=\beta SI-\gamma I\\[8pt]{\frac {dR}{dt}}=\gamma I\end{aligned}}}

При формулировке этих уравнений было сделано несколько предположений. Считается, что человек в популяции имеет такую ​​же вероятность, как и любой другой человек, заразиться этим заболеванием со скоростью β {\ displaystyle \ beta}\beta , что считается уровнем контакта или инфицирования болезнь. Следовательно, инфицированный человек вступает в контакт и может передавать болезнь с β N {\ displaystyle \ beta N}\beta Nдругими людьми в единицу времени, и доля контактов между инфицированным и восприимчивым человеком составляет S / N {\ Displaystyle S / N}S/N. Таким образом, количество новых инфекций в единицу времени на одно инфекционное заболевание составляет β N (S / N) {\ displaystyle \ beta N (S / N)}\beta N(S/N), что дает частоту новых инфекций (или оставив уязвимую категорию) как β N (S / N) I = β SI {\ displaystyle \ beta N (S / N) I = \ beta SI}\beta N(S/N)I=\beta SI(Brauer Castillo-Chavez, 2001). Применительно ко второму и третьему уравнениям считайте, что популяция, покидающая уязвимый класс, равна числу, попавшему в инфицированный класс. Однако инфекционные вирусы покидают этот класс в единицу времени, чтобы войти в восстановленный / удаленный класс со скоростью γ {\ displaystyle \ gamma}\gamma в единицу времени (где γ {\ displaystyle \ gamma }\gamma представляет собой среднюю скорость восстановления или 1 / γ {\ displaystyle 1 / \ gamma}1/\gamma средний период заражения). Эти процессы, которые происходят одновременно, называются Законом массового действия, широко распространенной идеей о том, что скорость контакта между двумя группами в популяции пропорциональна размеру каждой из заинтересованных групп (Daley Гани, 2005). Наконец, предполагается, что скорость инфицирования и выздоровления намного выше, чем временной масштаб рождений и смертей, и поэтому эти факторы в этой модели игнорируются.

Подробнее об этой модели можно прочитать на странице Модель эпидемии.

Подход главного уравнения

A главное уравнение может выразить поведение ненаправленной растущей сети, где на каждом временном шаге к сети добавляется новый узел, связанный со старым узлом (случайным образом выбрал и без преференций). Исходная сеть состоит из двух узлов и двух связей между ними в момент времени t = 2 {\ displaystyle t = 2}t = 2, эта конфигурация необходима только для упрощения дальнейших вычислений, поэтому во время t = n {\ displaystyle t = n}{\displaystyle t=n}сеть имеет n {\ displaystyle n}nузлов и n {\ displaystyle n}nссылки.

Основное уравнение для этой сети:

p (k, s, t + 1) = 1 tp (k - 1, s, t) + (1 - 1 t) p (k, s, t), {\ displaystyle p (k, s, t + 1) = {\ frac {1} {t}} p (k-1, s, t) + \ left (1 - {\ frac {1 } {t}} \ right) p (k, s, t),}{\displaystyle p(k,s,t+1)={\frac {1}{t}}p(k-1,s,t)+\left(1-{\frac {1}{t}}\right)p(k,s,t),}

где p (k, s, t) {\ displaystyle p (k, s, t)}{\displaystyle p(k,s,t)}- вероятность иметь узел s {\ displaystyle s}sсо степенью k {\ displaystyle k}kв момент времени t + 1 {\ displaystyle t + 1}t+1, а s {\ displaystyle s}s- временной шаг, когда этот узел был добавлен в сеть. Обратите внимание, что у старого узла s {\ displaystyle s}sесть только два способа иметь k {\ displaystyle k}kссылки в момент t + 1 {\ displaystyle t + 1}t+1:

  • Узел s {\ displaystyle s}sимеет степень k - 1 {\ displaystyle k-1}k-1в момент времени t {\ displaystyle t}tи будет связан новым узлом с вероятностью 1 / t {\ displaystyle 1 / t}1/t
  • Уже имеет степень k {\ displaystyle k}kв момент t {\ displaystyle t}tи не будет связан новым узлом.

После упрощения этой модели распределение степеней будет P (k) = 2 - k. {\ displaystyle P (k) = 2 ^ {- k}.}{\displaystyle P(k)=2^{-k}.}

На основе этой растущей сети разрабатывается модель эпидемии, следуя простому правилу: каждый раз при добавлении нового узла и после выбора старого узла для связывания, принимается решение: будет ли этот новый узел заражен. Основное уравнение для этой модели эпидемии:

pr (k, s, t) = rt 1 tpr (k - 1, s, t) + (1 - 1 t) pr (k, s, t), { \ Displaystyle p_ {r} (k, s, t) = r_ {t} {\ frac {1} {t}} p_ {r} (k-1, s, t) + \ left (1 - {\ frac {1} {t}} \ right) p_ {r} (k, s, t),}{\displaystyle p_{r}(k,s,t)=r_{t}{\frac {1}{t}}p_{r}(k-1,s,t)+\left(1-{\frac {1}{t}}\right)p_{r}(k,s,t),}

где rt {\ displaystyle r_ {t}}r_{t}представляет решение заразить (rt = 1 {\ displaystyle r_ {t} = 1}{\displaystyle r_{t}=1}) или нет (rt = 0 {\ displaystyle r_ {t} = 0}{\displaystyle r_{t}=0}). Решая это основное уравнение, получают следующее решение: P ~ r (k) = (r 2) k. {\ displaystyle {\ tilde {P}} _ {r} (k) = \ left ({\ frac {r} {2}} \ right) ^ {k}.}{\displaystyle {\tilde {P}}_{r}(k)=\left({\frac {r}{2}}\right)^{k}.}

Взаимозависимые сети

Взаимозависимая сеть - это система связанных сетей, в которой узлы одной или нескольких сетей зависят от узлов в других сетях. Такие зависимости усиливаются развитием современных технологий. Зависимости могут привести к каскадным сбоям между сетями, а относительно небольшой сбой может привести к катастрофическому сбою системы. Блэкауты - это увлекательная демонстрация той важной роли, которую играют зависимости между сетями. Недавнее исследование разработало основу для изучения каскадных отказов во взаимозависимых сетевых системах с использованием теории перколяции. Дополнительное исследование, рассматривающее динамический процесс в сети, направлено на каскадные отказы нагрузки во взаимозависимых сетях. Взаимозависимые инфраструктуры, которые пространственно встроены, были смоделированы как взаимозависимые решетчатые сети, и их устойчивость была проанализирована.] Модель пространственного мультиплексирования была введена Данцигером и др. И была дополнительно проанализирована Вакнином и др.

Многослойные сети

Многослойные сети - это сети с несколькими видами отношений. Попытки смоделировать реальные системы как многомерные сети использовались в различных областях, таких как анализ социальных сетей, экономика, история, городской и международный транспорт, экология, психология, медицина, биология, коммерция, климатология, физика, вычислительная нейробиология, управление операциями., и финансы.

Оптимизация сети

Сетевые проблемы, связанные с поиском оптимального способа выполнения чего-либо, изучаются под названием комбинаторной оптимизации. Примеры включают сетевой поток, проблему кратчайшего пути, транспортную проблему, проблему перегрузки, проблему местоположения, проблема сопоставления, проблема назначения, проблема упаковки, проблема маршрутизации, анализ критического пути и PERT (Методика оценки и анализа программ).

См. Также
Литература
Дополнительная литература
=== !!! == Знак равно <2>{\ displaystyle \ Pi (i)} <2><3>{\ displaystyle f (\ eta _ {i}, \ eta _ {j}) = \ Theta (\ eta _ {i} + \ эта _ {j} -Z)} <3><4>{\ displaystyle k (\ eta _ {i})} <4><5>t <5><6>{\ displaystyle R (A) = \ сумма {R_ {B} \ over B _ {\ text {(исходящие ссылки)}}} + \ cdots + {R_ {n} \ over n _ {\ text {(исходящие ссылки)}}}} <6><7>{\ displaystyle e ^ {- pny} = 1-y} <7><8>{\ displaystyle np = 1} <8><9>r_ {t} <9><10>{\ displaystyle p_ {r} (k, s, t) = r_ {t} {\ frac {1} {t}} p_ {r} (k-1, s, t) + \ left (1 - {\ frac {1} {t}} \ справа) p_ {r} (k, s, t),} <10><11>{\ textstyle \ mathbb {E} [k _ {\ text {out}}]} <11><12>{\ displaystyle \ langle k \ rangle = 4} <12><13>N-1 <13><14>T <14><15>{\ displaystyle S = \ beta \ left ({\ frac {1} {N}} \ справа)} <15><16>{\ displaystyle m>14} <16><17>I (t) <17><18>{\ textstyle \ mathbb {E} [k _ {\ text {in}}] } <18><19>i, j <19><20>{\ displaystyle D = {\ frac {E-N + 1} {2N-5}}.} <20><21>{\ displaystyle D = {\ frac {E- (N-1)} {Emax- (N-1)}} = {\ frac {2 (E-N + 1)} {N (N-3) +2}}} <21><22>v <22><23>j <23><24>{\ displaystyle y = y (np)} <24><25>{\ displaystyle p_ { c} = 1 - {\ frac {\ mathbb {E} [k]} {\ mathbb {E} [k ^ {2}] - \ mathbb {E} [k]}}} <25><26>{ \ displaystyle | C_ {2} | = O (\ log n)} <26><27>m = 1 <27><28>{\ displaystyle G (n, p)} <28><29>{\ displaystyle E _ {\ max} = N ^ {2}} <29><30>{\ displaystyle l = O (\ log N)} <30><31>k _ {\ text {in}} <31><32>\ beta <32><33>P (k) \ sim k ^ {{- 3}} \, <33><34>{\ displaystyle {\ frac {\ delta \ eta _ {i} \ eta _ {j }} {1+ \ delta \ eta _ {i} \ eta _ {j}}}.} <34><35>x_ {i} <35><36>{\ displaystyle np <1} <36><37>{\ displaystyle \ Pi (i) = {\ frac {k_ {i}} {N}} {\ frac {\ sum _ {j = 1} ^ {k_ {i}} {\ frac {1} { k_ {j}}}} {k_ {i}}}.} <37><38>{\ displaystyle r_ {t} = 1} <38><39>t = 2 <39><40>{\ displaystyle E _ {\ max} = \ infty} <40><41>{\ displaystyle f (\ eta _ {i}, \ eta _ {j})} <41><42>{\ displaystyle r_ {t} = 0 } <42><43>I <43><44>{\ displaystyle t = n} <44><45>E <45><46>{\ displaystyle O (\ ln \ ln N)} <46><47>{\ displaystyle \ langle k \ rangle = {\ tfrac {2E} {N}}} <47><48>{\ displaystyle D = {\ frac {T-2N + 2} {N (N-3) +2}},} <48><49>{\ displaystyle p (k, s, t)} <49><50>{\ displaystyle {\ frac {\ sum _ {j = 1} ^ {k_ {i }} {\ frac {1} {k_ {j}}}} {k_ {i}}}} <50><51>{\ displ aystyle p (k, s, t + 1) = {\ frac {1} {t}} p (k-1, s, t) + \ left (1 - {\ frac {1} {t}} \ right) p (k, s, t),} <51><52>S (t) <52><53>p <53><54>\ Delta t <54><55>{{\ binom {k} {2}}} = {{k (k-1)} \ over 2} \,. <55><56>{\ displaystyle {\ tilde {P}} _ {r} (k) = \ left ({ \ frac {r} {2}} \ right) ^ {k}.} <56><57>k <57><58>{\ displaystyle E _ {\ max}} <58><59>\ beta N ( S / N) <59><60>{\ displaystyle \ Pi (i) \ propto k_ {i}} <60><61>1 / t <61><62>\ gamma <62><63>{\ displaystyle O (\ пер N)} <63><64>{\ displaystyle \ Delta S = \ beta \ times S {1 \ over N} \, \ Delta t} <64><65>{\ displaystyle h _ {\ текст {out}} (n) = {\ frac {\ mathbb {E} [k _ {\ text {out}}]} {n-1}} {\ tilde {u}} _ {\ text {out}} ^ {* n} (n-2), \; n>1, \; {\ tilde {u}} _ {\ text {out}} = {\ frac {k _ {\ text {out}} + 1} {\ mathbb {E} [k _ {\ text {out}}]}} \ sum \ limits _ {k _ {\ text {in}} \ geq 0} u (k _ {\ text {in}}, k _ {\ текст {out}} + 1),} <65><66>{\ displaystyle \ mathbb {E} [\ langle k \ rangle] = \ mathbb {E} [k] = p (N-1)} <66><67>{\ textstyle \ mathbb {E} [k _ {\ text {in}}] = \ mathbb {E} [k _ {\ text {out}}]} <67><68>{\ displaystyle E_ { \ max} = {\ tbinom {N} {2}} = N (N-1) / 2} <68><69>S / N <69><70>l <70><71>{\ d isplaystyle 2 \ mathbb {E} [k _ {\ text {in}}] \ mathbb {E} [k _ {\ text {in}} k _ {\ text {out}}] - \ mathbb {E} [k _ {\ текст {in}}] \ mathbb {E} [k _ {\ text {out}} ^ {2}] - \ mathbb {E} [k _ {\ text {in}}] \ mathbb {E} [k _ {\ текст {in}} ^ {2}] + \ mathbb {E} [k _ {\ text {in}} ^ {2}] \ mathbb {E} [k _ {\ text {out}} ^ {2}] - \ mathbb {E} [k _ {\ text {in}} k _ {\ text {out}}] ^ {2}>0.} <71><72>\ Theta <72><73>{\ displaystyle u_ { 1} (к) = {\ гидроразрыва {(к + 1) и (к + 1)} {\ mathbb {E} [k]}}} <73><74>{\ displaystyle \ langle k \ rangle = { \ tfrac {E} {N}}} <74><75>N <75><76>{\ displaystyle k (\ eta _ {i}) = N \ int _ {0} ^ {\ infty} f ( \ eta _ {i}, \ eta _ {j}) \ rho (\ eta _ {j}) \, d \ eta _ {j}} <76><77>{1 \ over \ tau} <77><78>e_{i}<78><79>m<79><80>s<80><81>\ beta N <81><82>{\ displaystyle | C_ {1} | = O (n ^ {\ frac {2} {3}})} <82><83>{\ displaystyle (E _ {\ max} = 3N-6)} <83><84>{\ displaystyle \ Delta I = \ mu I \, \ Delta t} <84><85>u, v <85><86>D <86><87>{\ displaystyle {\ mathcal {S}} \ rightarrow {\ mathcal {I}} \ rightarrow {\ mathcal {R}}} <87><88>\ eta <88><89>u(k)<89><90>{\ displaystyle E _ {\ max} = N (N-1)} <90><91>R_ {0} = \ beta \ tau = {\ beta \ over \ mu} <91><92>{\ displaystyle k _ {\ text {out}}} <92><93>{\ displaystyle 99 \%} <93><94>{\ displaystyle R {(p)} = {\ alpha \ over N} + (1- \ alpha) \ sum _ {j \ rightarrow i} {1 \ over N_ {j}} x_ {j} ^ {(k)}} <94><95>w (n) <95><96>{\ tbinom N2} <96><97>\ eta _ {i} <97><98>N = S (t) + I (t) + R (t) <98><99>x_ {i} = \ sum _ {{j \ rightarrow i}} {1 \ over N_ {j}} x_ {j} ^ {{(k)}} <99><100>{\ displaystyle \ langle k \ rangle} <100><101>\ beta N (S / N) I = \ beta SI <101><102>{\ displaystyle d_ {u, v}} <102><103>p_ {i} = { \ frac {k_ {i}} {\ sum _ {j} k_ {j}}}, <103><104>{\ displaystyle | C_ {1} | = O (\ log n)} <104><105>1- \ альфа <105><106>n<106><107>{\ displaystyle P (k) = 2 ^ {- k}.} <107><108>{\ displaystyle \ rho (\ eta) = е ^ {- \ eta}} <108><109>R_ {0} <109><110>{\ displaystyle {\ begin {align} {\ frac {dS} {dt}} = - \ beta SI \ \ [8pt] {\ frac {dI} {dt}} = \ beta SI- \ gamma I \\ [8pt] {\ frac {dR} {dt}} = \ gamma I \ end {align}}} <110><111>t+1<111><112>\ langle k \ rangle <112><113>{\ displaystyle pE = pN \ langle k \ rangle / 2} <113><114>P (k) <114><115>{\ displaystyle | C_ {1} | \ приблизительно yn} <115><116>p_ {c} <116><117>k-1 <117><118>{\ displaystyle П (к) = \ rho (\ эта (к)) \ cdot \ eta <118><119>1 / \ gamma <119><120>{\ textstyle \ mathbb {E} [k ^ {2}] <\ infty} <120><121>k_ {i} <121><122>R (t) <122><123>{\ displaystyle P (\ deg (v) = k) = {n-1 \ select k } p ^ {k} (1-p) ^ {n-1-k}.} <123><124>{\ textstyle \ mathbb {E} [k ^ {2}] - 2 \ mathbb {E} [ k]>0} <124><125>i <125><126>{\ displaystyle np>1} <126><127>C_ {i} = {2e_ {i} \ over k_ {i} {(k_ {i} -1)}} \,, <127><128>{\ displaystyle w (n) = {\ begin {cases} {\ frac {\ mathbb {E} [k]} {n-1}} u_ {1} ^ {* n} (n-2), n>1, \\ u (0) n = 1, \ end {cases}}} <128><129>{\ displaystyle G (N, p)} <129><130>\ mu <130><131>Z<131><132>\ alpha <132><133>{\ displaystyle h _ {\ text {in}} (n) = {\ frac { \ mathbb {E} [k_ {in}]} {n-1}} {\ tilde {u}} _ {\ text {in}} ^ {* n} (n-2), \; n>1, \; {\ tilde {u}} _ {\ text {in}} = {\ frac {k _ {\ text {in}} + 1} {\ mathbb {E} [k _ {\ text {in}}]} } \ sum \ limits _ {k _ {\ text {out}} \ geq 0} u (k _ {\ text {in}} + 1, k _ {\ text {out}}),} <133>html
Последняя правка сделана 2021-05-31 04:57:19
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте