InfiniBand

редактировать
Высокоскоростная компьютерная сетевая шина с малой задержкой, используемая в суперкомпьютерах

InfiniBand (IB) - это стандарт компьютерной сетевой связи, используемый в высокопроизводительных вычислениях, который имеет очень высокие характеристики. пропускная способность и очень низкая задержка. Он используется для передачи данных между компьютерами и внутри них. InfiniBand также используется как прямое или переключаемое соединение между серверами и системами хранения, а также как соединение между системами хранения. Он разработан с учетом масштабируемости и использует коммутируемую структуру топологию сети.

. По состоянию на 2014 год это было наиболее часто используемое межсоединение в суперкомпьютерах. Mellanox производит InfiniBand адаптеры шины хоста и сетевые коммутаторы, а в феврале 2016 года сообщалось, что Oracle Corporation разработала собственный Коммутаторы InfiniBand и микросхемы серверных адаптеров для использования в собственных линейках продуктов и третьими сторонами. Карты Mellanox IB доступны для Solaris, FreeBSD, RHEL, SLES, Windows, HP. -UX, VMware ESX и AIX.

В качестве межсоединения IB конкурирует с Ethernet, Fibre Channel и Intel Omni-Path.

Технология продвигается Торговая ассоциация InfiniBand.

Содержание

  • 1 Спецификация
    • 1.1 Производительность
    • 1.2 Топология
    • 1.3 Сообщения
    • 1.4 Физическое соединение
    • 1.5 API
  • 2 История
    • 2.1 Временная шкала
  • 3 Ethernet через InfiniBand
  • 4 См. Также
  • 5 Ссылки
  • 6 Внешние ссылки

Спецификация

Производительность

Характеристики
SDRDDRQDRFDR10FDREDRHDRNDRXDR
Скорость передачи сигналов (Гбит / с)0002.5000500100010.31250014.06250025.78125005001000250
Теоретическая. эффективная. пропускная способность. (Гбит / с )для 01 каналов00020004000800100013.640025005001000250
для ссылок 0400080016003200400054,540100020004001000
для 08 ссылок00160032006400800109.080200040008002000
для 12 звеньев00240048009601200163.640300060012003000
Кодирование (бит )8b / 10b 64b / 66b tbdtbd
Задержка адаптера (µs )00050002,50001,30000,70000,70000,5меньше?tbdtbd
Год2001, 2003200520072011201120142017после 2020после 2023?

Ссылки могут быть агрегированы: большинство систем используют агрегат 4 ×. Каналы 8 × и 12 × обычно используются для межсоединений кластер и суперкомпьютер, а также для соединений между коммутатором.

InfiniBand также предоставляет возможности RDMA для снижения нагрузки на ЦП.

Топология

InfiniBand использует топологию коммутируемой структуры, в отличие от ранее использовавшейся разделяемой среды Ethernet. Все передачи начинаются или заканчиваются на адаптере канала. Каждый процессор содержит адаптер канала хоста (HCA), а каждое периферийное устройство имеет адаптер целевого канала (TCA). Эти адаптеры также могут обмениваться информацией в целях безопасности или качество обслуживания (QoS).

Сообщения

Передача InfiniBand ts в пакетах размером до 4 КБ, которые собираются вместе для формирования сообщения. Сообщение может быть:

Физическое соединение

Коммутатор InfiniBand с разъемами CX4 / SFF-8470

Помимо подключения форм-фактора платы, он может использовать как активные, так и пассивный медный (до 10 метров) и оптоволоконный кабель (до 10 км). Используются разъемы QSFP.

Ассоциация InfiniBand Association также определила систему разъемов CXP для скорости до 120 Гбит / с по медным, активным оптическим кабелям и оптическим трансиверам с использованием параллельных многомодовых оптоволоконных кабелей с 24-волоконными Коннекторы MPO.

API

InfiniBand не имеет стандартного API. В стандарте перечислен только набор команд, таких как ibv_open_deviceили ibv_post_send, которые являются абстрактными представлениями функций или методов, которые должны существовать. Синтаксис этих функций оставлен на усмотрение поставщиков. Иногда для справки это называется API глаголов. Стандартный программный стек де-факто разработан OpenFabrics Alliance. Он выпущен под двумя лицензиями GPL2 или лицензия BSD для GNU / Linux и FreeBSD, и как Mellanox OFED для Windows (названия продуктов: WinOF / WinOF-2; указывается как драйвер хост-контроллера. для соответствия конкретным устройствам ConnectX от 3 до 5) по выбору лицензии BSD для Windows. Он был принят большинством поставщиков InfiniBand для GNU / Linux, FreeBSD и Windows. IBM заявляет об этом в своем центре знаний по API глаголов:

Приложение AIX ® может определять API глаголов, который является либо Open Fabrics Enterprise Distribution (OFED ) или глаголы AIX InfiniBand (IB), которые должны взаимодействовать с определенным адресатом.

В презентации Mellanox Technologies, датированной 2014 г., с заголовком «Учебник по программированию глаголов» на странице 31 говорится:

  • , разработан и поддерживается Роланд Дрейер с 2006 года, де-факто стандарт API глаголов в * nix
    • Разработан как Открытый исходный код
    • Ядро, часть глаголов интегрирована в ядро ​​Linux с 2005 г. - ядро ​​2.6.11
    • Inbox в нескольких дистрибутивах * nix
    • Существуют библиотеки низкого уровня от нескольких поставщиков аппаратного обеспечения

История

InfiniBand возник в 1999 в результате слияния двух конкурирующих проектов: Future I / O и Next Generation I / O. Это привело к созданию InfiniBand Trade Association (IBTA), в которую вошли Compaq, Dell, Hewlett-Packard, IBM, Intel, Microsoft и Sun. В то время считалось, что некоторые из более мощных компьютеров приближались к узкому месту соединения шины PCI, несмотря на такие обновления, как PCI-X. Версия 1.0 спецификации архитектуры InfiniBand была выпущена в 2000 году. Первоначально видение IBTA для IB было одновременно заменой PCI в вводе-выводе, Ethernet в машинном отделении, межсоединения кластера и Fibre Channel. IBTA также предусмотрела декомпозицию серверного оборудования на структуре IB Fabric. После взрыва пузыря доткомов в отрасли возникли сомнения относительно инвестиций в такой далеко идущий технологический скачок.

Хронология

  • 2001: Mellanox поставляет устройства InfiniBridge 10 Гбит / с и поставляет более 10 000 портов InfiniBand.
  • 2002: принятие терпит неудачу, когда Intel объявляет, что вместо поставки микросхем IB она сосредоточится на разработке PCI Express и Microsoft прекращает разработку IB в пользу расширения Ethernet, хотя Sun и Hitachi продолжают поддерживать IB.
  • 2003: Virginia Tech создает кластер InfiniBand, занимающий третье место в рейтинге Top500 в то время.
  • 2004: IB начинает воспринимать внедрение как межсоединение кластеризации, превосходя Ethernet по задержкам и цене. OpenFabrics Alliance разрабатывает стандартизированный программный стек InfiniBand на базе Linux. В следующем году Linux добавляет поддержку IB.
  • 2005: IB начинает реализовываться в качестве межсоединения для устройств хранения.
  • 2009: из 500 лучших суперкомпьютеров в мире Gigabit Ethernet является внутренним технология межсоединений в 259 установках по сравнению с 181, использующими InfiniBand.
  • 2010: лидеры рынка Mellanox и Voltaire объединяются, в результате чего остается только один другой поставщик IB, QLogic, в основном поставщик Fibre Channel. Oracle делает крупные инвестиции в Mellanox.
  • 2011: коммутаторы и адаптеры FDR анонсированы на Международной конференции по суперкомпьютерам.
  • 2012: Intel приобретает технологию QLogic InfiniBand.
  • 2016: Oracle Corporation производит собственные межкомпонентные микросхемы InfiniBand и коммутационные блоки.
  • 2019: Nvidia приобрела Mellanox за 6,9 млрд долларов

Ethernet через InfiniBand

Ethernet через InfiniBand, сокращенно EoIB, представляет собой реализацию Ethernet через протокол InfiniBand и технологию соединителей.

EoIB позволяет использовать несколько полос пропускания Ethernet, которые зависят от версии InfiniBand (IB).

Реализация пакета Internet Protocol Suite в Ethernet, обычно называемого TCP / IP, отличается от некоторых реализаций, используемых поверх протокола InfiniBand в IP over IB (IPoIB).

Производительность Ethernet через InfiniBand
ТипЛинииПропускная способность (Гбит / с)Совместимые типы EthernetСовместимое количество Ethernet
SDR0010002,5GbE до 2,5 GbE02 x GbE до 1 x 02,5 GbE
0040010GbE на 10 GbEот 10 x GbE до 1 x 10 GbE
0080020GbE на 10 GbEот 20 x GbE до 2 x 10 GbE
0120030GbE до 25 GbEот 30 x GbE до 1 x 25 GbE + 1 x 05 GbE
DDR0010005GbE до 5 GbE05 x GbE до 1 x 05 GbE
0040020GbE до 10 GbEот 20 x GbE до 2 x 10 GbE
0080040GbE до 40 GbEот 40 x GbE до 1 x 40 GbE
0120060GbE до 50 GbEот 60 x GbE до 1 x 50 GbE + 1 x 10 GbE
QDR0010010GbE до 10 GbEот 10 x GbE до 1 x 10 GbE
0040040GbE до 40 GbEот 40 x GbE до 1 x 40 GbE

См. Также

Ссылки

Внешние ссылки

Последняя правка сделана 2021-05-24 14:37:48
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте