InfiniBand (IB) - это стандарт компьютерной сетевой связи, используемый в высокопроизводительных вычислениях, который имеет очень высокие характеристики. пропускная способность и очень низкая задержка. Он используется для передачи данных между компьютерами и внутри них. InfiniBand также используется как прямое или переключаемое соединение между серверами и системами хранения, а также как соединение между системами хранения. Он разработан с учетом масштабируемости и использует коммутируемую структуру топологию сети.
. По состоянию на 2014 год это было наиболее часто используемое межсоединение в суперкомпьютерах. Mellanox производит InfiniBand адаптеры шины хоста и сетевые коммутаторы, а в феврале 2016 года сообщалось, что Oracle Corporation разработала собственный Коммутаторы InfiniBand и микросхемы серверных адаптеров для использования в собственных линейках продуктов и третьими сторонами. Карты Mellanox IB доступны для Solaris, FreeBSD, RHEL, SLES, Windows, HP. -UX, VMware ESX и AIX.
В качестве межсоединения IB конкурирует с Ethernet, Fibre Channel и Intel Omni-Path.
Технология продвигается Торговая ассоциация InfiniBand.
SDR | DDR | QDR | FDR10 | FDR | EDR | HDR | NDR | XDR | ||
---|---|---|---|---|---|---|---|---|---|---|
Скорость передачи сигналов (Гбит / с) | 0002.5 | 0005 | 0010 | 0010.3125 | 0014.0625 | 0025.78125 | 0050 | 0100 | 0250 | |
Теоретическая. эффективная. пропускная способность. (Гбит / с ) | для 01 каналов | 0002 | 0004 | 0008 | 0010 | 0013.64 | 0025 | 0050 | 0100 | 0250 |
для ссылок 04 | 0008 | 0016 | 0032 | 0040 | 0054,54 | 0100 | 0200 | 0400 | 1000 | |
для 08 ссылок | 0016 | 0032 | 0064 | 0080 | 0109.08 | 0200 | 0400 | 0800 | 2000 | |
для 12 звеньев | 0024 | 0048 | 0096 | 0120 | 0163.64 | 0300 | 0600 | 1200 | 3000 | |
Кодирование (бит ) | 8b / 10b | 64b / 66b | tbd | tbd | ||||||
Задержка адаптера (µs ) | 0005 | 0002,5 | 0001,3 | 0000,7 | 0000,7 | 0000,5 | меньше? | tbd | tbd | |
Год | 2001, 2003 | 2005 | 2007 | 2011 | 2011 | 2014 | 2017 | после 2020 | после 2023? |
Ссылки могут быть агрегированы: большинство систем используют агрегат 4 ×. Каналы 8 × и 12 × обычно используются для межсоединений кластер и суперкомпьютер, а также для соединений между коммутатором.
InfiniBand также предоставляет возможности RDMA для снижения нагрузки на ЦП.
InfiniBand использует топологию коммутируемой структуры, в отличие от ранее использовавшейся разделяемой среды Ethernet. Все передачи начинаются или заканчиваются на адаптере канала. Каждый процессор содержит адаптер канала хоста (HCA), а каждое периферийное устройство имеет адаптер целевого канала (TCA). Эти адаптеры также могут обмениваться информацией в целях безопасности или качество обслуживания (QoS).
Передача InfiniBand ts в пакетах размером до 4 КБ, которые собираются вместе для формирования сообщения. Сообщение может быть:
Помимо подключения форм-фактора платы, он может использовать как активные, так и пассивный медный (до 10 метров) и оптоволоконный кабель (до 10 км). Используются разъемы QSFP.
Ассоциация InfiniBand Association также определила систему разъемов CXP для скорости до 120 Гбит / с по медным, активным оптическим кабелям и оптическим трансиверам с использованием параллельных многомодовых оптоволоконных кабелей с 24-волоконными Коннекторы MPO.
InfiniBand не имеет стандартного API. В стандарте перечислен только набор команд, таких как ibv_open_device
или ibv_post_send
, которые являются абстрактными представлениями функций или методов, которые должны существовать. Синтаксис этих функций оставлен на усмотрение поставщиков. Иногда для справки это называется API глаголов. Стандартный программный стек де-факто разработан OpenFabrics Alliance. Он выпущен под двумя лицензиями GPL2 или лицензия BSD для GNU / Linux и FreeBSD, и как Mellanox OFED для Windows (названия продуктов: WinOF / WinOF-2; указывается как драйвер хост-контроллера. для соответствия конкретным устройствам ConnectX от 3 до 5) по выбору лицензии BSD для Windows. Он был принят большинством поставщиков InfiniBand для GNU / Linux, FreeBSD и Windows. IBM заявляет об этом в своем центре знаний по API глаголов:
В презентации Mellanox Technologies, датированной 2014 г., с заголовком «Учебник по программированию глаголов» на странице 31 говорится:
InfiniBand возник в 1999 в результате слияния двух конкурирующих проектов: Future I / O и Next Generation I / O. Это привело к созданию InfiniBand Trade Association (IBTA), в которую вошли Compaq, Dell, Hewlett-Packard, IBM, Intel, Microsoft и Sun. В то время считалось, что некоторые из более мощных компьютеров приближались к узкому месту соединения шины PCI, несмотря на такие обновления, как PCI-X. Версия 1.0 спецификации архитектуры InfiniBand была выпущена в 2000 году. Первоначально видение IBTA для IB было одновременно заменой PCI в вводе-выводе, Ethernet в машинном отделении, межсоединения кластера и Fibre Channel. IBTA также предусмотрела декомпозицию серверного оборудования на структуре IB Fabric. После взрыва пузыря доткомов в отрасли возникли сомнения относительно инвестиций в такой далеко идущий технологический скачок.
Ethernet через InfiniBand, сокращенно EoIB, представляет собой реализацию Ethernet через протокол InfiniBand и технологию соединителей.
EoIB позволяет использовать несколько полос пропускания Ethernet, которые зависят от версии InfiniBand (IB).
Реализация пакета Internet Protocol Suite в Ethernet, обычно называемого TCP / IP, отличается от некоторых реализаций, используемых поверх протокола InfiniBand в IP over IB (IPoIB).
Тип | Линии | Пропускная способность (Гбит / с) | Совместимые типы Ethernet | Совместимое количество Ethernet |
---|---|---|---|---|
SDR | 001 | 0002,5 | GbE до 2,5 GbE | 02 x GbE до 1 x 02,5 GbE |
004 | 0010 | GbE на 10 GbE | от 10 x GbE до 1 x 10 GbE | |
008 | 0020 | GbE на 10 GbE | от 20 x GbE до 2 x 10 GbE | |
012 | 0030 | GbE до 25 GbE | от 30 x GbE до 1 x 25 GbE + 1 x 05 GbE | |
DDR | 001 | 0005 | GbE до 5 GbE | 05 x GbE до 1 x 05 GbE |
004 | 0020 | GbE до 10 GbE | от 20 x GbE до 2 x 10 GbE | |
008 | 0040 | GbE до 40 GbE | от 40 x GbE до 1 x 40 GbE | |
012 | 0060 | GbE до 50 GbE | от 60 x GbE до 1 x 50 GbE + 1 x 10 GbE | |
QDR | 001 | 0010 | GbE до 10 GbE | от 10 x GbE до 1 x 10 GbE |
004 | 0040 | GbE до 40 GbE | от 40 x GbE до 1 x 40 GbE |