DOME - это проект, финансируемый правительством Нидерландов, между IBM и ASTRON в форме государственно-частного партнерства с акцентом на Square Kilometer Array (SKA), крупнейший в мире планируемый радиотелескоп. СКА будет построен в Австралии и ЮАР. Целью проекта DOME является разработка дорожной карты технологий, которая применима как к SKA, так и к IBM. Пятилетний проект был начат в 2012 году и финансируется совместно правительством Нидерландов и IBM Research в Цюрихе, Швейцария, и ASTRON в Нидерландах. Официально проект завершился 30 сентября 2017 года.
Проект DOME сосредоточен на трех областях вычислений: экологически чистые вычисления, данные и потоковая передача и нанофотоника и разделение на семь исследовательских проектов.
В конструкции компьютеров кардинально изменилась за последние десятилетия, но старые парадигмы все еще господствуют. Текущие разработки основаны на работе отдельных компьютеров с небольшими наборами данных в одном месте. SKA столкнется с совершенно другим ландшафтом, работая с чрезвычайно большим набором данных, собранных в бесчисленных географически разделенных точках с использованием тысяч отдельных компьютеров в реальном времени. Придется пересмотреть фундаментальные принципы создания такой машины. Параметры, касающиеся диапазона мощности, технологий ускорителей, распределения рабочей нагрузки, размера памяти, архитектуры ЦП, взаимодействия узлов, должны быть исследованы, чтобы создать новую основу для проектирования. Инструменты, созданные в результате этого проекта, будут открыты в начале 2018 года.
Это фундаментальное исследование будет служить зонтиком для других шести основных областей, помогая принимать правильные решения в отношении архитектурных направлений.
Первым шагом будет ретроспективный анализ конструкции телескопов LOFAR и MeerKAT и разработка инструмента проектирования для использования при проектировании очень больших и распределенных компьютеров..
Этот проект будет сосредоточен на очень большом количестве данных, которые должна обрабатывать DOME. SKA будет генерировать петабайты данных ежедневно, и это должно обрабатываться по-разному в зависимости от срочности и географического положения, будь то рядом с массивами телескопов или в центрах обработки данных. Сложное многоуровневое решение должно быть разработано с использованием множества технологий, которые в настоящее время выходят за рамки современного уровня техники. Движущими силами конструкции будут минимально возможные затраты, доступность и энергоэффективность.
Этот многоуровневый подход будет сочетать в себе несколько различных программных технологий для анализа, сортировки, распространения, хранения и извлечения данных на оборудовании, начиная от традиционных носителей, таких как магнитная лента и жесткие диски на новые технологии, такие как память с фазовым переходом. Пригодность различных носителей в значительной степени зависит от моделей использования при записи и чтении данных, и эти шаблоны будут меняться со временем, поэтому также должно быть место для изменений дизайна.
Транспортировка данных является основным фактором, влияющим на проектирование от самых больших масштабов до самых маленьких в модели DOME. Стоимость электрической связи по медным проводам будет стимулировать применение маломощных фотонных межсоединений, от соединений между собирающими антеннами и центрами обработки данных до подключения устройств внутри компьютеров. И IBM, и ASTRON имеют передовые исследовательские программы в области нанофотоники, формирования луча и оптических каналов, и они объединят свои усилия для разработки новых разработок.
Этот исследовательский проект разделен на четыре раздела НИОКР, в которых исследуются цифровые оптические межсоединения, аналоговые оптические межсоединения и обработка аналоговых оптических сигналов.
В феврале 2013 года на International Solid- State Circuits Conference (ISSCC), IBM и Федеральная политехническая школа Лозанны (EPFL) в Швейцарии продемонстрировали аналого-цифровой преобразователь 100 Гбит / с 11>(АЦП). В феврале 2014 года на ISSCC IBM и ASTRON продемонстрировали АЦП со скоростью 400 Гбит / с.
В 2012 году команда IBM во главе с Рональдом П. Луйтеном начала стремиться к высокой вычислительной мощности и энергоэффективный 64-битный вычислительный сервер на основе стандартных компонентов, работающий под управлением Linux. Конструкция система на кристалле (SoC), в которой большинство необходимых компонентов помещалось бы на одном кристалле, лучше всего соответствовала бы этим целям, и появилось определение «микросервера» там, где по существу законченная материнская плата (кроме ОЗУ и загрузочной flash) поместится на чип. Были исследованы решения на базе ARM, x86 и Power ISA, а также решение, основанное на Power ISA на базе Dual от Freescale. Процессор core P5020 / quad core P5040 вышел на первое место.
Получившийся микросервер помещается в тот же форм-фактор, что и стандартный разъем FB-DIMM. Микросхема SoC, около 20 ГБ DRAM и несколько микросхем управления (например, PSoC 3 от Cypress, используемый для мониторинга, отладка и загрузка ) составляют законченный вычислительный узел с физическими размерами 133 × 55 мм. Контакты карты используются для порта SATA, пяти Гбит и двух 10 Гбит портов Ethernet, одной SD-карты, один интерфейс USB 2 и питание.
Вычислительная карта работает в диапазоне мощности 35 Вт с запасом мощности до 70 Вт. Идея состоит в том, чтобы разместить около сотни таких вычислительных карт в 19-дюймовой стойке 2U-блок вместе с сетевые коммутаторы для внешнего хранилища и связи. Охлаждение будет обеспечиваться с помощью системы охлаждения горячей водой Aquasar, впервые разработанной суперкомпьютером SuperMUC в Германии.
В конце 2013 года была выбрана новая SoC. Более новый 12-ядерный T4240 от Freescale значительно мощнее и работает в том же диапазоне энергопотребления, что и T5020. Был построен новый прототип карты микросервера, который был протестирован для более крупных масштабное развертывание в полном ящике 2U в начале 2014 года. Позже была разработана 8-ядерная плата ARMv8 с использованием части LS2088A от NXP (ранее Freescale). В конце 2017 года IBM лицензирует технологию стартапу, который планирует этим воспользоваться. к середине 2018 года.
Традиционные высокопроизводительные процессоры демонстрируют высокую производительность. Mance Wall в конце 2000-х, когда тактовые частоты больше не могли быть увеличены из-за увеличения требований к мощности. Одним из решений является включение оборудования для разгрузки наиболее распространенных и / или ресурсоемких задач на специализированное оборудование, называемое ускорителями. В этой области исследований будет предпринята попытка определить эти области и разработать алгоритмы и оборудование для преодоления узких мест. Вероятно, будут ускорители, выполняющие обнаружение паттернов, синтаксический анализ, поиск данных и обработку сигналов. Оборудование будет двух классов; фиксированные ускорители для статических задач или программируемые ускорители для семейства задач с аналогичными характеристиками. В проекте также будут рассмотрены массовые параллельные вычисления с использованием стандартных графических процессоров.
Проект Compressive Sampling является фундаментальным исследованием обработки сигналов в сотрудничестве с Делфтским технологическим университетом. В контексте радиоастрономии захват, анализ и обработка сигналов требует чрезвычайно больших вычислительных ресурсов на огромных наборах данных. Цель состоит в том, чтобы выполнить выборку и сжатие одновременно и использовать машинное обучение, чтобы определить, что сохранить, а что выбросить, желательно как можно ближе к сборщикам данных, возможный. Целью этого проекта является разработка алгоритмов сжимающей выборки для использования при захвате сигнала и калибровки шаблонов для сохранения в постоянно увеличивающемся количестве кластеров шаблонов. В ходе исследования также будут решены проблемы ухудшения качества рисунка, обнаружения выбросов, классификации объектов и формирования изображений.
Передача данных от сборщиков технологическое оборудование традиционно зависает из-за высокой задержки ввода / вывода, низкой полосы пропускания соединений, и данные часто умножаются по пути из-за отсутствия целенаправленного проектирования сети связи. В рамках этого исследовательского проекта будет предпринята попытка уменьшить задержку до минимума и спроектировать системы ввода-вывода таким образом, чтобы данные записывались непосредственно в механизмы обработки на экзадачном компьютере. На первом этапе выявляются узкие места в системе и исследуется Удаленный прямой доступ к памяти (RDMA). На втором этапе будет рассмотрено использование стандартной технологии RDMA в межсетевых сетях. Третий этап включает разработку функциональных прототипов.