Национальный центр вычислительных наук

редактировать

Национальный центр вычислительных наук (NCCS ) - это Департамент энергетики США (DOE) Leadership Computing Facility, в котором находится Oak Ridge Leadership Computing Facility (OLCF), пользовательский объект Управления науки Министерства энергетики США, призванный помогать исследователям решать сложные научные проблемы глобальный интерес с сочетанием ведущих ресурсов высокопроизводительных вычислений (HPC) и международного опыта в области научных вычислений.

NCCS предоставляет ресурсы для вычислений и моделирования в таких областях, как астрофизика, материаловедение, и исследования климата для пользователей из правительства, академических кругов и промышленности, которые сталкиваются со многими из крупнейших вычислительных проблем в науке.

Флагманский суперкомпьютер OLCF, IBM AC922 Summit, поддерживается расширенными данными инструменты управления и анализа. В центре размещалась система Cray XK7 Titan, один из самых мощных научных инструментов своего времени, с 2012 года до вывода из эксплуатации в августе 2019 года. В том же году началось строительство Frontier, который планируется дебютировать в качестве первой системы exascale OLCF в 2021 году.

Содержание
  • 1 История
  • 2 Предыдущие системы
    • 2.1 Intel Paragons
    • 2.2 Eagle (2000–2005 гг.)
    • 2.3 Falcon (2000)
    • 2.4 Cheetah (2001–2008)
    • 2.5 Ram (2003–2007)
    • 2.6 Phoenix (OLCF-1) (2003–2008)
    • 2.7 Jaguar ( OLCF-2) (2005–2012)
    • 2,8 Hawk (2006–2008)
    • 2,9 Ewok (2006–2011)
    • 2,10 Eugene (2008–2011)
    • 2,11 Eos (2013–2019)
    • 2.12 Titan (OLCF-3) (2012–2019)
  • 3 Current Systems
    • 3.1 Spider
    • 3.2 HPSS
    • 3.3 EVEREST
    • 3.4 Rhea
    • 3.5 Wombat
    • 3.6 Summit (OLCF-4)
    • 3.7 Frontier (OLCF-5)
  • 4 Области исследований
  • 5 Ссылки
  • 6 Внешние ссылки
История

9 декабря 1991 года Конгресс подписал Закон о высокопроизводительных вычислениях (HPCA) 1991 г., Crea Автор сенатора Эла Гора. HPCA предложила национальную информационную инфраструктуру для построения коммуникационных сетей и баз данных, а также призвала к предложениям по созданию новых высокопроизводительных вычислительных средств для обслуживания науки.

24 мая 1992 года ORNL получила награду за исследование в области высокопроизводительных вычислений. центр называется Центром вычислительных наук или CCS, как часть HPCA. ORNL в том же году получил 66-процессорный процессор Intel Paragon XP / S 5 с серийным номером 1 для разработки кода. Пиковая производительность системы составила 5 гигафлопс (5 миллиардов операций с плавающей запятой в секунду).

Национальная лаборатория Ок-Ридж (ORNL) объединилась с тремя другими национальными лабораториями и семью университетами, чтобы подать предложение о партнерстве в области вычислительной науки (PICS) в Министерство энергетики США в рамках инициативы по высокопроизводительным вычислениям и коммуникациям..

В соответствии с Законом о возрождении высокопроизводительных вычислений 2004 года, CCS было поручено реализовать проект Leadership Computing Facility (LCF) в ORNL с целью разработки и установки суперкомпьютера со скоростью петафлопс в конце 2008. В том же году центр официально изменил свое название с Центр вычислительных наук на NCCS.

9 декабря 2019 г. был назначен Джорджия Турасси, ранее занимавший должность директора Института медицинских данных ORNL и руководителя группы биомедицинских наук, инженерии и вычислений ORNL. директору NCCS, сменив Джеймса Хака.

Предыдущие системы

Intel Paragons

Создание CCS в 1992 году положило начало серии Intel Paragon компьютеров, в том числе:

  • Intel Paragon XP / S 5 (1992): Intel Paragon XP / S 5 обеспечивал 128 вычислительных узлов GP, расположенных в прямоугольную сетку размером 16 строк на 8 столбцов, состоящую из одной 8 на 8 группа узлов 16 МБ и одна группа узлов 8 на 8 32 МБ. Также были доступны четыре вычислительных узла 128 МБ MP в сетке 2 строки на 2 столбца. Кроме того, имелся загрузочный узел MP 128 МБ, четыре сервисных узла GP 32 МБ и шесть узлов ввода-вывода, пять из которых были подключены к дискам RAID объемом 4,8 ГБ, а шестой - к RAID-диск 16 ГБ. Это обеспечило в общей сложности 40 ГБ системного дискового пространства.
  • Intel Paragon XP / S 35 (1992): Intel Paragon XP / S 35 обеспечивал 512 вычислительных процессоров, расположенных в прямоугольную сетку из 16 строк на 32 столбца. Кроме того, было пять сервисных узлов и 27 узлов ввода-вывода, каждый из которых был подключен к RAID-диску объемом 4,8 ГБ. Это обеспечило в общей сложности 130 ГБ места на системном диске. У каждого из пяти сервисных узлов и 512 вычислительных узлов было 32 МБ памяти.
  • Intel Paragon XP / S 150 (1995): Самый быстрый компьютер в мире на момент поставки ORNL, Intel Paragon XP / S 150 предоставил 1024 узла, расположенных в прямоугольную сетку из 16 строк на 64 столбца. Это были MP-узлы, что означало, что на каждый узел приходилось два вычислительных процессора. У большинства узлов было 64 МБ, но у 64 узлов было 128 МБ. Кроме того, было пять сервисных узлов и 127 узлов ввода-вывода (119 обычных узлов ввода-вывода и 4 высокопроизводительных узла ввода-вывода SCSI-16), каждый из которых был подключен к RAID-диску объемом 4,8 ГБ. Это обеспечило в общей сложности 610 ГБ системного дискового пространства.

Eagle (2000–2005)

Eagle был 184-узловым IBM RS / 6000 SP, эксплуатируемым Computer Science and Математический отдел ORNL. Он имел 176 «тонких» узлов Winterhawk-II, каждый с четырьмя процессорами 375 МГц Power3 -II и 2 ГБ памяти. У Eagle также было восемь «широких» узлов Winterhawk-II - каждый с двумя процессорами Power3-II 375 МГц и 2 ГБ памяти - для использования в качестве серверов файловой системы и других задач инфраструктуры. Расчетная вычислительная мощность Eagle в вычислительном разделе превышала 1 терафлоп.

Falcon (2000)

Falcon представлял собой 64-узловой Compaq AlphaServer SC, управляемый CCS и приобретенный в рамках проекта ранней оценки. У него было четыре процессора Alpha EV67 с частотой 667 МГц с 2 ГБ памяти на узел и 2 ТБ подключенного диска Fibre Channel, в результате чего расчетная вычислительная мощность составляла 342 гигафлопса.

Cheetah (2001–2008)

Cheetah - это система 4.5 TF IBM pSeries, управляемая CCS. Вычислительный раздел Cheetah включал 27 узлов p690, каждый с 32 процессорами 1,3 ГГц Power4. Разделы входа и выхода вместе включали 8 узлов p655, каждый с четырьмя процессорами Power4 1,7 ГГц. Все узлы были подключены через межсоединение IBM Federation.

Иерархия памяти Power4 состояла из трех уровней кеш-памяти. Первый и второй уровни были на микросхеме Power4 (два процессора на микросхему). Кэш-память инструкций уровня 1 составляла 128 КБ (64 КБ на процессор), а кэш данных - 64 КБ (32 КБ на процессор). Кэш-память уровня 2 составляла 1,5 МБ, совместно используемых двумя процессорами. Кэш-память 3-го уровня была 32 МБ и находилась вне кристалла. На узел приходилось 16 микросхем или 32 процессора.

Большинство вычислительных узлов Cheetah имели 32 ГБ памяти. У пяти было 64 ГБ памяти, а у двух - 128 ГБ. На некоторых узлах Cheetah было около 160 ГБ локального дискового пространства, которое можно было использовать как временное рабочее пространство.

В июне 2002 года Cheetah занял восьмое место в рейтинге самых быстрых компьютеров в мире согласно TOP500, полугодовому списку лучших суперкомпьютеров в мире.

Ram (2003–2007)

Ram был суперкомпьютером SGI Altix, предоставленным в качестве системы поддержки NCCS.

Ram был установлен в 2003 году и использовался в качестве системы поддержки предварительной и последующей обработки для выделенных проектов NCCS до 2007 года.

Ram имел 256 процессоров Intel Itanium2. с тактовой частотой 1,5 ГГц, каждый с 6 МБ кеш-памяти L3, 256 КБ кеш-памяти L2 и 32 КБ кеш-памяти L1. У Ram было 8 ГБ памяти на процессор, всего 2 ТБ общей памяти. Напротив, первый суперкомпьютер ORNL, Cray XMP, установленный в 1985 году, имел одну миллионную память, чем SGI Altix.

Phoenix (OLCF-1) (2003–2008)

Phoenix был Cray X1E, предоставляемым в качестве основной системы в NCCS.

Исходный X1 был установлен в 2003 году и прошел несколько обновлений, достигнув своей окончательной конфигурации в 2005 году. С октября 2005 по 2008 год он обеспечил почти 17 миллионов процессорных часов. Система поддержала более 40 крупных проектов в исследовательских областях, включая климат, горение, физику высоких энергий, термоядерный синтез, химию, информатику, материаловедение и астрофизику.

В окончательной конфигурации Phoenix имел 1024 многопоточных векторных процессора (MSP). Каждый MSP имел 2 МБ кеш-памяти и пиковую скорость вычислений 18 гигафлопс. Четыре MSP сформировали узел с 8 ГБ общей памяти. Пропускная способность памяти была очень высокой, примерно вдвое меньше пропускной способности кеша. Межсоединение функционировало как расширение системы памяти, предлагая каждому узлу прямой доступ к памяти на других узлах с высокой пропускной способностью и низкой задержкой.

Jaguar (OLCF-2) (2005–2012)

Jaguar начинался как 25-терафлоп Cray XT3 в 2005 году. Позже он был модернизирован до XT4, содержащий 7832 вычислительных узла, каждый из которых содержит четырехъядерный процессор AMD Opteron 1354, работающий на частоте 2,1 ГГц, 8 ГБ памяти DDR2-800 (некоторые узлы использовали память DDR2-667), и роутер SeaStar2. Полученный раздел содержал 31 328 процессорных ядер, более 62 ТБ памяти, более 600 ТБ дискового пространства и пиковую производительность 263 терафлопс (263 триллиона операций с плавающей запятой в секунду).

В 2008 году Jaguar был модернизирован до Cray XT5 и стал первой системой, которая запускала научное приложение с устойчивой производительностью в петафлоп. К моменту своего окончательного преобразования в Titan в 2012 году Jaguar содержал почти 300 000 процессорных ядер и имел теоретический пик производительности 3,3 петафлопс. Jaguar имел 224 256 ядер процессора AMD Opteron на базе x86 и работал с версией Linux под названием Cray Linux Environment.

С ноября 2009 г. по В ноябре 2010 года Jaguar стал самым мощным компьютером в мире.

Hawk (2006–2008)

Hawk был 64-узловым Linux кластером, предназначенным для высококачественной визуализации.

Hawk был установлен в 2006 году и использовался в качестве основного кластера визуализации Центра до мая 2008 года, когда он был заменен 512-ядерной системой под названием Lens.

Каждый узел содержал два одноядерных процессора Opteron процессоров и 2 ГБ памяти. Кластер был подключен к сети Quadrics Elan3, что обеспечивает высокую пропускную способность и низкую задержку связи. Кластер был заполнен двумя разновидностями видеокарт NVIDIA, подключенных к AGP8x: 5900 и QuadroFX 3000G. Узлы с картами 3000G были напрямую подключены к EVEREST PowerWall и были зарезервированы для использования PowerWall.

Ewok (2006–2011)

Ewok был кластером InfiniBand на базе Intel под управлением Linux. Система была предоставлена ​​как сквозной ресурс для пользователей центра. Он использовался для автоматизации рабочего процесса при выполнении заданий с суперкомпьютера Jaguar и для расширенного анализа данных. В системе 81 узел. Каждый узел содержал два процессора Pentium IV с тактовой частотой 3,4 ГГц, центральный процессор (ЦП) Intel Xeon с тактовой частотой 3,4 ГГц и 6 ГБ памяти. Дополнительный узел содержал 4 двухъядерных процессора AMD и 64 ГБ памяти. Система была настроена с файловой системой Lustre 13 ТБ для рабочего пространства.

Юджин (2008–2011)

Юджин был системой IBM Blue Gene / P на 27 терафлоп, управляемой NCCS. Он предоставляет около 45 миллионов процессорных часов в год для сотрудников ORNL и для развития сотрудничества между ORNL и его основными университетскими партнерами.

Система состояла из 2048 четырехъядерных процессоров IBM 450d PowerPC с тактовой частотой 850 МГц и 2 ГБ памяти на каждый узел. У Юджина было 64 узла ввода-вывода; каждое представленное задание должно было использовать хотя бы один узел ввода-вывода. Это означает, что каждое задание потребляло минимум 32 узла на выполнение.

Юджин был официально выведен из эксплуатации в октябре 2011 года. Однако 13 декабря того же года часть оборудования Юджина была передана в дар Argonne Leadership Computing Facility (ALCF) в Аргоннской национальной лаборатории.

Eos (2013–2019)

Eos представлял собой кластер Cray XC30 с 736 узлами и общим объемом памяти 47,104 ТБ. Его процессор был Intel Xeon E5-2670. Он имел 16 сервисных узлов ввода / вывода и 2 внешних узла входа в систему. Его вычислительные узлы были организованы в виде лезвий. Каждое лезвие содержало 4 узла. У каждого узла было 2 сокета по 8 физических ядер в каждом. Технология Intel HyperThreading (HT) позволяла каждому физическому ядру работать как 2 логических ядра, поэтому каждый узел мог работать так, как если бы он имел 32 ядра. В общей сложности вычислительный раздел Eos содержал 11 776 традиционных процессорных ядер (23 552 логических ядра с включенной технологией HT).

Eos предоставил пространство для переноса инструментов и приложений, а также небольших заданий для подготовки возможностей запуска на Titan, а также как генерация, проверка и оптимизация программного обеспечения.

Titan (OLCF-3) (2012–2019)

Titan была системой Cray XK7 с гибридной архитектурой с теоретической пиковой производительностью, превышающей 27000 триллионов вычислений в секунду (27 петафлопс). Он содержал как продвинутые 16-ядерные процессоры AMD Opteron, так и графические процессоры (GPU) NVIDIA Kepler. Эта комбинация позволила Titan достичь 10-кратной скорости и 5-кратной энергоэффективности своего предшественника, суперкомпьютера Jaguar, при этом потребляя лишь немного больше энергии и занимая те же физические площади.

Titan имел 18 688 вычислительных узлов, a общая системная память 710 ТБ и высокопроизводительная сеть Gemini от Cray. Его 299 008 ядер ЦП управляли симуляциями, а сопутствующие графические процессоры одновременно выполняли сотни вычислений. Система позволила сократить время на решение, повысить сложность моделей и повысить реалистичность моделирования. В ноябре 2012 года Titan занял первое место в списке суперкомпьютеров TOP500.

После 7 лет службы Titan был списан в августе 2019 года, чтобы освободить место для суперкомпьютера Frontier.

Current Systems

Spider

Центральная файловая система Lustre OLCF, называемая Spider, является файловой системой оперативной работы для большинства вычислительных ресурсов OLCF. Являясь чрезвычайно высокопроизводительной системой, Spider имеет более 20 000 клиентов, обеспечивая 32 ПБ дискового пространства и может перемещать данные со скоростью более 1 ТБ / с. Spider состоит из двух файловых систем, Atlas1 и Atlas2, чтобы обеспечить высокую доступность и балансировку нагрузки между несколькими серверами метаданных для повышения производительности.

HPSS

HPSS, архивный ресурс массового хранения ORNL, состоит из компоненты ленточных и дисковых хранилищ, серверы Linux и программное обеспечение High Performance Storage System (HPSS). Ленточное хранилище обеспечивается роботизированными ленточными библиотеками StorageTek SL8500, каждая из которых может вместить до 10 000 картриджей. Каждая библиотека имеет 24 дисковода T10K-A, 60 дисков T10K-B, 36 дисков T10K-C и 72 диска T10K-D.

EVEREST

EVEREST (Исследовательский Visualization Environment for Research in Science and Technology) - крупномасштабная площадка для исследования и анализа данных. EVEREST имеет размеры 30 футов в длину и 8 футов в высоту, и его главная особенность - это PowerWall с 27 проекторами с совокупным количеством пикселей 35 миллионов пикселей. Проекторы расположены в виде массива 9 × 3, каждый из которых обеспечивает яркость 3500 люмен для очень яркого дисплея.

Стена размером 11 520 на 3072 пикселя предлагает огромное количество визуальных деталей. Стена интегрирована с остальной частью вычислительного центра, создавая канал передачи данных с высокой пропускной способностью между крупномасштабными высокопроизводительными вычислениями и крупномасштабной визуализацией данных.

ЭВЕРЕСТ управляется кластером из 14 узлов. Каждый узел содержит четыре двухъядерных процессора AMD Opteron. Эти 14 узлов имеют графические карты NVIDIA QuadroFX 3000G, подключенные к проекторам, что обеспечивает возможность визуализации с очень высокой пропускной способностью. Лаборатория визуализации действует как экспериментальная установка для развития будущих возможностей визуализации. В нем размещается 12-панельный ЖК-дисплей, узлы тестового кластера, устройства взаимодействия и видеооборудование.

Rhea

Rhea - это типовой Linux-кластер с 521 узлом. Rhea предоставляет канал для крупномасштабных научных открытий посредством предварительной и последующей обработки данных моделирования, созданных на суперкомпьютере Titan. Каждый из первых 512 узлов Rhea содержит два 8-ядерных процессора Intel Xeon 2,0 ГГц с технологией Intel HT и 128 ГБ основной памяти. Rhea также имеет девять узлов GPU с большой памятью. Каждый из этих узлов имеет 1 ТБ оперативной памяти и два графических процессора NVIDIA K80 с двумя 14-ядерными процессорами Intel Xeon 2,30 ГГц с технологией HT. Rhea подключена к высокопроизводительной файловой системе Lustre OLCF, Atlas.

Wombat

Wombat - это кластер с одной стойкой от HPE, основанный на 64-битной архитектуре ARM. традиционной архитектуры на базе x86. Эта система доступна для поддержки исследовательских проектов в области информатики, направленных на изучение архитектуры ARM.

Кластер Wombat имеет 16 вычислительных узлов, четыре из которых имеют два подключенных ускорителя AMD GPU (всего в системе восемь графических процессоров). Каждый вычислительный узел имеет два 28-ядерных процессора Cavium ThunderX2, 256 ГБ оперативной памяти (16 модулей DDR4 DIMM) и твердотельный накопитель на 480 ГБ для локального хранилища узлов. Узлы подключаются к EDR InfiniBand (~ 100 Гбит / с).

Summit (OLCF-4)

The OLCF's IBM AC922 Summit supercomputer. Суперкомпьютер IBM AC922 Summit от OLCF.

IBM AC922 Summit, или OLCF-4, является флагманским суперкомпьютером ORNL с производительностью 200 петафлопс. Summit был первоначально запущен в июне 2018 года, и по состоянию на ноябрь 2019 года в списке TOP500 это самый быстрый компьютер в мире с производительностью High Performance Linpack (HPL), равной 148,6 петафлопс. Summit также является первым компьютером, который достиг производительности exascale, достигнув пиковой пропускной способности 1,88 exaops за счет комбинации одиночных и операций с плавающей запятой половинной точности.

Like его предшественник Titan, Summit, использует гибридную архитектуру, которая объединяет 9 216 Power9 процессоров и 27 648 графических процессоров NVIDIA Volta V100 с использованием NVIDIA NVLink. Summit имеет 4608 узлов (почти четверть из 18688 узлов Titan), каждый из которых имеет 512 ГБ двойной скорости передачи данных 4, синхронную динамическую память произвольного доступа (DDR4) и 96 ГБ памяти с высокой пропускной способностью (HBM2) на узел, с общей емкостью хранения 250 петабайт.

Frontier (OLCF-5)

Планируется к поставке в 2021 году, доступ пользователей станет доступен в следующем году, Frontier станет первой устойчивой эксафлопсной системой ORNL, что означает, что она будет способна выполнять один квинтиллион - один миллиард миллиардов - операций в секунду. Система будет состоять из более чем 100 шкафов Cray Shasta с ожидаемой максимальной производительностью около 1,5 экзафлопс.

Области исследований
  • Биология - С суперкомпьютерными ресурсами OLCF исследователи могут использовать знания о молекулярном масштабе. для разработки новых лекарств и медицинских методов лечения, изучения сложных биологических систем и моделирования регуляции генов.
  • Химия - Суперкомпьютеры, такие как Summit, могут исследовать тонкости материи на атомном уровне, позволяя делать первые открытия принципов и детальные молекулярные модели.
  • Компьютерные науки - Исследователи разрабатывают инструменты, необходимые для оценки ряда суперкомпьютерных систем, с целью выяснить, как лучше всего использовать каждую, как найти наиболее подходящий для любого конкретного приложения и как адаптировать приложения. для достижения максимальной производительности.
  • Науки о Земле - Высокопроизводительные вычисления позволяют проводить крупномасштабные вычисления сложных экологических и географических систем, и исследователи NCCS используют эту информацию t o лучше понимать изменения климата Земли, вызванные глобальным потеплением.
  • Инженерия - Ресурсы OLCF, такие как Summit, используются для инженерных приложений, таких как моделирование газовых турбин и двигателей внутреннего сгорания.
  • Fusion - Понимание поведения термоядерной плазмы и моделирование различных аспектов устройства дает исследователям представление о строительстве ИТЭР, прототипа термоядерной электростанции.
  • Материаловедение - Исследования в материаловедении в ORNL стремится улучшить различные области современной жизни, от производства и передачи электроэнергии до транспортировки и производства более быстрых, компактных и универсальных компьютеров и запоминающих устройств.
  • Ядерная энергия - Разработка новых ядерных реакторов в которых используются усовершенствованные топливные циклы и соблюдаются современные ограничения в области безопасности и нераспространения, требуется сложное моделирование и симуляция. Часто сложность такого моделирования требует использования суперкомпьютеров, которые могут гарантировать точность моделей.
  • Физика - Физики используют высокопроизводительные вычислительные мощности NCCS, чтобы раскрыть фундаментальную природу материи, включая поведение кварков, электронов и т. Д. и другие элементарные частицы, из которых состоят атомы.
Ссылки
  1. ^«Обзор». Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  2. ^«Обзор». Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  3. ^"Frontier". www.olcf.ornl.gov. Проверено 11 марта 2020 г.
  4. ^«Обзор». Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  5. ^«Май 2007». web.ornl.gov. Проверено 11 марта 2020 г.
  6. ^Хурай, Пол Г. (24 февраля 1999 г.). «Партнерство в области вычислительной науки». Электронная библиотека ЕНТ. Проверено 11 марта 2020 г.
  7. ^«Май 2007». web.ornl.gov. Проверено 11 марта 2020 г.
  8. ^Биггерт, Джуди (30 ноября 2004 г.). «H.R.4516 - 108-й Конгресс (2003-2004 гг.): Закон 2004 года Министерства энергетики о возрождении высокопроизводительных вычислений». www.congress.gov. Проверено 11 марта 2020 г.
  9. ^«Турасси назначен директором Национального центра вычислительных наук ORNL». WYSH AM 1380. 23 декабря 2019 г. Проверено 22 июня 2020 г.
  10. ^«Национальный центр вычислительных наук» выведенные из эксплуатации системы ». 2012-09-13. Архивировано с оригинального 13.09.2012. Проверено 11 марта 2020 г.
  11. ^"Описание оборудования XP / S 5". 1997-01-21. Архивировано 21 января 1997 года из оригинального. Проверено 11 марта 2020 г.
  12. ^«Oak Ridge Leadership Computing Facility». www.tiki-toki.com. Проверено 11 марта 2020 г.
  13. ^«Oak Ridge Leadership Computing Facility». www.tiki-toki.com. Проверено 11 марта 2020 г.
  14. ^«Описание оборудования Intel Paragon XP / S 150». Архивировано из оригинала 28.04.1999.
  15. ^"CCS: IBM SP (Eagle)". 2006-06-22. Архивировано с оригинального 22.06.2006. Проверено 11 марта 2020 г.
  16. ^"ORNL CCS Resources". 2000-12-10. Архивировано из оригинала 10.12.2000. Проверено 11 марта 2020 г.
  17. ^«CCS: IBM pSeries Cluster (Cheetah)». 2005-03-04. Архивировано с оригинального 04.03.2005. Проверено 11 марта 2020 г.
  18. ^«Декабрь 2007 г.». web.ornl.gov. Проверено 11 марта 2020 г.
  19. ^«The Oak Ridger Online - Feature: Business - восьмой по скорости компьютер Cheetah 21.06.02». www.csm.ornl.gov. Проверено 11 марта 2020 г.
  20. ^«Национальный центр вычислительных наук» выведенные из эксплуатации системы ». 2012-09-13. Архивировано с оригинального 13.09.2012. Проверено 11 марта 2020 г.
  21. ^«Национальный центр вычислительных наук» выведенные из эксплуатации системы ». 2012-09-13. Архивировано с оригинального 13.09.2012. Проверено 11 марта 2020 г.
  22. ^«Национальный центр вычислительных наук» выведенные из эксплуатации системы ». 2012-09-13. Архивировано с оригинального 13.09.2012. Проверено 11 марта 2020 г.
  23. ^Назад • 7 лет. «Ягуар ушел, но не забыт». Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  24. ^«Национальный центр вычислительных наук» выведенные из эксплуатации системы ». 2012-09-13. Архивировано с оригинального 13.09.2012. Проверено 11 марта 2020 г.
  25. ^«Линза | Национальный центр вычислительных наук». 21 декабря 2009 г. Архивировано из оригинала 21 декабря 2009 года. Проверено 11 марта 2020 г.
  26. ^«Национальный центр вычислительных наук» выведенные из эксплуатации системы ». 2012-09-13. Архивировано с оригинального 13.09.2012. Проверено 11 марта 2020 г.
  27. ^«Списанные системы». Архивировано из оригинала 13.09.2012.
  28. ^Назад • 8 лет. «Вычислительный центр Ок-Ридж пожертвовал Юджин Систем Аргонну». Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  29. ^"Eos". Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  30. ^"Eos". Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  31. ^«Титан». Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  32. ^"Титан". Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  33. ^"Titan: Oak Ridge National Laboratory | TOP500 Supercomputer Sites". www.top500.org. Проверено 11 марта 2020 г.
  34. ^«Прощай, Титан». Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  35. ^"Spider". Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  36. ^"HPSS". Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  37. ^"HPSS". Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  38. ^«Рея». Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  39. ^"Wombat". Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  40. ^«Ноябрь 2019 | TOP500 суперкомпьютерных сайтов». www.top500.org. Проверено 11 марта 2020 г.
  41. ^«Код геномики превышает количество экземпляров на суперкомпьютере Summit». Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  42. ^Суперкомпьютеры Summit и Sierra: взгляд изнутри на новые пре-экзадачные системы Министерства энергетики США (PDF). Teratec (Отчет).
  43. ^«Встреча на высшем уровне: в цифрах» (PDF).
  44. ^«Граница». www.olcf.ornl.gov. Проверено 11 марта 2020 г.
  45. ^"Биология". Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  46. ^«Химия». Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  47. ^"Computer Science". Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  48. ^«Науки о Земле». Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  49. ^"Engineering". Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  50. ^«Ускорение к будущему Fusion». Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  51. ^«Материаловедение». Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  52. ^«Ядерная энергия». Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  53. ^«Прогнозирующая химия реальных систем для перспективной ядерной энергетики». Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
  54. ^"Physics". Вычислительный центр Oak Ridge Leadership Computing. Проверено 11 марта 2020 г.
На Викискладе есть материалы, связанные с Национальным центром вычислительных наук.
Внешние ссылки
Последняя правка сделана 2021-05-31 10:40:11
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте