Распределенная файловая система для облаков

редактировать

A Распределенная файловая система для облаков - это файловая система, которая позволяет многим клиентам иметь доступ к данным и поддерживает операции (создание, удаление, изменение, чтение, запись) с данным данным. Каждый файл данных может быть разделен на несколько частей, называемых кусками. Каждый фрагмент может храниться на разных удаленных машинах, облегчая параллельное выполнение приложений. Обычно данные хранятся в файлах в иерархическом дереве , где узлы представляют каталоги. Существует несколько способов использования различных файлов в распределенной системе энергоснабжения: существует несколько способов использования различных типов приложений, в зависимости от того, насколько сложным является приложение. Между тем, безопасность системы должна быть обеспечена. Конфиденциальность, доступность и целостность используются ключи для безопасной системы.

Пользователи могут совместно использовать вычислительные ресурсы через Интернет благодаря облачным вычислениям, которые обычно характеризуются масштабируемостью и эластичностью ресурсы - такие как физические серверы, приложения и любые службы, которые виртуализированы и распределяются динамически. Синхронизация необходима, чтобы убедиться, что все устройства обновлены.

Распределенные файловые системы позволяют многим крупным, средним и малым предприятиям хранить и получать доступ к своим удаленным данным так же, как к локальным данным, облегчая использование ресурсов.

Содержание
  • 1 Обзор
    • 1.1 История
    • 1.2 Технологии поддержки
    • 1.3 Приложения
  • 2 Архитектура
    • 2.1 Архитектура клиент-сервер
    • 2.2 Кластерные архитектуры
      • 2.2.1 Принципы проектирования
        • 2.2.1.1 Цели
        • 2.2.1.2 Балансировка нагрузки
        • 2.2.1.3 Принцип ребалансировки нагрузки
      • 2.2.2 Файловая система Google
        • 2.2.2.1 Описание
        • 2.2.2.2 Сбой допуск
        • 2.2.2.3 Обработка файлов
      • 2.2.3 Распределенная файловая система Hadoop
      • 2.2.4 Другие примеры
  • 3 Обмен данными
  • 4 Облачная синхронизация распределенной файловой системы
  • 5 Ключи безопасности
    • 5.1 Конфиденциальность
    • 5.2 Целостность
    • 5.3 Доступность
  • 6 Экономические аспекты
  • 7 Ссылки
  • 8 Библиография
Обзор

История

Сегодня, существует множество реализаций распределенных файловых систем. Первые файловые серверы были разработаны исследователями в 1970-х годах. Сетевая файловая система Sun Microsystem стала доступной в 1980-х годах. Эти люди, которые хотели обмениваться файлами, использовали метод sneakernet, физически перемещенные файлы на носителях с места в место. Как только компьютерные сети начали распространяться, стало очевидно, что удобные файловые системы имеют множество ограничений и не подходят для многопользовательских сред. Изначально использовали FTP для обмена сообщениями. FTP работал сначала на PDP-10 в конце 1973 года. Даже при использовании FTP файлы нужно было копировать с исходного компьютера на сервер, а затем с сервера на клиентском компьютере. От пользователей требовалось знать физические службы всех компьютеров, участвующих в обмене файлы.

Методы поддержки

Современные центры обработки данных должны поддерживать большие разнородные среды, состоящие из большого количества компьютеров различных мощностей. Облачные вычисления координируют работу всех таких систем с помощью таких методов, как сеть обработки данных (DCN), структура MapReduce, которая поддерживает приложения с интенсивными вычислениями. в параллельных и распределенных системах, а также методы виртуальных, которые обеспечивают динамическое распределение ресурсов, позволяя нескольким операционным системам сосуществовать на одном физическом сервере.

Приложения

Облачные вычисления обеспечивают крупномасштабные ресурсы благодаря своим возможностям предоставить необходимые ресурсы ЦП и хранилища с полной прозрачностью. Это делает облачные вычисления особенно подходящими для различных типов приложений, требующих крупномасштабной распределенной обработки. Для интенсивных вычислений требуется высокопроизводительная файловая система, которая может обмениваться данными между виртуальными машинами (VM).

Облачные вычисления динамически выделяют необходимые ресурсы, высвобождая их после завершения задач, требуя, чтобы пользователи платили только за необходимые услуги, часто через соглашение об уровне обслуживания. Парадигмы вычислений и кластерных вычислений становятся все более важными для промышленной обработки данных и научных приложений, таких как астрономия и физика, которые часто требуют большого количества компьютеров для проведения экспериментов.

Архитектуры

Большинство распределенных файловых систем построены на сервере клиент-сервер, но существуют и другие, децентрализованные решения.

Архитектура клиент-сервер

Сетевая файловая система (NFS) использует серверуру клиент-сервер, которая позволяет обмениваться файлами между машинами в сети, как если бы они были защищены локально, применяется стандартный вид. Протокол NFS позволяет процессам разнородных клиентов, возможно, запущенных на разных машинах и под разными операционными системами, получить доступ к файлам на удаленном сервере, игнорировать фактическое расположение файлов. Использование одного сервера приводит к тому, что протокол NFS страдает от низкой доступности и плохой масштабируемости. Использование нескольких серверов не решает проблему, поскольку каждый сервер работает независимо. Модель NFS - это удаленная файловая служба. Эта модель также называется моделью удаленного доступа, которая отличается от модели удаленного доступа:

  • Модель удаленного доступа: обеспечивает прозрачность, клиент имеет доступ к файлу. Он отправляет запрос к удаленному файлу (пока файл остается на сервере).
  • Модель выгрузки / загрузки: клиент может получить доступ к файлу только локально. Это означает, что клиент должен загрузить файл, внести изменения и снова загрузить его для других клиентов.

Файловая система, используемая NFS, почти такая же, как и система, используемая Unix систем. Файлы иерархически организованы в графах именования, в котором каталоги и файлы представлены узлами.

Архитектура на основе кластера

A архитектура на основе кластера устраняет некоторые проблемы архитектурного клиент-сервер, улучшая выполнение приложений параллельно. Используемая здесь техника - это чередование файлов: файл разбивается на несколько частей, которые «чередуются» по нескольким серверам хранения. Цель состоит в том, чтобы разрешить доступ к разным частям файла. Если приложение не использует этот метод, было бы удобнее хранить разные файлы на разных серверах. Когда дело доходит до распределенной файловой системы для крупных файлов обработки данных, таких как Amazon и Google, которые предоставляют веб-клиенты услуги, позволяющие выполнять несколько операций (чтение, удаление и т. Д.) распределить между большим количеством компьютеров, то кластерные решения становятся более выгодными. Обратите внимание, что наличие большого количества компьютеров может означать больше отказов оборудования. Две из наиболее широко используемых распределенных файловых систем (DFS) этого типа - это Google File System (GFS) и Распределенная файловая система Hadoop (HDFS). Обе файловые системы реализуются процессами пользовательского уровня, выполняемыми стандартной операционной системой (Linux в случае GFS).

Принципы разработки

Цели

Файловая система Google (GFS) и Распределенная файловая система Hadoop (HDFS) специально для обработки пакетной обработки очень больших наборов данных. Для этого необходимо принять во внимание следующие гипотезы:

  • Высокая доступность: кластер может содержать тысячи файловых серверов, и некоторые из них могут быть отключены в любой момент
  • Сервер принадлежит стойке, комнате, центру обработки данных, стране и континенту, чтобы точно определить его географическое положение
  • Размер файла может отличаться от многих гигабайт до многих терабайт. Файловая система должна поддерживать огромное количество файлов
  • Необходимость поддерживать операцию добавления и позволять видеть содержимое файла даже во время записи файла
  • Обмен данными между рабочими машинами: TCP / IP используется с абстракцией связи удаленного вызова процедуры RPC. TCP позволяет клиенту почти сразу узнавать проблему и установить новое соединение.
Балансировка нагрузки

Балансировка нагрузки необходима для эффективной работы в распределенных средах. Это означает справедливое распределение работы между разными серверами, чтобы выполнять больше работы за то же время и обслуживать клиентов. В системе, содержащей N серверов фрагментов в облаке (N равно 1000, 10000 или более), где хранится определенное количество файлов, каждый файл разбивается на несколько частей или фрагментов фиксированного (например, 64 мегабайта), загрузка каждого сервера фрагментов пропорциональна количества фрагментов, размещенных на сервере. В облаке с балансировкой нагрузки ресурсы могут быть эффективно использованы при максимальной производительности приложений на основе MapReduce.

Перебалансировка нагрузки

В среде облачных вычислений сбой нормой, и серверы фрагментов можно обновить, заменить и добавить в систему. Файлы также можно динамически создавать, удалять и скачивать. Это приводит к дисбалансу нагрузки в распределенной файловой системе, а это означает, что фрагменты файлов не распределяются между серверами равномерно.

Распределенные файловые системы в облаках, такие как GFS и HDFS, полагаются на центральные или главные серверы или узлы (главный для GFS и NameNode для HDFS) для управления метаданными и балансировкой нагрузки. Мастер периодически выполняет обработку реплик: данные должны быть перемещены с одного DataNode / chunkserver на другой, если свободное пространство на первом сервере устанавливается ниже определенного порога. Однако этот централизованный подход может стать узким для этих главных серверов, если они не имеют большого размера обращений к файлам, поскольку это увеличивает и без большого нагрузки. Проблема перебалансировки нагрузки NP-hard.

Чтобы заставить большое количество серверов фрагментов работать совместно и решить проблему балансировки нагрузки в распределенных файловых системах, было предложено несколько подходов, таких как перераспределение файлов. фрагментов можно было распределить как можно более равномерно при максимально возможном сокращении на перемещение.

Файловая система Google

Описание

Google, одна из систем Интернет-компании создала свою собственную распределенную файловую систему, названную файловую систему Google (GFS), которая удовлетворяет быстро растущие Google в обработке данных, и она используется для всех облачных сервисов. GFS - это масштабируемая распределенная файловая система для приложений с интенсивным использованием данных. Он обеспечивает отказоустойчивое и высокопроизводительное хранилище данных для большого количества клиентов, обращающихся к нему одновременно.

GFS использует MapReduce, который позволяет пользователям создавать программы и запускать их на нескольких машинах, не задумываясь о проблемах распараллеливания и балансировки нагрузки. Архитектура GFS основано на наличии одного главного сервера для нескольких серверов фрагментов и нескольких клиентов.

Главный сервер, работающий на выделенном узле, отвечает за координацию ресурсов хранения и управления метаданными (эквивалент (например, inodes в классических файловых системах). Каждый файл разбивается на части по 64 мегабайта.. Каждый фрагмент хранится на сервере фрагментов. Блок идентифицируется дескриптором блока, который представляет собой глобально уникальный 64-битный номер, назначается мастером при первом создании блока.

Мастер поддерживает все метаданные файлы, включая имена файлов, каталоги и отображение. Эти данные хранятся в журнале работы на диске вместе с отображением файлов на диске. точка, и данные основной памяти сохраняются в структуре B-tree, чтобы облегчить отображение обратно в основную память.

Отказоустойчивость

Для обеспечения отказоустойчивости каждый фрагмент реплицируется на несколько (по умолчанию, три) сервера фрагментов. Фрагмент доступен как минимум на одном сервере фрагментов. Преимущество этой схемы - простота. Мастер отвечает за выделение серверов фрагментов для каждого фрагмента и связывается только для получения информации о метаданных. Для всех остальных данных клиент должен взаимодействовать с серверами фрагментов.

Мастер отслеживает, где находится блок. Однако он не поддерживает поддерживать местоположения фрагментов, а лишь изредка связывается с серверами фрагментов, чтобы узнать, какие фрагменты они сохранили. Это обеспечивает масштабируемость и помогает предотвратить узкие места из-за увеличения рабочей нагрузки.

В GFS большинство файлов модифицируются путем добавления новых данных, а не повторяются повторные данные. После записи файлов, обычно используемых последовательно, а не случайным образом, это делает эту DFS наиболее подходящей для среды, в которой много больших файлов создается один раз, но читается много раз.

Обработка файлов

Когда клиент хочет записать / обновить файл, мастер назначит реплику, которая будет первичной репликой, если это будет первая модификация. Процесс записи состоит из двух этапов:

  • Отправка: Первый и, безусловно, самый важный, клиент связывается с мастером, чтобы узнать, на каких серверах фрагментов хранятся данные. Клиенту предоставляется список реплик, определяющий первичный и вторичный серверы фрагментов. Затем клиент связывается с ближайшим сервером фрагментов реплик и отправляет ему данные. Этот сервер отправит следующий следующему серверу, который пересылает их еще одной реплике и так далее. Затем данные распространяются и кэшируются в памяти, но еще не записываются в файл.
  • Запись: когда все реплики получили данные, клиент отправляет запрос записи на первичный сервер фрагментов, идентифицируя данные, который был отправлен на первичный сервер передачи. Затем первичный сервер присваивает порядковый номер операционной записи, который он получил, применяет записи к файлу в порядке серийных номеров и пересылает запросы на запись в этом порядке вторичным сервером. Между тем, мастер остается вне цикла.

Следовательно, мы можем различать два типа: поток данных и поток управления. Поток данных связан с фазой отправки, а поток управления связан с фазой записи. Это гарантирует, что первичный сервер фрагментов берет на себя управление порядком записи. Обратите внимание, что когда мастер назначает операцию записи реплике, увеличивает внимание номер версии блока и сообщает всем репликам, содержитим этот блок, новый номер версии. Номера версий фрагментов позволяют обнаруживать ошибки обновления, если реплика не была обновлена ​​из-за того, что ее сервер фрагментов не работал.

Некоторые новые приложения Google плохо работали с размером фрагмента 64 мегабайта. Чтобы решить эту проблему, в 2004 году GFS начала внедрять подход Bigtable.

распределенную файловую систему Hadoop

HDFS, подход Apache Software Foundation. - это распределенная файловая система, предназначенная для хранения очень больших объемов данных (терабайт или даже петабайт). Его архитектура аналогична GFS, то есть архитектура ведущий / ведомый. HDFS обычно устанавливается на кластере компьютеров. Концепция дизайна Hadoop основана на Google, с файловой системой Google, Google MapReduce и Bigtable, реализуемой распределенной файловой системой Hadoop (HDFS), Hadoop MapReduce и Hadoop Base (HBase) соответственно. Как и GFS, HDFS подходит для сценариев с доступом к файлам с однократной записью и многократным чтением и поддерживает добавление и усечение файлов вместо произвольных операций чтения и записи для упрощения проблем с согласованием данных.

Кластер HDFS состоит из одного NameNode и нескольких машин DataNode. NameNode, главный сервер, управляет и поддерживает метаданные хранилища DataNodes в своей RAM. Узлы данных управляют хранилищем, подключенным к узлам, на которых они работают. NameNode и DataNode - это программное обеспечение, предназначенное для работы на машинах повседневного использования, которые обычно работают под управлением ОС GNU / Linux. HDFS может быть запущен на любом компьютере, поддерживающем Java, и, следовательно, может запускать либо NameNode, либо программное обеспечение Datanode.

В кластере HDFS файл разбивается на один или несколько блоков равного размера, за исключением возможности последнего блока меньше. Каждый блок хранится на нескольких узлах данных, и каждый может быть реплицирован на несколько узлов данных, чтобы гарантировать доступность. По умолчанию каждый блок реплицируется трижды, этот процесс называется «Репликация на уровне блока».

NameNode управляет операциями пространства имен файловой системы, такими как открытие, закрытие и переименование файлов и каталогов, и регулирует доступ к файлам. Он также определяет отображение блоков на DataNodes. Узлы данных отвечают за обслуживание запросов чтения и записи от клиентов файловой системы, управление выделением или удалением блоков, а также репликацию блоков.

Когда клиент хочет прочитать или записать данные, он обращается к NameNode и NameNode проверяет, откуда данные должны быть прочитаны или записаны. После этого клиент получает местоположение DataNode и может отправлять ему запросы на чтение или запись.

HDFS обычно характеризуется совместимостью со схемами перебалансировки данных. В общем, управление свободным пространством на DataNode очень важно. Данные должны быть перемещены из одного DataNode в другой, если свободного места недостаточно; а в случае создания дополнительных реплик данные должны быть перемещены для обеспечения баланса системы.

Другие примеры

Распределенные файловые системы можно оптимизировать для различных целей. Некоторые из них, например, предназначенные для интернет-сервисов, включая GFS, оптимизированы для масштабируемости. Другие проекты распределенных файловых систем поддерживают приложения, требующие высокой производительности, обычно выполняемые параллельно. Вот некоторые примеры: файловая система MapR (MapR-FS), Ceph-FS, файловая система Fraunhofer (BeeGFS), файловая система Lustre, IBM General Parallel File System (GPFS) и Parallel Virtual File System.

MapR-FS - это распределенная файловая система, которая является основой конвергентной платформы MapR, с возможностями для распределенной файловое хранилище, база данных NoSQL с несколькими API-интерфейсами и интегрированная система потоковой передачи сообщений. MapR-FS оптимизирован для масштабируемости, производительности, надежности и доступности. Его возможности хранения файлов совместимы с API распределенной файловой системы Apache Hadoop (HDFS), но с некоторыми конструктивными особенностями, которые отличают его от HDFS. Среди наиболее заметных отличий MapR-FS - это файловая система с полным доступом для чтения и записи с метаданными для файлов и каталогов, распределенных по пространству имен, поэтому нет NameNode.

Ceph-FS - это распределенная файловая система, которая предоставляет отличнаяпроизводительность и надежность. Он отвечает на задачи работы с огромными масштабами и каталогами, увеличивающим производительность дисков, с использованием параллельного доступа к метаданным в массовых измерениях, управления рабочими нагрузками как научного, так и общего назначения, аутентификации и шифрования в больших масштабах, а также увеличения или динамически из -за частого списания устройств, сбоев устройств и расширения кластеров.

BeeGFS - это высокопроизводительная параллельная файловая система от Центра компетенции Фраунгофера для высокопроизводительных вычислений. Распределенная архитектура метаданных BeeGFS была увеличена для масштабируемости и гибкости, необходимых для запуска HPC и подобных приложений с высокими требованиями к вводу-выводу.

Файловая система Lustre была и реализована для решения проблемы узких мест, традиционно встречающихся в распределенных системах. Блеск отличается эффективностью, масштабируемостью и избыточностью. GPFS также была предоставлена ​​возможность с целью устранения таких узких мест.

Связь

Высокая производительность распределенных файловых систем требует эффективной связи между вычислительными узлами и быстрого доступа к системам хранения. Чтобы обеспечить такую ​​производительность, такие операции, как открытие, закрытие, чтение, запись, отправка и получение, должны быть быстро. Например, каждый запрос на чтение или запись обращается к дисковой памяти, что приводит к задержкам поиска, вращения и сети.

Операции передачи данных (отправка / получение) передают данные из буфера приложения в ядро ​​машины, TCP, контролируемый процесс и реализуемый в ядре. Однако в случае перегрузки сети или ошибок TCP может не отправлять данные напрямую. При передаче данных из буфера в ядре в приложении машина не считывает поток байтов с удаленной машины. Фактически, TCP отвечает за буферизацию данных для приложения.

Выбор размера буфера для чтения и записи или отправки и получения выполняется на уровне приложения. Буфер поддерживается с помощью кольцевого связанного списка. Он состоит из набора BufferNodes. Каждый BufferNode имеет DataField. DataField содержит данные и указатель NextBufferNode, который указывает на следующий BufferNode. Чтобы найти текущую позицию, используются два указателя : CurrentBufferNode и EndBufferNode, которые данной позиции в BufferNode для последней позиции записи и чтения. Если на BufferNode нет свободного места, он отправит клиенту сигнал ожидания, чтобы дождаться, пока не появится доступное пространство.

Облачная синхронизация распределенной файловой системы

Все больше и больше пользователей имеют несколько устройств со специальной связью. Наборы данных, реплицируемые на этих устройствах, необходимо синхронизировать между произвольным серверами. Это полезно для резервного копирования, а также для автономной работы. Действительно, когда пользовательские сетевые условия плохие, тогда пользовательское устройство будет выборочно реплицировать часть данных, которые будут использоваться в автономном режиме. Как только условия сети станут хорошими, устройство синхронизируется. Существует два подхода к решению проблемы распределенной синхронизации: управляемая синхронизация синхронизация мастер-реплика.

  • управляемая через одноранговая связь: программное обеспечение, такое как rsync, быть установленным на всех компьютерах пользователей, установить их данные. Устройства синхронизируются посредством одноранговой синхронизации, при которой пользователи указывают сетевые устройства синхронизации, и, таким образом, это процесс.
  • синхронизация мастер-реплики облака: широко используется облачными службами, которые используются в этой службе репликации в облаке, и все операции выполняются с главной копией, что обеспечивает высокий уровень доступности и надежности в случае сбоев.
Ключи безопасности

В облачных вычислениях самое важное безопасность понятиями конфиденциальность, целостность и доступность («ЦРУ »). Конфиденциальность становится незаменимой для предотвращения разглашения личных данных. Целостность гарантирует, что данные не будут повреждены.

Конфиденциальность

Конфиденциальность означает, что данные и вычислительные задачи являются конфиденциальными: ни поставщик облачных услуг, ни другие клиенты не могут получить доступ к данным клиента. В отношении конфиденциальности было проведено много исследований, поскольку это один из важнейших моментов. Недоверие к поставщику облачных услуг также является проблемой. Инфраструктура облака должна иметь, что данные клиентов не доступны неавторизованным лицам.

Среда становится небезопасной, если поставщик услуг может сделать все следующее потребителя:

  • найти данные в облаке;
  • получить доступ и получить данные пользователя
  • понять значение данных (типы данных, функциональные возможности и интерфейс приложения, а также формат данных).

Географическое расположение данных определяет конфиденциальность и конфиденциальность. Следует учитывать местонахождение клиентов. Например, клиенты в Европе не будут применяться в использовании центров обработки данных, используя в США, как это влияет на гарантию конфиденциальности данных. Чтобы некоторые поставщики облачных вычислений использовали географическое положение хоста в соглашении об обслуживании, заключенном с клиентом, что позволяет самим выбирать местоположение серверов, на которых будут размещаться их данные.

Другой подход к конфиденциальности включает шифрование данных. В случае возникновения серьезного риска несанкционированного использования. Существует множество решений, таких как шифрование только конфиденциальных данных и поддержка некоторых операций для упрощения вычислений. Кроме того, криптографические методы и инструменты, такие как FHE, сохранены данные в облаке.

Целостность

Целостность в облачных вычислениях подразумевает целостность данных также как и. Такая целостность означает, что данные должны правильно храниться на облачных серверах и в случае сбоев или неправильных вычислений, должны быть обнаружены проблемы.

На целостность данных могут повлиять вредоносные события или ошибки администрирования (например, во время резервное копирование и восстановление, переноса данных или изменения членовства в P2P системы).

Целостности легко достичь с помощью криптографии (обычно с помощью кода аутентификации сообщения или MAC в блоках данных).

Существуют механизмы проверки, влияющие на целостность данных. Например:

  • HAIL (уровень высокой доступности и целостности) - это распределенная криптографическая система, которая позволяет набору серверов доказывать клиенту, что сохраненный файл не поврежден и может быть восстановлен.
  • Hach PORs (доказательства извлекаемости для больших файлов) основан на симметричной криптографической системе, где есть только один ключ проверки, который должен храниться в файле для улучшения его целостности. Этот метод служит для шифрования файла F, а затем для генерации случайной строки с именем «sentinel», который необходимо добавить в конец зашифрованного файла. Сервер не может найти дозор, который невозможно отличить от других блоков, поэтому небольшое изменение укажет, был ли файл изменен или нет.
  • Проверка PDP (доказанного владения данными) - это классные и практичные методы, обеспечивающие эффективный способ проверки целостности данных на ненадежных серверах:
    • PDP: перед сохранением на сервере клиент должен сохранить некоторые метаданные. Позже и без загрузки данных клиент может попросить сервер проверить, не были ли данные подделаны. Этот подход используется для статических данных.
    • Масштабируемый PDP: этот подход основан на симметричном ключе, который более эффективен, чем шифрование с открытым ключом. Он некоторые динамические операции (изменение, удаление и добавление).
    • Динамический PDP: этот подход расширяет модель PDP для поддержки нескольких операций обновления, таких как добавление, вставка, изменение, удаление, что хорошо подходит для интенсивных вычислений.

Доступность

Доступность обычно обеспечивается репликацией. Между тем должна быть гарантирована последовательность. Однако согласованность и доступность не могут быть достигнуты одновременно; каждому отдается предпочтение при некоторой жертве другого. Должен быть установлен баланс.

Чтобы данные были доступны, они должны иметь идентификатор. Например, Skute - это механизм, основанный на хранении ключей / значений, который позволяет эффективно динамически распределять данные. Каждый сервер должен быть обозначен меткой в ​​формате континент-страна-центр обработки данных-комната-стойка-сервер. Сервер может ссылаться на несколько виртуальных узлов, каждый из которых имеет набор данных (или несколько разделов с предоставленными данными). Каждая часть криптографических идентифицирует измененное пространство, генерируется односторонней хеш-функцией (например, MD5 ) и локализует значение хеш-функции этого ключа. Ключевое пространство может быть разделено на несколько разделов, каждый из которых относится к фрагменту данных. Для выполнения репликации виртуальные узлы должны быть реплицированы и на них ссылаться другие серверы. Чтобы обеспечить максимальную надежность и доступность данных, реплики должны быть размещены на разных серверах, и каждый сервер должен находиться в другом географическом положении, поскольку доступность данных увеличивается с географическим разнообразием. Процесс репликации включает оценку доступности пространства, которая должна быть выше определенного минимального порога удержания на каждом сервере фрагментов. В противном случае реплицируются на другой фрагмент. Каждый раздел i имеет значение доступности, представленное следующей формулой:

a v a i l i = ∑ i = 0 | s i | ∑ j = i + 1 | s i | c o n f i. c o n f j. разнообразие (si, sj) {\ displaystyle avail_ {i} = \ sum _ {i = 0} ^ {| s_ {i} |} \ sum _ {j = i + 1} ^ {| s_ {i} |} conf_ {i}.conf_ {j}.diversity (s_ {i}, s_ {j})}avail_ {i} = \ sum _ {{i = 0}} ^ {{| s_ {i} |}} \ sum _ {{j = i + 1}} ^ {{| s_ {i} |}} conf_ {i}.conf_ {j}.diversity (s_ {i}, s_ {j})

где si {\ displaystyle s_ {i}}s _ {{i}} - это серверы, на которых реплики, confi {\ displaystyle conf_ {i}}conf _ {{i}} и confj {\ displaystyle conf_ {j}}conf _ {{j}} - это доверие серверов i {\ displaystyle _ {i}}_ {{i}} и j {\ displaystyle _ {j}}_ {{j}} (в зависимости от технических факторов, таких как компоненты оборудования и нетехнических факторов, таких как экономические и политические ситуации в стране), разнообразие - это географическое расстояние между si {\ displaystyle s_ {i}}s _ {{i}} и sj {\ displaystyle s_ {j} }s _ {{j}} .

Репликация - это отличное решение для обеспечения доступности данных, но оно стоит слишком дорого с точки зрения объема памяти. DiskReduce - это модифицированная версия HDFS, основанная на технологии RAID (RAID-5 и RAID-6) и позволяющая асинхронное кодирование реплицированных данных. Действительно, существует фоновый процесс, который ищет широко реплицируемые данные и удаляет лишние копии после их кодирования. Другой подход - заменить репликацию кодированием с стиранием. Кроме того, для обеспечения доступности существует множество подходов, позволяющих восстановить данные. Фактически данные должны быть закодированы, и если они будут потеряны, их можно будет восстановить из фрагментов, которые были созданы на этапе кодирования. Вот некоторые другие подходы, в которых используются различные механизмы для гарантии доступности: код Рида-Соломона для Microsoft Azure и RaidNode для HDFS. Также Google все еще работает над новым подходом, основанным на механизме стирания-кодирования.

Не существует реализации RAID для облачного хранилища.

Экономические аспекты

Экономика облачных вычислений быстро растет. Правительство США решило потратить 40% от своего совокупного годового темпа роста (CAGR), который, как ожидается, к 2015 году составит 7 миллиардов долларов.

Все больше и больше компаний используют облачные вычисления для управлять огромным объемом данных и преодолевать нехватку емкости хранилища, и поскольку это позволяет им использовать такие ресурсы в качестве услуги, обеспечивая удовлетворение их вычислительных потребностей без необходимости инвестировать в инфраструктуру (Pay-as-you-go модель).

Каждый поставщик приложений должен периодически оплачивать стоимость каждого сервера, на котором хранятся реплики данных. Стоимость сервера определяется качеством оборудования, емкостью хранилища, а также накладными расходами на обработку запросов и связь. Облачные вычисления позволяют поставщикам масштабировать свои услуги в соответствии с требованиями клиентов.

Модель оплаты по мере использования также снизила нагрузку на начинающие компании, которые хотят получить выгоду от бизнеса, требующего интенсивных вычислений. Облачные вычисления также открывают возможности для многих стран третьего мира, у которых иначе не было бы таких вычислительных ресурсов. Облачные вычисления могут снизить ИТ-барьеры для инноваций.

Несмотря на широкое использование облачных вычислений, эффективное совместное использование больших объемов данных в ненадежном облаке по-прежнему является проблемой.

Ссылки
Библиография
  1. Архитектура, структура и дизайн :
    • Чжан, Ци-фэй; Пань, Сюэ-цзэн; Шэнь, Янь; Ли, Вэнь-цзюань (2012). «Новая масштабируемая архитектура облачной системы хранения для небольших файлов на основе P2P». Международная конференция IEEE 2012 по се минарам по кластерным вычислениям. Коллегия вычислительных наук и технологий, Zhejiang Univ., Ханчжоу, Китай. П. 41. doi : 10.1109 / ClusterW.2012.27. ISBN 978-0-7695-4844-9. S2CID 12430485. CS1 maint: ref = harv (ссылка )
    • Аззедин, Фараг (2013). «На пути к масштабируемой энергии HDFS». Международная конференция по технологиям и системам для совместной работы (CTS), 2013 г., Короля Фахда, стр. 155–161. doi : 10.1109 / CTS.2013.6567 222. ISBN факультет информационных и компьютерных наук, Университет нефти и полезных ископаемых. 978-1-4673-6404-1. S2CID 45293053. CS1 maint: ref = harv (ссылка )
    • Krzyzanowski, Paul (2012). «Распределенные файловые системы» (PDF). CS1 maint: ref = harv (ссылка )
    • Kobayashi, K; Mikami, S; Kimura, H; Tatebe, O (2011). Файловая система Gfarm в вычислительных облаках. Семинары по параллельной и распределенной обработке и докторский форум (IPDPSW), Международный симпозиум IEEE 2011 по. Дипломированный ученый из Syst. Inf. Eng., Univ. Of Tsukuba, Tsukuba, Japan. doi : 10.1109 / IPDPS.2011.255. CS1 maint: ref = harv (ссылка )
    • Хумбетов, Шамиль (2012). «Вычисления с интенсивным использованием данных с map-reduce и hadoop». 2012 6-я Международная конференция по применению информационных и коммуникационных технологий (AICT). Кафедра компьютерной инженерии Qafqaz University, Баку, Азербайджан. С. 1–5. DOI : 10.1109 / ICAICT.2012.6398489. ISBN 978-1-4673-1740-5. S2CID 6113112. CS1 maint: ref = harv (ссылка )
    • Сяо, Хун-Чанг; Чу нг, Сюэ-Йи; Шэнь, Хайин; Чао, Ю-Чанг (2013). Национальный университет Ченг Кунг, Тайнань. «Перебалансировка нагрузки для распределенных файловых систем в облаках». Параллельные и распределенные системы, транзакции IEEE. 24 (5): 951–962. doi : 10.1109 / TPDS.2012. 196. S2CID 11271386. CS1 maint: ref = harv (ссылка )
    • Кай, Фань; Даянг, Чжан; Хуэй, Ли; Иньтан, Ян (2013). «Алгоритм адаптивной балансировки нагрузки с обратной связью в HDFS». 5-я конференция по интеллектуальным сетям и системам совместной работы, 2013 г., Государственная ключевая лаборатория интегрированных сервисных сетей, Сидянский университет, Сиань, Китай. С. 23–29. doi : 10.1109 / INCoS.2013.14. ISBN 978-0-7695-4988-0. S2CID 14821266. CS1 maint: ref = harv (ссылка )
    • Упадхьяя, Б; Азимов, Ф; Доан, Т.Т.; Чой, Ынми ; Ким, Сангбум; Ким, Пилсунг (2008). «Распределенная файловая система: Четвертая международная конференция по сетевым вычислениям и расширенному управлению информацией, 2008 г., Sch. Автобуса. IT, Kookmin Univ., Сеул, стр. 400–405. DOI : 10.1109 / NCM.2008.164. ISBN 978-0-7695-3322-3. S2CID 18933772. CS1 м aint: ref = harv (ссылка )
    • S весла, Tiago S.; Дантас †, MAR; де Маседо, Дуглас Д.Дж.; Бауэр, Майкл А (2013). Семинары 2013 г. по стимулирующим технологиям: инфраструктура для совместных предприятий. нф. Департамент статистики (INE), ФРС, Университет Санта-Катарина (UFSC), Флорианополис, Бразилия.. 158–163. doi : 10.1109 / WETICE.2013.12. ISBN 978-1-4799-0405-1. S2CID 6155753. CS1 maint: ref = harv (ссылка )
    • Адамов, Абзетдин (2012). «Распределенная файловая система как основа интенсивно обрабатываемых данных». 2012 6 -я Международная конференция по применению информационных и коммуникационных технологий (AICT) Отдел вычислительной техники, Qafqaz Univ., Баку, Азербайджан. Стр. 1-3. doi : 10.1109 / ICAICT.2012.6398484 ISBN 978-1-4673-1740-5. S2CID 16674289. CS1 maint: ref = harv (ссылка )
    • Шван Филип (2003). Cluster File Systems, Inc. «Блеск: создание файловой системы для кластеров из 1000 узлов» (PDF). Труды симпозиума Linux 2003: 400–407. CS1 maint: ref = harv (ссылка )
    • Джонс, Терри; Кенигес, Элис; Йейтс, Р. Ким (2000). Ливерморская национальная лаборатория Лоуренса. 237>«Производительность IBM General Parallel File System» (PDF). Симпозиум по параллельной и распределенной обработкой, 2000. IPDPS 2000. Труды. 14-й Международный. CS1 maint: ref = harv (ссылка )
    • Weil, Sage A.; Брандт, Скотт А.; Миллер, Итан Л.; Лонг, Даррелл Д. Э. (2006). «Ceph: масштабируемая высокопроизводительная распределенная файловая система» (PDF). Калифорнийский университет, Санта-Крус. Для цитирования журнала требуется | journal =() CS1 maint: ref = harv (link )
    • Мальцан, Карлос ; Молина -Эстолано, Эстебан; Хурана, Амандип; Нельсон, Алекс Дж.; Брандт, Скотт А.; Вейл, Сейдж (2010). «Ceph как масштабируемая альтернатива распределенной файловой системе Hadoop» (PDF). Журнал цитирования требует | journal =() CS1 maint: ref = harv (link )
    • SA, Brandt; EL, Miller; DDE, Long; Лан, Сюэ (2003). «Эффективное управление метаданными в больших распределенных системах хранения ». -я IEEE / 11-я конференция Годдарда NASA по системам и технологиям массового хранения, 2003 г. (MSST 2003). Труды. Центр исследований систем хранения, Калифорнийский университет, Санта-Крус, г. Калифорния, США, стр. 290– 298. CiteSeerX 10.1.1.13.2537. doi : 10.1109 / MASS.2003.1194865. ISBN 978-0-7695-1914-2. CS1 maint: ref = harv (ссылка )
    • Garth A., Gibson; Родни, MVan Meter ( ноябрь 2000 г.). "Сеть в электрической сети ра подключенного хранилища" (PDF). Коммуникации ACM. 43 (11): 37–45. doi : 10.1145 / 353360.353362. CS1 maint: ref = harv (ссылка )
    • Yee, Tin Tin; Thu Naing, Thinn (2011). «ПК -Кластерная архитектура системы хранения для облачного хранилища. ». arXiv : 1112.2025 [cs.DC ]. CS1 maint: ref = harv (ссылка )
    • Чо Чо, Хаинг; Тинн Тху, Наинг (2011 г.) «Эффективная система управления хранением данных в частном центре обработки данных». Международная конференция IEEE по облачным вычислениям и интеллектуальным системам, 2011 г., стр. 235–239. doi : 10.1109 / CCIS. 2011.6045066. ISBN 978-1-61284- 203-5. S2CID 224635. CS1 maint: ref = harv (ссылка )
    • SA, Brandt; EL, Miller; DDE, Long ; Lan, Xue (2011). «Оператор-сервисно-ориентированная архитектура хранения файлов для облачных вычислений». 3-й симпозиум по веб-сообществу, 2011 год. Центр PCN ​​и CAD, Пекинский университет почты и телекоммуникаций, Пекин, Китай. стр. 16–20. doi : 10.1109 / SWS.2011.6101263. ISBN 978-1-4577-0211-2. S2CID 14791637. CS1 maint: ref = harv (ссылка )
    • Гемават, Санджай; Гобиофф, Ховард; Леунг, Шун-Так (2003). «Файловая система Googl e ». Материалы девятнадцатого симпозиума ACM по принципам операционных систем - SOSP '03. Стр. 29–43. doi : 10.1145 / 945445.945450. ISBN 978-1-58113-757-6. CS1 maint: ref = harv (ссылка )
  2. Безопасность
    • Vecchiola, C; Pandey, S; Buyya, R (2009). «Высокопроизводительные облачные вычисления: взгляд на научные» 10-й Международный симпозиум по распространенным системам, алгоритмам и сетям, 2009 г., Университет. Мельбурна, Мельбурн, Виктория, Австралия. стр. 4–16. arXiv : 0910.1979. doi : 10.1109 / I-SPAN.2009.150. ISBN 978-1-4244-5403-7. CS1 maint: ref = harv (ссылка )
    • Миранда, Моубрей; Сиани, Пирсон (2009 г.). «Клиентский менеджер для конфиденциальности я облачных вычислений». Труды четвертого международного сообщества Конференция ICST по программному и промежуточному ПО для систем связи - COMSWARE '09.. 1. doi : 10.1145 / 1621890.1621897. ISBN 978-1-60558-353-2. S2CID 10130310. CS1 maint: ref = harv (ссылка )
    • Майкл Наэриг; Лаутер, Кристин (2013). «Может ли гомоморфное шифрование ание быть практичным? ». Материалы 3-го семинара ACM по безопасности облачных вычислений - CCSW '11. Стр. 113–124. CiteSeerX 10.1.1.225.8007. doi : 10.1145 / 2046660.2046682. ISBN 978-1-4503-1004-8. CS1 maint: ref = harv (ссылка )
    • Ду, Хунтао; Ли, Чжаньхуай (2012). «PsFS: Международная конференция по измерению информации и управлению (MIC), 2012 г. 1 . Comput. Coll., Северо-Западный политехнический университет, Сиань, Китай, стр. 327–331. doi : 10.1109 / MIC.2012.6273264. ISBN 978-1-4577-1604-1. S2CID 40685246. CS1 maint: ref = harv (ссылка )
    • А. Брандт, Скотт; Л. Миллер, Итан; Делонг, Даррелл; Сюэ, Лан (2003). Ентр систем хранения данных Калифорнийский университет, Санта Круз. «Эффективное управление метаданными в больших распределенных системах хранения» (PDF 11-я Конференция NASA Годдарда по системам и технологиям массового хранения, Сан-Диего, Калифорния. Поддержка CS1: ref = harv (ссылка )
    • Лори М. Кауфман (2009). Безопасность и конфиденциальность, IEEE. 7 (4): 161–64. doi : 10.1109 / MSP.2 009.87. S2CID 16233643. CS1 maint: ref = harv (ссылка )
    • Бауэрс, Кевин; Джулс, Ари; Опреа, Алина (2009). ПРИВЕТ: уровень высокой доступности и целостности для Cloud StorageComputing. Труды 16-й конференции ACM по С. 187–198. doi : 10.1145 / 1653662.1653686. ISBN 978-1-60558-894-0. S2CID 207176701. CS1 maint: ref = harv (ссылка )
    • Джулс, Ари; Опреа, Алина (февраль 2013 г.). «Новые подходы к безопасности и доступности облачных данных ». Коммуникации ACM. 56 (2): 64–73. doi : 10.1145 /2408776.2408793. S2CID 17596621. CS1 maint: ref = harv (ссылка )
    • Чжан, Цзи н; У, Гунцин; Ху, Сюэган; У, Синьдун (2012). «Распределенный кэш 13-я Международная конференция ACM / IEEE по грид-вычислениям. Наук, Hefei Univ. Technol., Хэфэй, Кита, для распределенной файловой системы системы Hadoop в облачных службах реального времени. й. С. 12–21. doi : 10.1109 / Grid.2012.17. ISBN 978-1-4673-2901-9. S2CID 10778240. CS1 maint: ref = harv (ссылка )
    • A., Pan; JP, Walters; VS, Pai; D.-ID, Канг; С.П., Краго (2012). «Интеграция высокопроизводительных 2012 SC Companion: высокопроизводительные вычисления, сетевое хранилище и анализ. Департамент электротехники и вычислений, Purdue Univ., West Lafayette, IN, USA. Стр. 753–759. doi : 10.1109 / SC.Companion.2012.103. ISBN 978-0-7695-4956-9. S2CID 5554936. CS1 maint: ref = harv (ссылка )
    • Fan-Hsun, Tseng; Chi-Yuan, Chen; Li-Der, Chou; Han-Chieh, Chao (2012). «Внедрение надежной Международный симпозиум 2012 года по интеллектуальной обработке сигналов и» системам связи Кафедра вычислительной техники и технологий, Национальный центральный университет, Таоюань, Тайвань, стр. 227–232. 252>doi : 10.1109 / ISPACS.2012.6473485. ISBN 978-1-4673-5082-2. S2CID 1826 г. 0943. CS1 maint: ref = harv (ссылка )
    • Ди Сано, М; Ди Стефано, А; Morana, G; Зито, Д. (2012). «Файловая система как услуга: предоставление временных и согласованных представлений 21-й международной семинар по вспомогательным технологиям IEEE: инфраструктура для совместных предприятий. Кафедра электр., Электрон. и вычислительные технологии, Университет Катании, Катании, Италии. С. 173–178. doi : 10.1109 / WETICE.2012.104. ISBN 978-1-4673-1888-4. S2CID 19798809. CS1 maint: ref = harv (ссылка )
    • Чжифэн, Сяо; Ян, Сяо (2013). «Безопасность и конфиденциальность в облачных вычислениях.». IEEE Communications Опросы и Учебники. 15 (2): 843–859. CiteSeerX 10.1.1.707.3980. doi : 10.1109 / SURV.2012.060912.00182. S2CID 206583820. CS1 maint: ref = harv (ссылка )
    • Джон Б., Хорриган (2008). «Использовать« Приложения и сервисов вычислений » (PDF). CS1 maint: ref = harv (ссылка )
    • Яу, Стивен; Ан, Хо (2010). « Защита в системе облачных вычислений ». Int J Software Informatics: 351– 365. CS1 maint: ref = harv (ссылка )
    • Карнеги, Бин Фан; Тантисирирой, Виттават; Сяо, Лин; Гибсон, Гарт (2009). «Disk Reduce» ». DiskReduce: RAID для масштабируемых вычислений Стр. 6–10. doi : 10.1145 / 1713072.1713075. ISBN 978-1-60558-883- 4. S2CID 15194567. CS1 maint: ref = harv (ссылка )
    • Ван, Цзяньцзун; Гонг, Вэйцзяо; П., Варман; Се, Чаншэн (2012). «Снижение накладных расходов на хранилище с устранением узких мест при записи в облачной системе RAID». 2012 13-я Международная конференция ACM / IEEE по грид-вычислениям. С. 174–183. doi : 10.1109 / Grid.2012.29. ISBN 978-1-4673-2901-9. S2CID 16827141. CS1 maint: ref = harv (ссылка )
    • Абу-Либде, Хусам; Принсхаус, Лонни; Уэтерспун, Хаким (2010). RACS: аргументы в пользу разнообразия облачных хранилищ. SoCC '10 Труды 1-го симпозиума ACM в облачных вычислениях. С. 229–240. doi : 10.1145 / 1807128.1807165. ISBN 978-1-4503-0036-0. S2CID 1283873. CS1 maint: ref = harv (ссылка )
    • Фогельс, Вернер (2009). «В итоге непротиворечивый ». Связь ACM. 52 (1): 40–44. doi : 10.1145 /1435417.1435432.CS1 maint: ref = harv (ссылка )
    • Cuong, Pham; Cao, Phuong; Kalbarczyk, З; Айер, РК (2012). «На пути к облаку высокой доступности: методы и проблемы». Международная конференция IEEE / IFIP по надежным системам и сетям, семинары (DSN 2012). Стр. 1–6. doi : 10.1109 / DSNW.2012.6264687. ISBN 978-1-4673-2266 -9. S2CID 9920903. CS1 maint: ref = harv (с сылка )
    • А., Ундхейм; А., Чилван; П., Heegaard (2011). «Дифференцированная доступность в SLA для облачных вычислений». 2011 12-я Международная конференция IEEE / ACM по грид-вычислениям. С. 129–136. doi : 10.1109 / Grid.2011.25. ISBN 978-1-4577-1904-2. S2CID 15047580. CS1 maint: ref = harv (сс ылка )
    • Цянь, Хайян; Д., Медхи; Т., Триведи (2011). "Иерархическая модель для оценки качества работы онлайн-сервисов, размещаемых с помощью облачных вычислений ". Сообщения ACM. 52 (1): 105–112. CiteSeerX 10.1.1.190.5148. doi : 10.1109 / INM.2011.5990680. CS1 maint: ref = harv (ссылка )
    • Атенезе, Джузеппе; Бернс, Рэндал; Куртмола, Реза; Херринг, Джозеф; Кисснер, Леа; Петерсон, Закари ; Сонг, Рассвет (2007). «Доказуемое хранение данных в ненадежных магазинах». Труды 14-й конференции ACM по компьютерной и коммуникационной безопасности - CCS '07. 598–609. doi : 10.1145 / 1315245.1315318. ISBN 978-1-59593-703-2. S2CID 8010083. CS1 maint: ref = harv (ссылка )
    • Атенезе, Джузеппе; Ди Пьетро, ​​Роберто; В. Манчини, Луиджи; Цудик, Джин (2008). «Масштабируемое и эффективное доказуемое владение данными». Труды 4-го заседания конференции по международной безопасности и конфиденциальности в сетях связи - Secure Comm '08. П. 1. CiteSeerX 10.1.1.208.8270. doi : 10.1145 / 1460877.1460889. ISBN 978-1-60558-241-2. CS1 maint: ref = harv (ссылка )
    • Эрвей, Крис; Купчу, Альптекин; Тамассия, Роберто; Папамант у, Харалампос (2009). «Динамическое доказуемое владение данными» й. Труды 16-конференции ACM по компьютерной и коммуникационной безопасности - CCS '09. Стр. 213–222. doi : 10.1145 /1653662.1653688. ISBN 978-1-60558- 894-0. S2CID 52856440. CS1 maint: ref = harv (ссылка )
    • Джулс, Ари; С. Калиски, Бертон (2007 Труды 14-й конференции ACM по компьютерам и коммуникациям. Стр. 584–597. doi : 10.1145 / 1315245.1315317. ISBN 978-1-59593-703-2. S2CID 6032317. CS1 maint: ref = harv (ссылка )
    • Бонвин, Николас; Папайоанну, Танасис; Аберер, Карл (2009). «Самоорганизующаяся, отказоустойчивая и масштабируемая Материалы 1-го симпозиума ACM по облачным вычислениям. Ting - SoCC '10. С. 205–216. doi : 10.1145 / 1807128.1807162. ISBN 978-1-4503-0036-0. S2CID 3261817. CS1 maint: ref = harv (ссылка )
    • Тим, Краска; Мартин, Хентчель; Густаво, Алонсо; Дональд, Косма (2009). «Нормирование согласованности в облаке: платите только тогда, когда это имеет значение ». Труды VLDB Endowment. 2 (1): 253–264. doi : 10.14778 / 1687627.1687657. CS1 maint: ref = harv (ссылка )
    • Дэниел, Дж. Абади (2009). «Управление данными в облаке: ограничения и возможности». CiteSeerX 10.1.1.178.200. Cite journal требуется | journal =() CS1 maint: ref = harv (link )
    • Ari, Juels; S., Бертон; младший, Калиски (2007). « Сообщения ACM. 56 (2): 584–597. doi : 10.1145 / 1315245.1315317. S2CID 6032317. CS1 maint: ref = harv (ссылка )
    • Ари, Атениезе; Рэндал, Бернс; Джонс, Реза; Куртмола, Джозеф; Херринг, Бертон; Ли, Кисснер; Захари, Петерсон; Рассвет, Песня ( 2007). "Имеются достоверные данные в ненадежных магазинах". CCS '07 Материалы 14-й конференции ACM по компьютерной и коммуникационной безопасности. 598–609. doi : 10.1145 / 1315245.1315318. ISBN 978-1-59593-703-2. S2CID 8010083. CS1 ma int: ref = harv (ссылка )
  3. Синхронизация
    • Uppoor, S; Flouris, MD; Билас, А. (2010). «Облачная синхронизация иерархий распределенных файловых систем». Международная конференция IEEE 2010 on Cluster Computing Workshops and Posters (CLUSTER WORKSHOPS). Inst. Comput. Sci. (ICS), Найдено. Для Res. Technol. - Hellas (FORTH), Ираклион, Греция, стр. 1–4. doi : 10.1109 / CLUSTERWKSP.2010.5613087. ISBN 978-1-4244-8395-2. S2CID 14577793. CS1 maint: ref = harv (ссылка )
  4. Экономические аспекты
    • Лори М., Кауфман (2009 г.)). «Безопасность данных в мире облачных вычислений». IEEE. 7 (4): 161–64. DOI : 10.1109 / MSP.2009.87. S2CID 16233643.
    • Марстон, Шон; Лия, Чжи; Бандйопадхьяя, Субхаджьоти; Жанга, Джухэн; Галсаси, Ананд (2011 г.). Облачные вычисления - бизнес-перспектива. Поддержка принятия решений Системы Том 51, Выпуск 1. С. 176–189. doi : 10.1016 / j.dss.2010.12.006. CS1 maint: ref = harv (ссылка )
    • Angabini, A; Yazdani, N; Mundt, T; Хассани, Ф (2011). «Пригодность облачных вычислений для приложений анализа научных данных; эмпирическое исследование». 2011 Международная конференция по P2P, параллельным, сетевым, облачным и Интернет-вычислениям. Sch. Электр. Comput. Eng., Univ. Тегерана, Тегерана, Ирана. С. 193–199. doi : 10.1109 / 3PGCIC.2011.37. ISBN 978-1-4577-1448-1. S2CID 13393620. CS1 maint: ref = harv (ссылка )
Последняя правка сделана 2021-05-17 09:16:07
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте