Центры обработки данных Google - большие центр обработки данных объекты Google использует для предоставления своих услуг, которые объединяют большие диски, компьютерные узлы, организованные в проходах стоек, внутренние и внешние сети, средства контроля окружающей среды (в основном охлаждение и осушение) и операционное программное обеспечение (особенно в отношении балансировки нагрузки и отказоустойчивости ).
Нет официальных данных о том, сколько серверов находится в центрах обработки данных Google, но Gartner оценил в отчете за июль 2016 года, что в то время у Google было 2,5 миллиона серверов.. Это число меняется по мере того, как компания увеличивает емкость и обновляет свое оборудование.
По континентам расположены следующие центры обработки данных Google:
Северная Америка:
Южная Америка:
Europe :
Азия:
Оригинальное оборудование (около 1998 г.), которое было использовался Google, когда он находился в Стэнфордском университете, включая:
По состоянию на 2014 год Google использовал сильно модифицированную версию Debian (GNU / Linux). В 2013 году они постепенно перешли с системы на основе Red Hat.
Целью настройки является приобретение поколений ЦП, которые предлагают лучшую производительность за доллар, а не абсолютную производительность. Как это измеряется, неясно, но, вероятно, это включает в себя эксплуатационные расходы всего сервера, а потребление мощности ЦП может быть значительным фактором. По состоянию на 2009–2010 годы серверы состояли из изготовленных на заказ систем с открытым верхом, содержащих два процессора (каждый с несколькими ядрами), значительный объем оперативной памяти, распределенный по 8 слотам DIMM, в которых размещались модули DIMM двойной высоты, и как минимум два подключенных жестких диска SATA через нестандартный блок питания формата ATX. Серверы были открытыми, поэтому в стойку могло поместиться больше серверов. Согласно CNET и книге Джона Хеннесси, каждый сервер имел новую 12-вольтовую батарею для снижения затрат и повышения энергоэффективности.
Согласно Google, их глобальная электрическая мощность центра обработки данных колеблется от 500 до 681 мегаватт. Суммарная вычислительная мощность этих серверов могла достигать от 20 до 100 петафлопс в 2008 году.
Подробная информация о частных сетях Google во всем мире не является общедоступной, но в публикациях Google есть ссылки на отчет "Топ-10 Атласа", в котором Google считается третьим по величине интернет-провайдером после уровня 3.
. Для работы в такой большой сети с прямыми подключениями к как можно большему количеству интернет-провайдеров в минимально возможная стоимость, Google имеет очень открытую перинг политику.
На этом сайте мы видим, что доступ к сети Google можно получить из 67 общедоступных точек обмена в 69 различных местах по всему миру.. По состоянию на май 2012 года у Google было 882 Гбит / с публичных подключений (не считая частных пиринговых соглашений, которые у Google есть с крупнейшими интернет-провайдерами). Эта общедоступная сеть используется для распространения контента среди пользователей Google, а также для сканирования Интернета для создания его поисковых индексов. Частная сторона сети является секретом, но недавнее раскрытие Google показывает, что они используют специально построенные коммутаторы-маршрутизаторы с высоким основанием (с емкостью 128 × 10 Gigabit Ethernet порт) для глобальная сеть. Запустив не менее двух маршрутизаторов на центр обработки данных (для резервирования), мы можем сделать вывод, что сеть Google масштабируется в диапазоне терабит в секунду (с двумя полностью загруженными маршрутизаторами пропускная способность для двух секций составляет 1280 Гбит / с).
Эти настраиваемые коммутаторы-маршрутизаторы подключаются к устройствам DWDM для соединения центров обработки данных и точек присутствия (PoP) через темное волокно.
от В представлении центра обработки данных сеть начинается на уровне стойки, где 19-дюймовые стойки изготавливаются по индивидуальному заказу и содержат от 40 до 80 серверов (от 20 до 40 1 U серверов с каждой стороны, а Новые серверы представляют собой стоечные системы высотой 2U (каждая стойка оснащена коммутатором Ethernet ). Серверы подключаются через канал Ethernet 1 Гбит / с к коммутатору в верхней части стойки (TOR). Затем коммутаторы TOR подключаются к кластерному коммутатору гигабит с использованием нескольких гигабитных или десяти гигабитных восходящих каналов. Сами коммутаторы кластера соединены между собой и образуют межкомпонентную структуру центра обработки данных (скорее всего, с использованием дизайна стрекозы, а не классической схемы бабочки или плоской бабочки).
С точки зрения работы, когда клиентский компьютер пытается подключиться к Google, несколько DNS-серверов преобразовывают www.google.comв несколько IP-адресов через Политика Round Robin. Кроме того, это действует как первый уровень балансировки нагрузки и направляет клиента к различным кластерам Google. Кластер Google имеет тысячи серверов, и после подключения клиента к серверу выполняется дополнительная балансировка нагрузки для отправки запросов на наименее загруженный веб-сервер. Это делает Google одной из крупнейших и наиболее сложных сетей доставки контента.
У Google есть множество центров обработки данных, разбросанных по всему миру. По крайней мере, 12 крупных центров обработки данных Google расположены в США. Самые крупные известные центры расположены в Даллес, Орегон ; Атланта, Джорджия ; Рестон, Вирджиния ; Ленуар, Северная Каролина ; и Монкс Корнер, Южная Каролина. В Европе самые крупные известные центры находятся в Эмсхафене и Гронингене в Нидерландах и Монс, Бельгия. Центр данных Google Oceania, как утверждается, расположен в Сиднее, Австралия.
. Один из крупнейших центров обработки данных Google расположен в город Даллес, штат Орегон, на реке Колумбия, примерно в 80 милях (129 км) от Портленда. Миллионный комплекс под кодовым названием «Проект 02» был построен в 2006 году и имеет размер примерно два поля для американского футбола с градирнями высотой в четыре этажа. Место было выбрано, чтобы воспользоваться преимуществами недорогой гидроэлектроэнергии и использовать большой излишек в регионе волоконно-оптического кабеля, остатка дотком бум. План участка появился в 2008 году.
В феврале 2009 года Stora Enso объявила о продаже бумажной фабрики Summa в Хамине, Финляндия в Google за 40 миллионов евро. Google инвестировал 200 миллионов евро в сайт для строительства центра обработки данных и объявил о дополнительных инвестициях в размере 150 миллионов евро в 2012 году. Google выбрал это место из-за доступности и близости возобновляемых источников энергии.
В 2005 году Google исследовал контейнерный модульный центр обработки данных. Google подала заявку на патент на эту технологию в 2003 году.
В 2013 году пресса сообщила о существовании плавающих центров обработки данных Google вдоль побережья штатов Калифорния (Остров сокровищ, здание 3) и штат Мэн. Проект развития держался в строжайшей секретности. Центры обработки данных имеют длину 250 футов, ширину 72 фута и глубину 16 футов. Патент на технологию охлаждения центра обработки данных в океане был куплен Google в 2009 году (вместе с патентом на судовой центр обработки данных с волновым приводом в 2008 году). Вскоре после этого Google объявил, что две огромные и тайно построенные инфраструктуры были просто «центрами интерактивного обучения, [...] пространством, где люди могут узнать о новых технологиях».
Google прекратил работы на баржах в в конце 2013 г. и начали продавать баржи в 2014 г.
Большая часть программного стека, который Google использует на своих серверах, была разработана собственными силами. По словам известного сотрудника Google, C ++, Java, Python и (в последнее время) Go предпочтительнее других языков программирования.. Например, серверная часть Gmail написана на Java, а серверная часть Google Search написана на C ++. Google признал, что Python с самого начала играл важную роль и продолжает играть эту роль по мере роста и развития системы.
Программное обеспечение, на котором работает инфраструктура Google, включает:
Google разработал несколько абстракций, которые он использует для хранения большинства его данных:
Большинство операций доступны только для чтения. Когда требуется обновление, запросы перенаправляются на другие серверы, чтобы упростить проблемы согласованности. Запросы делятся на подзапросы, где эти подзапросы могут быть отправлены в разные каналы в параллельном, тем самым уменьшая время задержки.
Чтобы уменьшить влияние неизбежного оборудования сбой, программное обеспечение разработано с учетом отказоустойчивости. Таким образом, когда система выходит из строя, данные по-прежнему доступны на других серверах, что увеличивает надежность.
Как и большинство поисковых систем, Google индексирует документы, создавая структуру данных, известную как инвертированный индекс. Такой индекс получает список документов по слову запроса. Индекс очень велик из-за количества документов, хранящихся на серверах.
Индекс разделен по идентификаторам документов на множество частей, называемых шардами. Каждый сегмент реплицируется на несколько серверов. Первоначально индекс обслуживался с жестких дисков, как это делается в традиционных системах поиска информации (IR). Google справился с увеличением объема запросов, увеличив количество реплик каждого шарда и, таким образом, увеличив количество серверов. Вскоре они обнаружили, что у них достаточно серверов, чтобы хранить копию всего индекса в основной памяти (хотя и с низкой репликацией или вообще без репликации), и в начале 2001 года Google перешел на систему индексации в памяти. Этот переключатель «радикально изменил многие параметры дизайна» их поисковой системы и позволил значительно увеличить пропускную способность и значительно уменьшить задержку запросов.
В июне 2010 года Google внедрил индексирование и обслуживающая система под названием "Кофеин", которая может непрерывно сканировать и обновлять поисковый индекс. Ранее Google обновлял свой поисковый индекс пакетами, используя серию заданий MapReduce. Индекс был разделен на несколько уровней, некоторые из которых обновлялись быстрее, чем другие, а основной уровень обновлялся не раньше, чем через две недели. С кофеином весь индекс постоянно обновляется постепенно. Позже Google представила систему распределенной обработки данных под названием Percolator, которая, как говорят, является основой системы индексации кофеина.
Серверная инфраструктура Google разделена на несколько типов, каждый из которых предназначен для другая цель:
В октябре 2013 года The Washington Post сообщила, что Агентство национальной безопасности США перехватило сообщения между центрами обработки данных Google в рамках программы под названием MUSCULAR. Это прослушивание стало возможным благодаря тому, что в то время Google не шифровал данные, передаваемые в его собственной сети. Это было исправлено, когда Google начал шифрование данных, передаваемых между центрами обработки данных в 2013 году.
Самый эффективный центр обработки данных Google работает при температуре 35 ° C (95 ° F) с использованием только охлаждения свежим воздухом, не требует кондиционирования воздуха с электроприводом.
В декабре 2016 года Google объявила, что, начиная с 2017 года, все свои центры обработки данных, а также все свои офисы, будут полностью использовать возобновляемые источники энергии. Это обязательство сделает Google «крупнейшим в мире корпоративным покупателем возобновляемой энергии с обязательствами по достижению 2,6 гигаватт (2600 мегаватт) энергии ветра и солнца».