VMware ESXi

редактировать
Гипервизор корпоративного класса, тип 1 для развертывания и обслуживания виртуальных компьютеров

VMware ESXi
VMwareESXiHostClientSummary.png
Разработчик (и) VMware, Inc.
Первый выпуск23 марта 2001 г.; 19 лет назад (23.03.2001)
Стабильный выпуск 7.0b. / 23 июня 2020 г.; 4 месяца назад (2020-06-23)
Платформа IA-32 (x86-32) (больше не поддерживается), x86-64
Тип Собственный гипервизор (тип 1)
Лицензия Собственный
Веб-сайтwww.vmware.com / products / esxi-and-esx.html

VMware ESXi (ранее ESX ) - это корпоративный класс, тип-1 гипервизор, разработанный VMware для развертывания и обслуживания виртуальных компьютеров. Как гипервизор типа 1, ESXi не является программным приложением, установленным в операционной системе (ОС); вместо этого он включает и интегрирует жизненно важные компоненты ОС, такие как ядро ​​.

. После версии 4.1 (выпущенной в 2010 году) VMware переименовала ESX в ESXi. ESXi заменяет Service Console (рудиментарную операционную систему) более интегрированной ОС. ESX / ESXi - это основной компонент в программном пакете VMware Infrastructure .

. Название ESX произошло от аббревиатуры Elastic Sky X . В сентябре 2004 года замена ESX внутри компании называлась VMvisor, но позже была изменена на ESXi (поскольку «i» в ESXi означало «интегрированный»).

Содержание
  • 1 Архитектура
    • 1.1 Интерфейс с оборудованием
    • 1.2 Сервисная консоль
    • 1.3 Purple Screen of Death
  • 2 Версии
  • 3 Иск о нарушении GPL
  • 4 Связанные или дополнительные продукты
    • 4.1 Cisco Nexus 1000v
    • 4.2 Инструменты управления сторонних производителей
  • 5 Известные ограничения
    • 5.1 Ограничения инфраструктуры
    • 5.2 Ограничения производительности
    • 5.3 Сетевые ограничения
    • 5.4 Ограничения Fibre Channel Fabric
  • 6 См. Также
  • 7 Ссылки
  • 8 Внешние ссылки
Архитектура

ESX работает на голом железе (без операционной системы), в отличие от других продуктов VMware. Он включает собственное ядро. В исторической версии VMware ESX сначала запускалось ядро ​​Linux, а затем оно использовалось для загрузки множества специализированных компонентов виртуализации, включая ESX, который иначе известен как компонент vmkernel. Ядро Linux было основной виртуальной машиной; он был вызван сервисной консолью. Во время обычного выполнения vmkernel работал на голом компьютере, а сервисная консоль на основе Linux работала как первая виртуальная машина. VMware отказалась от разработки ESX в версии 4.1 и теперь использует ESXi, который вообще не включает ядро ​​Linux.

vmkernel - это микроядро с тремя интерфейсами: аппаратное обеспечение, гостевые системы, и сервисная консоль (Консольная ОС).

Интерфейс с оборудованием

vmkernel напрямую обрабатывает ЦП и память, используя сканирование перед выполнением (SBE) для обработки специальных или привилегированных инструкций ЦП и SRAT (таблица распределения системных ресурсов) для отслеживания выделенная память.

Доступ к другому оборудованию (например, сети или устройствам хранения) осуществляется с помощью модулей. По крайней мере, некоторые из модулей являются производными от модулей, используемых в ядре Linux. Для доступа к этим модулям дополнительный модуль под названием vmklinuxреализует интерфейс модуля Linux. Согласно файлу README: «Этот модуль содержит уровень эмуляции Linux, используемый vmkernel».

vmkernel использует драйверы устройств:

  1. net / e100
  2. net / e1000
  3. net / e1000e
  4. net / bnx2
  5. net / tg3
  6. net / forcedeth
  7. net / pcnet32
  8. блок / cciss
  9. scsi / adp94xx
  10. scsi / aic7xxx
  11. scsi / aic79xx
  12. scsi / ips
  13. scsi / lpfcdd-v732
  14. scsi / megaraid2
  15. scsi / mptscsi_2xx
  16. scsi / qla2200-v7.07
  17. scsi / megaraid_sas
  18. scsi / qla4010
  19. scsi / qla4022
  20. scsi / vmkiscsi
  21. scsi / aacraid_esx30
  22. scsi / lpfcdd-v7xx
  23. scsi / qla2200-v7xx

Эти драйверы в основном соответствуют драйверам, описанным в списке совместимости оборудования VMware . Все эти модули подпадают под действие GPL. Программисты адаптировали их для работы с vmkernel: VMware Inc. изменила загрузку модулей и некоторые другие мелочи.

Сервисная консоль

В ESX (а не ESXi) сервисная консоль - рудиментарная операционная система общего назначения, наиболее часто используемая в качестве начальной загрузки для ядра VMware, vmkernel, а также в качестве вторичного интерфейса управления. Обе эти функции консольной операционной системы устарели с версии 5.0, так как VMware переходит исключительно на модель ESXi. Сервисная консоль во всех смыслах и целях - это операционная система, используемая для взаимодействия с VMware ESX и виртуальными машинами, работающими на сервере.

Фиолетовый экран смерти

Фиолетовый экран диагностики, как в VMware ESX Server 3.0 Фиолетовый экран диагностики из VMware ESXi 4.1

В случае аппаратной ошибки vmkernel может обнаружить Исключение проверки машины. Это приводит к отображению сообщения об ошибке на фиолетовом экране диагностики. Это в просторечии известно как фиолетовый диагностический экран или фиолетовый экран смерти (PSoD, ср. Синий экран смерти (BSoD)).

После отображения фиолетового диагностического экрана vmkernel записывает отладочную информацию в раздел дампа ядра. Эта информация вместе с кодами ошибок, отображаемыми на фиолетовом экране диагностики, может быть использована службой поддержки VMware для определения причины проблемы.

Версии

VMware ESX доступен в двух основных типах: ESX и ESXi, хотя начиная с версии 5 продолжается только ESXi.

ESX и ESXi до версии 5.0 не поддерживают Windows 8 / Windows 2012. Эти операционные системы Microsoft могут работать только на ESXi 5.x или новее.

VMware ESXi, меньшая по размеру версия ESX, не включает ESX Service Console. Он доступен - без необходимости покупки лицензии vCenter - как бесплатно загружаемый с VMware, с некоторыми отключенными функциями.

ESXi означает «интегрированный ESX».

VMware ESXi возникла как компактная версия VMware ESX, которая позволяла занимать меньше 32 МБ дискового пространства на хосте. Благодаря простой консоли конфигурации, в основном предназначенной для настройки сети, и удаленному клиентскому интерфейсу инфраструктуры VMware, это позволяет выделить больше ресурсов для гостевых сред.

Существует два варианта ESXi:

  • VMware ESXi Installable
  • VMware ESXi Embedded Edition

Один и тот же носитель может использоваться для установки любого из этих вариантов в зависимости от размера целевого устройства. средства массовой информации. ESXi можно обновить до VMware Infrastructure 3 или до VMware vSphere 4.0 ESXi.

Первоначально называвшаяся выпуском VMware ESX Server ESXi, после нескольких изменений продукт ESXi в конечном итоге стал VMware ESXi 3. Затем последовали новые выпуски: ESXi 3.5, ESXi 4, ESXi 5 и (по состоянию на 2015 год) ESXi 6.

Иск о нарушении GPL

Кристоф Хеллвиг, разработчик ядра Linux, предъявил иск компании VMware за нарушение лицензии GPL. Утверждалось, что VMware незаконно присвоила части ядра Linux и использовала их без разрешения. Иск был отклонен судом в июле 2016 года, и Хеллвиг объявил, что подаст апелляцию.

Апелляция была рассмотрена в феврале 2019 года и снова отклонена немецким судом на основании несоблюдения «процессуальных требований к бремя доказывания истца ».

На последней стадии судебного процесса в марте 2019 года Высший земельный суд Гамбурга также отклонил иск по процессуальным основаниям. После этого VMware официально объявила об удалении рассматриваемого кода. После этого Хеллвиг отозвал свое дело и отказался от дальнейших юридических действий.

Связанные или дополнительные продукты

Следующие продукты работают вместе с ESX:

  • vCenter Сервер, обеспечивает мониторинг и управление несколькими серверами ESX, ESXi и GSX. Кроме того, пользователи должны установить его для запуска таких инфраструктурных сервисов, как:
    • vMotion (перенос виртуальных машин между серверами на лету во время их работы с нулевым временем простоя)
    • svMotion aka Storage vMotion ( перенос виртуальных машин между логическими модулями общего хранилища на лету, с нулевым временем простоя)
    • Enhanced vMotion aka evMotion (одновременное vMotion и svMotion, поддерживается в версии 5.1 и выше)
    • Распределенный планировщик ресурсов (DRS) (автоматизированный vMotion на основе требований / требований к нагрузке хоста / виртуальной машины)
    • Высокая доступность (HA) (перезапуск гостевых операционных систем виртуальной машины в случае физического сбоя хоста ESX)
    • Отказоустойчивость (FT) (почти мгновенное переключение виртуальной машины с сохранением состояния при отказе в случае отказа физического узла)
  • Converter, позволяет пользователям создавать виртуальные машины, совместимые с VMware ESX Server или Workstation, с физических или с виртуальных машин, созданных другими продуктами виртуализации. Converter заменяет продукты VMware «P2V Assistant» и «Importer» - P2V Assistant позволяет пользователям преобразовывать физические машины в виртуальные машины, а Importer позволяет импортировать виртуальные машины из других продуктов в VMware Workstation.
  • vSphere Client ( ранее VMware Infrastructure Client), обеспечивает мониторинг и управление одним экземпляром сервера ESX или ESXi. После ESX 4.1 vSphere Client больше не был доступен с сервера ESX / ESXi, но его необходимо было загрузить с веб-сайта VMware.

Cisco Nexus 1000v

Сетевое соединение между хостами ESX и виртуальными машинами, работающими на нем. полагается на виртуальные сетевые адаптеры (внутри виртуальной машины) и виртуальные коммутаторы. Последний существует в двух версиях: «стандартный» vSwitch, позволяющий нескольким виртуальным машинам на одном хосте ESX совместно использовать физический сетевой адаптер, и «распределенный vSwitch», где vSwitch на разных хостах ESX вместе образуют один логический коммутатор. Cisco предлагает в своей линейке продуктов Cisco Nexus Nexus 1000v, расширенную версию стандартного распределенного vSwitch. Nexus 1000v состоит из двух частей: модуля супервизора (VSM) и виртуального модуля Ethernet (VEM) на каждом хосте ESX. VSM работает как виртуальное устройство в кластере ESX или на выделенном оборудовании (серия Nexus 1010), а VEM работает как модуль на каждом хосте и заменяет стандартный dvS (распределенный виртуальный коммутатор) от VMware.

Настройка коммутатора выполняется на VSM с помощью стандартного NX-OS CLI. Он предлагает возможности для создания стандартных профилей портов, которые затем можно назначать виртуальным машинам с помощью vCenter.

Есть несколько отличий между стандартным DVS и N1000v; Во-первых, коммутатор Cisco обычно полностью поддерживает такие сетевые технологии, как LACP агрегация каналов, или что коммутатор VMware поддерживает новые функции, такие как маршрутизация на основе физической нагрузки сетевого адаптера. Однако основное отличие заключается в архитектуре: Nexus 1000v работает так же, как физический коммутатор Ethernet, в то время как dvS полагается на информацию от ESX. Это имеет последствия, например, для масштабируемости, когда предел Каппа для N1000v составляет 2048 виртуальных портов против 60000 для DVS.

Nexus1000v разработан в сотрудничестве между Cisco и VMware и использует API dvS

сторонние инструменты управления

Поскольку VMware ESX является лидером на рынке виртуализации серверов, поставщики программного и аппаратного обеспечения предлагают ряд инструментов для интеграции своих продуктов или услуг с ESX. Примерами являются продукты Veeam Software с приложениями для резервного копирования и управления и плагином для мониторинга и управления ESX с помощью HP OpenView, Quest Software с различными функциями управления и приложения резервного копирования и большинство основных поставщиков решений резервного копирования имеют плагины или модули для ESX. Использование Microsoft Operations Manager (SCOM) 2007/2012 с пакетом управления Bridgeways ESX дает вам представление о работоспособности центра обработки данных ESX в реальном времени.

Кроме того, поставщики оборудования, такие как Hewlett-Packard и Dell, включают инструменты для поддержки использования ESX (i) на своих аппаратных платформах. Примером может служить модуль ESX для платформы управления Dell OpenManage.

VMware добавила веб-клиент начиная с версии 5, но он будет работать только на vCenter и не содержит всех функций. vEMan - это приложение для Linux, которое пытается восполнить этот пробел. Это всего лишь несколько примеров: существует множество сторонних продуктов для управления, мониторинга или резервного копирования инфраструктур ESX и виртуальных машин, работающих на них.

Известные ограничения

Известные ограничения VMware ESXi 7.0 U1, по состоянию на сентябрь 2020 года, включают следующее:

Ограничения инфраструктуры

Некоторые максимальные значения в ESXi Server 7.0 могут повлиять на структуру центров обработки данных:

  • Максимальный объем ОЗУ гостевой системы: 24 ТБ
  • Максимальный объем ОЗУ хост-системы: 16 ТБ
  • Количество хостов в кластере высокой доступности или распределенного планировщика ресурсов: 96
  • Максимальное количество процессоров на виртуальную машину: 768
  • Максимальное количество процессоров на хост: 768
  • Максимальное количество виртуальных ЦП на физическое ядро ​​ЦП : 32
  • Максимальное количество виртуальных машин на хост: 1024
  • Максимальное количество виртуальных ЦП на отказоустойчивую виртуальную машину: 4
  • Максимальное ОЗУ гостевой системы на отказоустойчивую виртуальную машину: 128 ГБ
  • Максимальный размер тома VMFS5: 64 ТБ, но максимальный размер файла 62 ТБ-512 байт
  • Максимальный объем видеопамяти на виртуальную машину: 4 ГБ

Ограничения производительности

Что касается производительности, виртуализация требует дополнительных затрат на работу ЦП должен выполнять виртуализацию базового оборудования. Инструкции, выполняющие эту дополнительную работу и другие действия, требующие виртуализации, как правило, находятся в вызовах операционной системы. В немодифицированной операционной системе вызовы ОС создают наибольшую часть «накладных расходов» виртуализации.

Паравиртуализация или другие методы виртуализации могут помочь с этими проблемами. VMware разработала для этой цели, и некоторые операционные системы в настоящее время поддерживают это. Сравнение полной виртуализации и паравиртуализации для сервера ESX показывает, что в некоторых случаях паравиртуализация выполняется намного быстрее.

Сетевые ограничения

При использовании расширенных и расширенных сетевых возможностей с помощью распределенного виртуального коммутатора Cisco Nexus 1000v применяются следующие ограничения, связанные с сетью:

  • 64 ESX / ESXi хостов на VSM (виртуальный модуль супервизора)
  • 2048 виртуальных интерфейсов Ethernet на VMware vDS (виртуальный распределенный коммутатор)
  • и максимум 216 виртуальных интерфейсов на хост ESX / ESXi
  • 2048 активных виртуальных локальных сетей ( один, который будет использоваться для связи между VEM и VSM)
  • 2048 профилей портов
  • 32 физических сетевых адаптера на каждый ESX / ESXi (физический) хост
  • 256 каналов порта на VMware vDS (виртуальный распределенный коммутатор)
  • и максимум 8 каналов порта на хост ESX / ESXi

Ограничения Fibre Channel Fabric

Независимо от типа используемого виртуального адаптера SCSI существуют следующие ограничения:

  • Максимум 4 виртуальных адаптера SCSI, один из которых должен быть выделен для использования виртуального диска
  • Максимум 64 SCSI LUN на адаптер
См. Также
Ссылки
Внешние ссылки
Последняя правка сделана 2021-06-18 07:48:27
Содержание доступно по лицензии CC BY-SA 3.0 (если не указано иное).
Обратная связь: support@alphapedia.ru
Соглашение
О проекте