Установка и настройка vmware


Установка ESXi 6.0 на сервер с 4 ГБ ОЗУ

День добрый.

Сегодня хочу затронуть тему виртуализации операционных систем (ОС), которая уже далеко не первый год набирает популярность среди системных администраторов нашей необъятной страны. Если ранее, на заре эпохи «виртуальных машин» (ВМ), данные технологии чаще можно было увидеть в машинных залах крупных дата-центров. то сегодня это становится таким же стандартным атрибутом любой серверной комнаты.Налицо практическое удобство и гибкость таких решений, когда на одном физическом сервере, куда инсталлируется специальная ОС, обладающая функциями виртуализации — Гипервизор (англ. — hypervisor) можно разместить несколько ВМ, в которых в свою очередь устанавливаются серверные ОС организации. Тут и удобные технологии резервного копирования, и независимость от других ВМ, возможности их переноса на другой хост при тех-обслуживании сервера и т. д.

В данной статье будет наглядно описан процесс развертывания гипервизора от одного из флагманов виртуализации — Vmware, на базе бесплатной (ознакомительной версии) ESXi. Для хост-платформы был выбран относительно новый продукт компании Hewlett-Packard – недорогой сервер бюджетной линейки: HP MicroServer Proliant Gen8. На мой взгляд данная модель идеально подходит для небольших организаций с ограниченным бюджетом и позволяет развернуть небольшой безотказный кластер (при покупке нескольких таких машин) в рамках ИТ-инфраструктуры предприятия — хорошее решение в кризисный период.

Содержание

Установка VMware ESXiУстановка на сервер с ОЗУ 4ГБ или меньшеБазовая настройка ESXiCоздание виртуальной машиныИсточники

Установка VMware ESXi

Приступим к делу.

Скачиваем дистрибутив ESXi с сайта VMware (требуется регистрация), где сразу же регистрируем бесплатный ключ для использования как Freeware-продукта — лишним в хозяйстве не будет. Без ключей ESXi работает в полнофункциональном режиме как коммерческая версия 60 дней — после, в отсутствии ключа до первой перезагрузки. Пишем образ на CD — на момент написания текста, для загрузки доступна версия 6 гипервизора ESXi.

После того, как вы определились с выбором режима работы хоста (RAID, Sata AHCI) с жестким диском, выставляем нужное в настройках BIOS и загружаем сервер с установочного CD-диска. В моем случае использован стандартный эконом-вариант поставки сервера, потому привод был использован внешний через USB.

Рис. 01

Запускаем установщик

Рис. 02

Рис. 03

Принимаем условия лицензии

Рис. 04

Рис. 05

Выбираем диск (массив) для установки

Рис. 06

Раскладку клавиатуры

Рис. 07

Уставливаем пароль для пользователя root

Рис. 08

Рис. 09

Еще раз подтверждаем переразметку жесткого диска (старые данные на диске будут уничтожены!)

Рис. 10

Установка на сервер с ОЗУ 4ГБ или меньше

Окно с изображенной ниже ошибкой вам может встретиться, если вы счастливый обладатель сервера с объёмом оперативной памяти =<4ГБ.Если это так (всего скорее, ввиду того, что у нас в России продаются две основные комплектации — с 2 и 4ГБ ОЗУ), то примите мои «поздравления» — настройка сервера будет немного длиннее. На пару-тройку минут, но все же.

Рис. 11

Дело в том, что заботливая компания VMware оснастила установщик специально обученным скриптом, который следит за параметрами сервера и если обнаруживает объем ОЗУ 4 и менее ГБ, то выдает такую плашку с ошибкой, уведомляющее о необходимости увеличить количество оперативной памяти. В приведенном примере, памяти вроде бы хватает, но судя по всему часть ее идет на резервирование под некие нужды в системе (опытным путем удалось установить, что до-установка на время инсталляции дополнительной видеокарты вопрос не решает).

Забота о производительности (или еще о чем-то?), это конечно хорошо, но не думаю, что у многих из вас найдется время и желание перманентно бежать и искать где-то вот прямо сейчас «брендовые» модули ОЗУ для своего сервера HP (с небрендовыми сервер как-то не любит инициализироваться при старте). Признаться я тоже таким желанием не горю и предлагаю вам воспользоваться одним нехитрым методом, который позволяет заставить срипт установки «думать», что объем ОЗУ более чем достаточный.

Метод не новый, и мной лично был обнаружен на одном из многочисленных блогов по схожей тематике. Далее этот прием приводится почти без изменений, не считая перевода на русский язык.

Когда вы дойдете до вышеприведенного экрана с ошибкой MEMORY_SIZE ERROR, нажмите комбинацию ALT+F1 (переход в другую консоль)

Войдите в систему как пользователь root (без пароля) и выполните последовательно перечисленные команды.

переход в директории со скриптом:

cd /usr/lib/vmware/weasel/util

удаление скомпилированного файла конфигурации:rm upgrade_precheck.pyc

резервирование исходного файла скрипта:mv upgrade_precheck.py upgrade_precheck.py.oldcp upgrade_precheck.py.old upgrade_precheck.py

назначение прав на доступ к записи в файл:chmod 666 upgrade_precheck.py

теперь откроем файл для редактирования в vi:vi upgrade_precheck.py

найдите фрагмент с текстом «MEM_MIN_SIZE» далее значение параметра «(4*1024)». Замените 4* на 2* и закройте после сохранения файла(чтобы перейти в режим редактирования — клавиша «I»; чтобы выйти с сохранением последовательно выполняем на клавиатуре: «Esc» «:» «wq» «Enter»)

Рис. 12

ps -c | grep weasel (найдем python PID)

kill -9 <цифровое_значение_искомого_процесса_по_PID>

После этой команды установщик перезапустится и автоматически продолжит процесс инсталляции с предыдущего шага:

Рис. 13

Рис. 14

Перезагружаем только что установленный сервер ESXi

Рис. 15

Система готова к использованию!

Если есть необходимость, настраиваем необходимые параметры (сеть, имя хоста…) для своих нужд , для чего имеется клавиша F2.

Базовая настройка ESXi

После того, как была установлена базовая система ESXi создадим новую виртуальную машину. Для удобного управления и настройки гипервизора существует бесплатная утилита, представляющая из себя клиентскую программу для удаленного доступа к компонентам комплекса VMware vSphere, частью которой является ESXi – VMware vSphere Client, который скачиваем также с сайта разработчика и устанавливаем на ПК с которого будет осуществляться управление.

При первом запуске vSphere Client перед вами предстанет главное окно программы

Рис. 16

В прошлой части, после завершения установки я присвоил новому хосту IP-статический адрес 192.168.55.100, который можно наблюдать в списке серверов в левой колонке окна. Думаю нет смысла подробно останавливаться на том, что для управления через vSphere Client ваш управляющий ПК должен входить в состав той сети, в которой находится гипервизор, что актуально при выделении последнему отдельной подсети. Отдельная сеть безусловно имеет резон в плане дополнительной безопасности для хостов виртуализации.

Первыми шагами после первого соединения можно выполнить настройку даты и времени

Рис. 17

А также сразу рекомендую задействовать, по-умолчанию выключеный встроенный сервер SSH — позже он будет полезен для удаленной аутентификации при загрузке установочных образов.Заходим в раздел Configuration – Security Profile – Services – Properties и активируем старт сервиса SSH вместе с хостом:

Рис. 18

Рис. 19

Рис. 20

Затем проследуем в Configuration – Storage и во вкладке Storage Details обратим внимание на длинный цифро-буквенный код пути каталога (/vmfs/volumes/573…) где расположено хранилище «datastore1» для наших виртуальных машин. Данная информация будет полезна далее, когда будем загружать ISO-образы установочных дисков наших гостевых ОС.

Рис. 21

Создание виртуальной машины

Настало время установить первую виртуальную машину. Выполним небольшую подготовку.Для загрузки установочных образов будущих ОС виртуальных гостевых систем я использовал файловый менеджер с поддержкой протокола SCP – WinSCP. Соединяемся с нашим гипервизором.

Рис. 22

И переходим на сервере в каталог с файловым хранилищем datastore1 используя тот путь, что упоминался чуть выше. Там создаем подкаталог для хранения файлов ISO.В другой панели открываем каталог где хранятся ваши файлы с образами и загружаем нужное на сервер.

Рис. 23

Возвращаемся к окну vSphere Client и выбираем в меню File – New – Virtual Machine создание новой виртуальной машины:

Рис. 24

После чего проходим по нескольким простым шагам

Рис. 25

Задаем имя новой ВМ

Рис. 26

Выбираем хранилище (в нашем примере оно одно единственное)

Рис. 27

Выбираем тип предполагаемой системы

Рис. 28

Настройки сетевых адартеров. Тут можно все оставить по-умолчанию — не забудьте проконтролировать наличие галки на чекбоксе Connect at Power On.

Рис. 29

Настройка диска для ВМ. Не считая размера виртуального диска, также можно оставить начальные настройки.

Различные варианты на данной вкладке — выбор между типом виртуальных HDD, основное различие между которыми заключается в том, будет ли занимать раздел все выделенное место сразу или по мере заполнения данными стремиться к своему предустановленному размеру.Помимо этого, в некоторой степени этот параметр влияет на производительность виртуальной дисковой подсистемы ВМ (при выборе Thin — в меньшую сторону). Подробнее можно узнать из описания по ссылке. Если не знаете, что вам сейчас нужно — на первый раз оставьте как есть.

Рис. 30

Рис. 31

Следующим шагом рекомендую избавиться от виртуального устройства Floppy. Не могу назвать точных причин, но в случае установки из образа ISO и наличии данного «дисковода» система не может найти ново-установленную ОС до той поры, пока не будет удален Floppy. В моем случае явной необходимости в данном устройстве не было и я его без сожаления убрал из ВМ.

Рис. 32

Теперь выберем для устройства CD/DVD источник данных — «диск», с которого будет загружаться наша ВМ при приоритете CD/DVD (при установке ОС):

Рис. 33

Идем по знакомому нам уже пути и выберем нужный образ ISO:

Рис. 34

Рис. 35

Рис. 36

Не забываем включить автовключение CD-привода при старте ВМ:

Рис. 37

Обозначим объем ОЗУ выделяемой для ВМ :

Рис. 38

Сохраняем все изменения.

Все готово к первому старту — даем нужную команду:

Рис. 39

На вкладке Console принимаемся за процесс установки новой ОС…

Рис. 40

Рис. 41

Описывать весь процесс инталляции Centos здесь не считаю необходимым ввиду избыточности данных по основной теме текста. Наш результат на этот раз уже достигнут.

Рис. 42

Не забудьте перед истечением пробного периода ввести свой ключ для бесплатной версии ESXi: Configuration – Licensed Features – ESX Server License Type – Edit .

В следующем материале будет рассмотрено развертывание гипервизора от другого популярного разработчика — Microsoft Hyper-V 2012 R2.

Удачи!

Источники:

http://dtucker.co.uk/hack/bypassing-the-memory-check-on-a-vmware-esxi-5.htmlhttps://noteits.net/2015/06/24/installing-esxi-6-0-with-4gb-ram-or-less/http://www.vmgu.ru/articles/vmware-esx-vsphere-vmdk-thin-thick

blog.apikulin.ru

VMware VDI на базе VMware View 5.1.1: ­­установка и настройка. Часть 1.

1. Введение

У VMware есть замечательный продукт: VMware View. VMware View позволяет создать отказоустойчивую инфраструктуру виртуальных рабочих мест. Что есть инфраструктура виртуальных рабочих мест? Это вариант размещения рабочих станций в ЦОДе в виде виртуальных машин, причем доступ к виртуальным машинам осуществляется практически с любого устройства, имеющего подключение к какой-либо сети (3G, Wifi, WAN, LAN, VPN). В данном мануале будет описано, как создать VDI на базе VMware View с нуля.

2. Как это работает

На картинке показаны компоненты, необходимые для работы VMware VDI:

Компоненты:

  • VMware Hypervisor (ESXi) – Физический сервер с установленным гипервизором – VMware ESXi, на котором хостятся виртуальные машины.
  • vCenter Server – Сервер управления виртуальной инфраструктурой (хостами, в частности) VMware.
  • View Connection Server – Сервер управления инфраструктурой виртуальных рабочих столов. Управляет подключениями к виртуальным рабочим столам, созданием и мониторингом пулов десктопов.
  • View Security Server – Опциональный компонент, позволяющий удаленно (WAN) подключаться к виртуальным рабочим столам и обеспечивающий повышенную безопасность подключения. Обычно устанавливается в DMZ.
  • View Transfer Server – Компонент, необходимый для работы т.н. View Client with Local Mode – возможность работы с виртуальным десктопом в оффлайн-режиме (в этом случае виртуальная машина копируется на ПК-клиента, и запускается с помощью компонента VMware Player).
  • Composer – Компонент, позволяющий создавать т.н. Linked Clone-пулы виртуальных десктопов. В этом случае для создания пул виртуальных десктопов фактически не использует собственной установленной ОС – используется ОС, установленная на шаблоне. При этом к каждому виртуальному ПК пула подключается диск с профилем пользователя. Решение позволяет значительно экономить дисковую емкость СХД.
  • Active Directory – здесь все понятно.

Не показано на картинке:

  • ThinApp – компонент, позволяющий упаковывать практически любое приложение в один исполняемый exe-файл (или msi, если потребуется). Далее упакованное приложение возможно назначать на пулы десктопов или отдельные десктопы - таким образом, пользователь при логине будет получать назначенное ему приложение.
  • SQL Server – сервер баз данных, необходимый для размещения 4-х баз: базы SSO сервера vCenter Server, базы сервера vCenter Server, базы Composer и базы для логов View Connection Server’а – Events. Рекомендуется использовать выделенный сервер SQL, в нашем примере мы установим все на единый сервер SQL Express, который устанавливается в комплекте с сервером vCenter Server.
  • Клиент – любое устройство с возможностью подключения к сети: ПК, тонкий клиент, нулевой клиент, iPhone, iPad, Android-планшет или смартфон.

Для развертывания простого варианта VDI нам потребуется физический сервер с гипервизором VMware ESXi 5.1. На нем мы развернем сначала 3 виртуальных сервера: VMware vCenter Server, VMware Connection Server и сервер контроллера домена.

3. Подготовка инфраструктуры

Для начала подготовим инфраструктуру.

Что нам требуется:

  • 1 физический сервер: в качестве сервера у меня под рукой оказался Fujitsu PRIMERGY RX300 S6 с двумя Xeon X56xx, 24GB RAM и дисками 6x 300 SAS 15k;
  • 1 контроллер домена с ролями ADDS, DNS и DHCP (у меня в примере статика) - дадим ему 2 vCPU и 2GB RAM;
  • 1 сервера vCenter Server – дадим ему 2 vCPU и 4GB RAM;
  • 1 сервер View Connection Server – дадим ему 2 vCPU и 4GB RAM;
  • Клиент – ноутбук с правленым файлом hosts – в файл добавим инфу о сервере-брокере.

Используемые адреса:

192.168.1.201/24 iRMC управляющий порт сервера

192.168.1.221/24 vmhost01.vdi.local гипервизор ESXi

192.168.1.222/24 vcenter.vmvdi.local сервер vCenter Server

192.168.1.223/24 dc.vmvdi.local контроллер домена

192.168.1.224/24 view-mgr.vmvdi.local сервер View Connection Server

192.168.1.225/24 win7template шаблон windows 7

192.168.1.226/24 win8template шаблон windows 8

192.168.1.231/24 win701 пул windows 7

192.168.1.232/24 win702 пул windows 7

192.168.1.233/24 win801 пул windows 8

192.168.1.234/24 win802 пул windows 8

192.168.1.10/24 gate шлюз

192.168.1.100/24 client ноутбук-клиент

4. Установка VMware ESXi и базовая настройка.

Сначала установим VMware ESXi.

Установка проста – монтируем диск и устанавливаем. После ребута сервера нажимаем F2, вводим пароль и идем в настройки управляющей сети - делаем базовую настройку – меняем IP на нужный нам (в примере 192.168.1.221), правим настройки DNS (выставляем адрес будущего сервера DNS 192.168.1.223), и даем имя хосту:

Далее, используя vSphere Client, заходим на хост и качаем iso-образы Win-серверов и софта VMware на датастор:

Далее развернем 2 шт. Windows Server 2012, несмотря на ссыль, которая гласит, что vCenter Server не поддерживается ОС Windows Server 2012. Нам пригодится дока. Лишь машину view-mgr.vmvdi.local развернем с ОС Windows Server 2008 R2.

Итак, получим 3 сервера:

Сделаем базовую настройку серверов (дата-время-сеть согласно таблице требований-имя сервера-включаем RDP) и приступим к установки роли контроллера домена на сервере dc.vmvdi.local.

5. Развертывание роли контроллера домена

Все просто, есть отличия от развертывания роли контроллера в W2k8, но суть та же – устанавливаем службы и поднимаем контроллер с помощью dcpromo, - в общем, все на картинках – сначала выберем роль ADDS:

Роль установлена – теперь щелкаем по ссылке Promote this server… (на картинке выше) и создаем контроллер домена vmvdi.local – создаем новый лес и новый домен:

Здесь все по дефолту, введем лишь пароль для режима восстановления:

Не трогаем:

Не трогаем:

И собственно, развертывание и ребут.

Домен создан, надо его допилить. Создадим обратную зону в DNS, создадим OU VDI Users для пользователей виртуальными десктопами и VDI Computers для виртуальных десктопов, а в OU VDI Users создадим пользователей vdi01-vdi04:

Также создадим группы vdigroup01 (пользователи vdi01, vdi02) и vdigroup02 (пользователи vdi03, vdi04), ну и группу vdi со всеми юзерами:

Затем добавим в получившийся домен vmvdi.local машины vcenter и view-mgr, и приступим к установке сервера vCenter Server.

jabuin.livejournal.com

Подробная инструкция по установке VMware vCenter Server Appliance 5.1

Статья содержит подробную инструкцию по установке и настройке VMware vCenter Server Appliance 5.1 

    После того как мы научились устанавливать ESXi и создали iSCSI систему хранения данных на базе FreeNAS (тут), сконвертировали какие-то операционные системы в виртуальную среду ESXi с помощью VMware Converter (тут) пришло время устанавливать vCenter server. Это централизованное средство управления всей виртуальной инфраструктурой VMware vSphere и все функции, которые вы можете наблюдать в таблице лицензирования так или иначе завязаны именно на vCenter (их работа завязана на него).

    Самый распространенный способ установки vCenter — это его инсталляция на Windows server, но в версии vSphere 5.1 значительно усложнили процесс установки до такой степени, что когда вы пройдете все шаги мастера, и перезапуститесь ничего работать не будет. Может это толчок администраторов в сторону vCenter appliance, если не знаете что это, то я в этой статье подробно покажу, т.к. устанавливать Windows версию vCenter не собираюсь.

    VMware vCenter Server Appliance  5.1 — готовя виртуальная машина, в которой уже установлена операционная система SUSE и Linux версия vCenter server. Выкладывать прямую ссылку не буду, т.к. 5 гигбайт, можно скачать через торренты (t-файл) или с официального сайта после регистрации. На самом деле, такой способ распространения продукта стал уже стандартным у VMware и мы в этом убедимся, когда будем настраивать встроенное резервное копирование, репликацию, storage appliance — схема везде одна и та же, скачиваетcя OVF файл, который разворачивается на ESXi сервере, после чего необходимая служба готова к работе. Приступим к установке.

У меня чистый ESXi c одной виртуальной машиной, именно на него я собираюсь установить VMware vCenter Server Appliance  5.1

Выбираю пункт Deploy OVF template. Сами OVF файлы у меня уже скачаны и лежат в папке на жестком диске на той машине, с которой я подключился к ESXi через vSphere client

Открывается мастер, который перво-наперво просит указать где OVF файл или URL с которого можно скачать файл (я бегло поискал ради интереса, не нашел URL), поэтому показываю локальный путь.

Детали…Next

Имя создаваемой виртуальной машины в которую развернется OVF

Выбор хранилища, на котором будут лежать файлы новой виртуальной машины

Указываю, что формат дисков виртуальной машины будет тонкий.

Все готово к началу установки. Finish

Процесс пошел

Установка закончилась и виртуальная машина с vCenter server запустилась.

Откроем консоль, посмотрим, что там внутри.

Первым делом советуют подключиться к vCenter через браузер, IP адрес был получен через DHCP

Подключаюсь на порт 5480, не обращаю внимания на безопасность.

Логин пароль —— root vmware

Принимаем лицензионное соглашение

Выбираем настройки по умолчанию

Вот и вся настройка, Start

Минут 5 все запускается

Готово

Через данный веб интерфейс можно управлять внутренними настройками vCenter. Покажу только некоторые. Вот основное общее окно.

Можно настроить подключение к домену. Ведь Windows вариант умеет, и Linux должен уметь.

Настройки сети

Информация о системе, как было сказано ранее тут SUSE, лицензия на нее уидет в подарок к VMware, но не ко всем изданиям.

На этой страничке можно проверить обновления. На этом все про настройки.

Пробую подключиться через vSphere client напрямую к vCenter. Использую логин — пароль root — vmware

Стандартная ошибка про отсутствие сертификата, ставим галочку, жмем Ignore

Вуаля, все работает. Включился 60-дневный период.

Первым делом создаем датацентр, логический элемент, предполагается, что у вас несколько серверных комнат и есть риск запутаться в серверх ESXi.

Теперь в Датацентр добавляем сервер ESXi (host), тот самый на котором и запущена ВМ с vCenter.

Точно мы хотим подключить этот хост, конечно да.

Показывают краткую информацию по хосту, в том числе и какие виртуальные машины на нем запущены.

Ключи мы не покупали, не генерили

тут далее, у меня все новое, локдаун включать не нужно

так как мы не могли не создать датацентр, то теперь выбираем в какой из них поместить виртуальные машины.

Готово, жмем Finish

Все хорошо, только предупреждение про логи, мы эту ошибочку поправим потом.

А сейчас, добавлю еще один хост ESXi, который потребуется мне для дальнейших демонстраций.

Все делал, по уже описанным ранее схемам. Добавил второй хост.

Предупреждение сообщает, что у меня к данному хосту не подключены никакие датасторы и с этим срочно нужно что-то делать, например, добавить datastore

Пробуем, но я то знаю, что из этого ничего не выйдет

Сейчас хост видит только локальный диск, а нам нужны луны с системы хранения. Поэтому закрываем мастер и идем добавлять iSCSI адаптер. Если была подключена СХД через SAS или FC, можно было бы продолжать.

Configuration -> Storage Adapters -> Add

Add Software iSCSI adapter

Адаптер появился, настроим его как и ранее это делали на первом хосте

Во вкладке Dynamic Discovery добавляем адрес FreeNAS сервера. И проверяем, появилось ли что-нибудь во вкладке Static Discovery

Target нашелся, теперь самое интересное.

После рескана…

Все LUN-ы, которые подключены к первому хосту автоматически появляются на втором, а все потому, что ими управляет vCenter server.

System logs on host are stored on non-persistent storage. Чтобы избавиться от этой ошибки нужно прописать в настройках каждого хоста папку, куда будут складываться логи.

Configuration -> Advanced Settings — здесь нужно прописывать параметр для хранения логов, но сначала содам папку на datastore

Захожу на LUN

Создаю папку

Прописываю значение для параметра Syslog.global.logDir на каждом хосте

Желтый треугольник остался у мертвого сервера, т.к. там памяти нужно добавить. С логами проблему решили. На этом первоначальная настройка vCenter закончена.

xn--48-6kc0bzbi.xn--p1ai

установка развёртывание vmware vcenter server appliance vcsa install deploymentDmitry Bobrovsky Blog

Подробное описание развёртывания и обновление vCSA со всеми вариантами описано в документе — VMware vCenter Server 6.0 Deployment Guide.

Здесь описана установка (развёртывание) VMware vCenter Server Appliance  (vCSA) 6.0 в инфраструктуре где еще нет никакого vCenter Server, т.е. установка с нуля. Развёртывание vCenter Server (vCS) может производиться несколькими разными способами, например из дистрибутива. Но такой способ может быть сложен. Поэтому, чтобы упростить развёртывание, компания VMware подготовила уже установленный vCS.

VMware vCenter Server Appliance (vCSA) — это готовая виртуальная машина с установленой ОС Linux и vCenter Server и связанными с ними сервисами. Т.е. достаточно развернуть эту готовую виртуальную машину в ESXi, сконфигурировать её и вы получите работающий vCenter Server.

Порядок развёртывания

— Скачать дистрибутив vCenter Server Appliance 6.x.— Развернуть vCenter Server Appliance 6.x.

А теперь подробнее.

Скачивание дистрибутива vCenter Server Appliance 6.x

  1. Пройти по ссылке VMware Download Center.
  2. В разделе Datacenter & Cloud Infrastructure, в строке VMware vSphere, кликнуть Download Product.
  3. Найти секцию с соответствующей лицензией, например Essentials.
  4. Внутри секции, в строке VMware vCenter Server 6.0 xxx, кликнуть Go to Downloads.
  5. На странице Download VMware vCenter Server 6.0, в поле Select Version выбрать необходимую версию (лучше самую последнюю). На закладке Product Downloads выбрать необходимый вариант и нажать Download Now. После этого произойдет авторизация и если у вас есть права на скачивания этого дистрибутива – начнется скачивание.

Примечание: vCenter Server Appliance  версии 6.x поставляется в виде ISO или ZIP. При этом ISO образ не содержит загрузочного диска, а содержит web-установшик который запускается на любом компьютере через браузер и с этого компьютера происходит развертывание. Поэтому, возможно что удобнее скачивать ZIP или вам придется каким-то образом получить доступ к содержимому ISO диска на компьютере с которого будет осуществляться развёртывание. Есть несколько способов (для Windows):

— записать iso на dvd диск и использовать его— использовать программы которые умеют монтировать iso как виртуальный cdrom, например Daemon Tools. Windows 8 и 10 умеют это делать штатно (кликнуть правой мышью на iso-файле в Проводнике и выбрать Подключить).— некоторые архиваторы умеют распаковывать iso образы, например 7Zip или WinRar— программы которые предназначены для работы с iso-дисками, например UltraISO.

Развёртывание vCenter Server Appliance 6.x

1. Установить на компьютере с которого вы осуществляете развёртывание — VMware Client Integration Plug-In для этого нужно запустить VMware-ClientIntegrationPlugin-6.0.0.exe из папки vcsa дистрибутива vCSA. Сама установка очень простая и никаких трудностей вызывать не должна.

2. Для развёртывания vCSA нужно открыть файл vcsa-setup.html из дистрибутива vCSA. Я открывал его через Chrome.

3. Сначала появилось сообщение что нужно установить плагин VMware Client Integration Plug-In

Через несколько секунд появилось еще одно окно с запросом внешнего протокола, нужно нажать Launch Application

Потом еще одно окно — нажать Allow

В результате запустилась установка — нажать Install

4. Принять лицензионное соглашение

5. Ввести адрес и учетную запись для хоста гипервизора ESXi на котором будет развернут vCSA.

6. Одобрить продолжение с тем сертификатом который есть.

7. Ввести имя виртуальной машины для vCSA и пароль администратора в ОС этой машины

8. Выбрать тип развёртывания. Подробнее в  — VMware vCenter Server 6.0 Deployment Guide. Если кратно, то vCenter Server (vCS) требует Platform Services Controller (PSC). Если сеть большая со множеством гипервизоров и виртуальных машин (VM), тогда можно устанавливать множество vCS которыми управляет один PSC. Это видно на картинке — вариант External.

В данном примере количество хостов не велико и количество виртуальных машин  тоже не велико — поэтому планируется установить только один vCSA и поэтому нужно выбрать Embedded вариант, когда в один vCS встроен один PSC и всё это установлено на одну VM.

9. Создание домена Single-Sign-On (SSO) сервисов аутентификации. Имя домена SSO не должно совпадать с именем домена Active Directory (AD).

10. Выбрать размер управляемой сети, т.е. количество хостов и виртуальных машин. В зависимости от размера, развёртывание создаст конфигурацию железа для виртуальной машины vCSA.

11. Выбрать дисковое хранилище на котором будет размещена VM vCSA. У меня одно хранилище на этом хосте, поэтому выбирать не из чего. Еще можно указать чтобы использовался Thin Mode.

12. Выбрать базу данных для vCSA. По умолчанию используется встроенный PostgresSQL. Для больших сетей можно использовать внешнюю СУБД Oracle.

13. Сетевые настройки для vCSA. В поле System Name рекомендуется использовать имя, но оно должно разрешаться через DNS, если в вашей сети это невозможно, используйте IP-адрес.

14. Последняя проверка настроек перед созданием vCSA

15. Дождаться завершения процесса установки.

16. Установка завершена. На экране указан адрес по которому можно зайти на vCSA.

17. Если посмотреть через vSphere Client была создана вот такая виртуальная машина vCSA. Отсюда можно изменить настройки сети, пароль администратора и включить\выключить SSH.

dmitrybobrovsky.ru

Установка и настройка VMWare Vsphere 6. Часть 4

Дата: 14.05.2015 Автор Admin

В данной статье мы рассмотрим настройку Fault tolerance и рассмотрим настройку Latency в виртуальных машинах.

Задачей Fault tolerance является обеспечить доступность виртуальной машины при выходе из строя физического сервера ESXI.

При работе Fault tolerance у виртуальной машины создается копия на другом хосте. Данная копия отрезана от сети, и активируется только когда сервер ESXI выйдет из строя.

Минусом данной технологии являются ограничения накладываемые на ресурсы виртуальной машины, в Vsphere 6 это:

— 4 vCPU

— 64 GB оперативной памяти

— На хосте ESXI можно запустить не более 4 VM с Fault tolerance

— На хосте требуется сетевой адаптер 10 Gb

— Отсутствует горячие добавление vCPU и оперативной памяти

— Не поддерживается Storage vMotion если используется более одного vCPU

Поддерживаются:

— Тонкие диски

— Имеется возможность создания снапшотов

— Storage vMotion если используется не более одного vCPU

 

Для корректной работы FT требуется кластер HA, как его настроить можно посмотреть в прошлой статье.

Также для корректной работы FT рекомендуется настроить отдельный VMkernel адаптер, настроенный только на использование Fault tolerance.

Добавим VMkernel адаптер.

Открываем VMkernel адаптеры хоста, и добавляем новый.

 

Нажимаем Add Host Networking, и выбираем vmkernel.

 

Выбираем коммутатор.

 

Указываем Fault tolerance.

 

Далее вводим статический IP и жмем next. На этом настройка vmkernel закончена, делаем аналогичные настройки на втором ESXI хосте.

Теперь включаем FT на виртуальной машине.

 

После активации FT и запуска VM, в ее свойствах должно появится следующее

Это означает что VM защищена с помощью Fault tolerance.

Перейдем к настройке Latency Sensitivity.

Latency Sensitivity — это режим высокой производительности виртуальной машины.

С помощью данной функции производительность VM приближается к нативной.

Для настройки данной функции, откроем нужную VM, перейдем в раздел Manage, далее откроем settings далее vm options, далее раздел Advanced Settings.

В  разделе Advanced Settings выбираем пункт Latency Sensitivity

Далее указываем значения Low, High, Medium или Normal.

Рассмотрим как работает данная технология.

Если мы выбираем режим High, хост ESXI определяет возможность предоставления эксклюзивного доступа Vcpu к физическому процессору, рассчитывая реальную загрузку физического процессора.

Также ESXI будет пытаться зарезервировать ресурсы физического процессора для виртуальной машины с включенным Latency Sensitivity.

Также рекомендуется сделать резервирование оперативной памяти для виртуальной машины с включенным Latency Sensitivity.

После включения данной функции, процессор виртуальной машины может напрямую взаимодействовать с физическим процессором, в обход планировщика VMkernel.

Таким образом, для VM с повышенной нагрузкой лучше использовать механизм Latency Sensitivity.

В следующей статье мы рассмотрим настройку системы резервного копирования Vshpere Data Protection 6.

 

Похожие статьи

ittraveler.org

Строим кластер VMware: часть 3 - настройка ESXi и установка vCenter Server

Предыдущие 2 части данной эпопеи я писал опираясь на версии VMware vSphere 5.0 и 5.1 соответственно, которые на момент написания были актуальными. Сейчас актуальная версия — 5.5, авось к 10 версии я допишу эту серию :))))

Немного консолидирую все ранее сказанное тут и тут.

По сути, из того что я ранее писал, практически все актуально и сегодня и даже процедура установки VMware ESXi осталась такая же. В версии 5.5 добавилось много новых и интересных возможностей.

Установку и базовую настройку ESXi мы разобрали в предыдущей статье. Детальную настройку сети рассматривать не будем, будем использовать настройки по умолчанию. Когда мы настраивали IP управления после установки ESXi, на стандартном виртуальном уоммутаторе был создан Vmkernel Port для управления ESXi и виртуальная порт-группа VM Network для подключения виртуальных машин.

Теперь приступить к установке и настройке VMware vCenter Server который будет централизованно всем хозяйством управлять.

Надо признать, процедура установки и настройки VMware vCenter Server со времен версии 5.0 изменилась, т.к. изменилась архитектура в общем. В версии 5.1 в процессе установки можно было вообще моск сломать, т.к. там все было немного не продумано, в версии 5.5 программу установки допилили.

В общем, не вдаваясь в исторические подробности и рассуждения сейчас у нас есть 2 варианта установки VMware vCenter Server 5.5, которые немного отличаются: установка vCenter Server как Windows приложения, или готовый OVF-модуль на основе Linux — VMware vCenter Server Virtual Appliance.

Точно так же, до сих пор существует 2 варианта управления виртуальной инфраструктурой (для любого формата установки vCenter): с помощью нативного vSphere клиента, который устанавливается как приложение на Windows-машину, или с помощью так называемого VMware WebClient который представляет собой веб-морду, написанную на флеше, яве и еще бог знает чем.

Это связано скорее всего с тем, что VMware пытается отвязаться от винды в пользу кросс-платформенности и бесплатности, а сейчас как раз переходной период.

Но это все только догадки, рассмотрим лучше архитектуру VMware vCenter Server.

Фактически, это набор служб (если мы говорим про винду) и база данных, которая может быть как встроенная (MSSQL Express) или внешняя, из списка поддерживаемых.

Каждая из служб занимается своим конкретным списком задач и взаимодействует с другими службами и/или хостами ESXi.

Ненавистный многими (и мной в том числе) VMware Web Client работает как отдельная служба и может быть установлен как на одной машине с vCenter Server так и отдельно (мы будем устанавливать все вместе). Это же касается еще одного компонента, так называемого Single Sign-On (SSO).

В коннечном итоге получается примерно следующее:

  • vCenter Server «подминает» под себя гипервизоры и напрямую взаимодействует с ESXi хостами через агента VPXA, установленного на хосте
  • администратор подключается не к ESXi узлу напрямую, а к vCenter Server и видит все подконтрольные хосты, которые подчиняются вцентру.
  • из консоли управления vCenter Server, администратор может делать все то же самое и даже больше, чем подключившись напрямую к узлу, включая: создание/удаление виртуальных машин, перемешение их с узла на узел, создание и настройку кластеров и т.п.
  • после установки связи vCenter <-> ESXi последний выполняет все команды, прилетающие с вцентра, под системным пользователем — vpxuser и даже если мы поменяем пароль пользователя root на хосте, vCenter не потеряет доступ к хосту

Как-то так… грузить подробностями не буду.

Что касается платформы, то VMware vCenter Server может работать как на отдельной физическом сервере с установленной виндой, так и внутри виртуальной машины на том же хосте, которым сам же и управляет. Второй вариант более предпочтителен, потому что в таком случае у нас есть возможность защищать vCenter Server с помощью технологии VMware HA и уменьшить внеплановые простои и полностью исключить плановые (об этом позже).

Процедура установки выглядит примерно так:

Для виндового Installable варианта:

1. Создаем виртуальную машину (если планируем размещать vCenter на виртуалке)

2. Устанавливаем и настраиваем винду (сеть, лицензии, обновления и все педали)

3. Заводим в домен (если требуется)

4. В самом простом случае запускаем «Simple Install» и следуя программе установки отвечаем на все вопросы.

5. В процессе установки «Simple Install» установит один за другим в правильном порядке компоненты vCenter Server и СУБД MSSQL Express.

Для VMware vCenter Server Virtual Appliance:

1. Импортируем готовый OVF-модуль, который уже содержит в себе все необходимые сервисы и компоненты а также содежит БД PostreSQL.

2. Через веб-морду делаем инициализацию БД или подключаем внешнюю.

Как вы наверное догадались, 2-й вариант гораздо проще и с ним, как правило, меньше проблем в процессе установки, хочется верить, что за ним будущее,  о нем сегодня и поговорим более детально.

Готовый модуль последней сборки можно скачать на сайте производителя в разделе Downloads -> vSphere -> VMware vCenter Server <…> -> Go to Downloads

Там ищем «File type: ova» и качаем (потребуется авторизация и лицензия, хотя бы триальная).

Дальше открываем vSphere Client и подключаемся к узлу ESXi, если еще не сделали этого.

  1. Наступаем на узел и открываем File -> Deploy OVF Template.
  2. Указываем путь к скачанному файлу OVA, нажимаем нехт.
  3. Указываем имя будущей виртуальной машины, которая будет вцентром (я всегда стараюсь, что бы имена виртуалок совпадали с доменными именами машин, которые крутятся внутри них), нажимаем нехт
  4. Выбираем хранилище, на которм будет жить виртуалка с вцентром
  5. Формат дисков ВМ — «тонкие» или «толстые». Для песочницы лучше тонкие (Thin Provision), т.к. при этом виртуальная машина будет занимать столько места, сколько занято на ее файловой системе и расти по мере ее заполнения до размеров, выделенных при ее создании. Толстые диски откусывают сразу весь выделенный для них объем.
  6. нехт — нехт — финиш

После того, как модуль импортировался, у нас появится новая виртуальная машина, которую можно запустить (Правой кнопкой -> Power -> Power On).

Да, совсем забыл про системные требования. vCenter Server Apliance сконфигурирован с 8 GB оперативной памяти, 2 vCPU и 2 виртуальными дисками общим объемом 133 ГБ (в тонком варианте изначально занимают около 6.5 ГБ).

Во время загрузки, вцентер пытается получить IP по DHCP и если у вас в сети нет DHCP или вы желаете прибить статику (хорошая идея) то это можно сделать через консоль виртуальной данной машины. Стандартные логин и пароль:

login: root pass: vmware

Что делать дальше — нам консоль виртуальной машины вцентра какбе намекает:

Открываем браузер и идем по адресу:

http://<адрес_vcenter>:5480/

После того как мы залогинимся первый раз под вышеуказанными логином и паролем и принимаем лицензионное соглашение, запустится визард, который нас спасет и тут сразу же появляется выбор: съесть синюю таблетку и выбрать дефолтные опции, или съесть красную и понять смысл жизни.

В принципе — для тестов нам хватит стандартных опций (1-й вариант), но мы не ищем легких путей, поэтому посмотрим, что же нам предлагают настроить в продвинутом варианте — выбираем «Set custom configuration«.

1. Тип БД может быть как встроенный PostgreSQL так и внешний Оракл. Отличие в том, что внутренний постгрес поддерживает до 100 хостов ESXi или 3000 виртуальных машин, а используя внешний Оракл — вы получаете дополнительній геморой и лимит в 1000 хостов и 10 000 виртуальных машин. Мы выбираем первый вариант.

2. Здесь нас волнует только пароль для локальной учетной записи администратора, т.к. служба SSO у нас тоже будет использоваться встроенная.

3. Здесь мы можем настроить интеграцию с Active Directory, но я этого делать не стал.

4. Настройка NTP сервера — идея очень здравая, но этот пункт я тоже пропускаю.

5. Еще раз все проверяем и нажимаем «Start»

После этого, визард пошуршит какое-то время, применит настройки, проинициализирует БД и запустит все сервисы.

На этом, установку vCenter Server Appliance можно считать завершенной.

Теперь при логине мы будем видеть страничку состояния сервисов и конфигурацию vCenter Server.

Из этой консоли так же можно изменять системные настройки, обновлять, мониторить и перезагружать vCenter Server. Также, в продуктиве рекомендуется изменить пароль системного пользователя root (ваш К.О.).

Теперь самое время подключиться к vCenter Server с помощью vSphere Client или Web Client.

Первый вариант, начиная с версии vSphere 5.5, имеет ограниченные возможности по сравнению с веб клиентом, и некоторые новые фичи висферы 5.5 доступны только в веб клиенте. Об этом даже говориться при запуске клиента версии 5.5:

Тем не менее, данный клиент до сих пор поддерживается и работает, и даже есть моменты, когда без него не обойтись (Update Manager или Site Recovery Manager).

Это официальное признание: когда-то, примерно года полтора назад, я на каком-то айтишном пероприятии, публично заявил одному из участников о том, что данный клиент больше не поддерживается и не работает с версией 5.5 — получается что я его обманул, о чем искренне сожалею и прошу прощения за то, что ввел в заблуждение его и всех присутствующих! *** хух, теперь моя совесть чиста :)) ***

В общем, хватит слез — вбиваем IP адрес или хостнейм, в качестве имени пользователя используем [email protected] и пароль, который установили при настройке апплаинса (пункт 2).

Подключившись, видим пустой инвентарь нашего вцентра — самое время чем-нибудь его наполнить! Создадим датацентр. Правой кнопкой -> New Datacenter:

Датацентр, это наивысшая логическая единица разделения ресурсов. Используется для логического разделения нескольких площадок, или группирования ресурсов в инвентаре вцентра. Обзовем его как-нибудь оригинально, например — «TEST«.

Теперь в датацентр можно добавлять хосты ESXi, которыми мы будем управлять с помощью vCenter Server. Для этого тыцяем правой по датацентру и нажимаем «Add Host»

Хосты можно добавлять по айпи, или по имени, только не забываем про настройки ДНС на вцентре и ESXi узлах, при добавлении хостов по имени, а также — про прямые и обратные записи на ДНС сервере.

В общем, дальше все интуитивно понятно — вбиваем параметры подключения к ESXi узлу, с пользователем root и паролем, который задали при установке гипервизора (в прошлой статье). Нажимаем нехт — нехт — финиш. При добавлении узла, в инвентори вцентра, будут также добавлены все виртуальные машины, находящиеся на ESXi узле.

Все, теперь наш хост подчиняется вцентру (моя преееелесть!). Добавим все хосты будущего кластера (минимум 2) таким же образом. В итоге у нас получится что-то такое (картинка из другого работающего вцентра):

Для управления вцентром с помощью vSphere Web Client, идем по ссылке:

http://<адрес_vcenter>/

Откроется стандартная веб-морда вцентра, и там как раз можно получить прямую ссылку на скачивание нативного клиента и ссылку логина в Web Client — нажимаем (требуется установленный flash):

Для логина используем [email protected], или другого пользователя с указанием домена, если настраивали интеграцию с AD. После логина попадаем в интерфейс администрирования.

Расписывать этот интерфейс не буду, попробуйте разобраться сами )) Скажу только, что логика и интерфейс управления абсолютно другие, чем у нативного клиента и тем, кто привык — может быть сложно перестроиться.

Итого, на сегодня все. Надеюсь что было информативно и понятно. Если не понятно — задавайте вопросы в комментариях.

Здесь также должен был быть рассказ о недостатках vCenter Server Appliance по сравнению с виндовым форматом, но начав его писать, я увлекся, и что бы не нагромождать статью — решил вынести этот рассказ в виде отдельной заметки, которую опубликую в ближайшее время.

Всем спасибо за терпение и извинения за задержку с выходом статей, все никак звезды не сходились :(

з. ы. Похоже, не стоит мне браться за подобные многосерийные портянки, с моим непостоянством… К счастью, в ближайшее время я твердо намерен покончить с этим безобразием и следующая часть данной эпопеи ожидается ровно через неделю.

Продолжение по ссылкам:

Строим кластер VMware: Часть 4 — общее хранилище

Строим кластер VMware: Часть 5 — создание и настройка кластера

Поделиться ссылкой:

hutpu4.net

Установка и настройка VMWare Server 2

Реализация виртуальных PC от VMware. Смысл тот же, что и в рассмотренной здесь MS Virtual PC, но с некоторыми отличиями. Читайте, выбирайте.

Статус: freeware (бесплатная)

Сайт производителя

Скачиваем здесь

Устанавливаем

 

Соглашаемся с лицензионным соглашением

 

Далее также соглашаемся со всеми предложениями

 

По завершении установки потребуется ввести код активации, полученный бесплатно ранее, когда Вы регистрировались на сайте VMWare для загрузки дистрибутива.

 

После этого потребуется перезапуск.

После перезапуска на Вашем компьютере будет запущен сервер Apache, подключиться к которому Вы сможете по указанным при установке портам (рис. 3). То есть, в адресной строке браузера необходимо написать http://localhost:8222, если при установке не изменялись номера портов. После того, как Вы введете свои логин и пароль на этой страничке, откроется завораживающая картина:

 

Это центр управления полетами. Создадим новую виртуальную машину. Для этого нажмем надпись «Create Virtual Machine». Появится диалог создания новой машины.

 

Первая страничка – имя. Пишем WinXP SP3, например, и жмем «Next». На следующей странице выбираем операционную систему виртуальной машины (например, Windows XP Professional 32 bit)

 

Теперь память и количество процессоров. Можно увеличить и то, и другое, главное – объем памяти: Чем его больше, тем быстрее будет работать виртуальная машина, но эта память будет «отобрана» у реальной, что тоже может вызвать отрицательные эмоции у пользователя, то есть у Вас. 256 Мб достаточно, работать будет и при 128, и при 64.

 

Жмём «Next».

Далее требуется создать новый виртуальный жесткий диск (или указать имеющийся, если таковой имеется ).

 

Просто жмем «Create a New Virtual Disk».

 

Выбираем объем диска. Потом можно будет добавить, для начала возьмем 8 по умолчанию. Но это не все. Развернем и посмотрим другие свойства. Для этого нажмем на треугольники около «File Options», «Disk Mode», «Virtual Device Node», «Policies».

«File Options» - «Allocate all disk space now» - зарезервировать место на диске под весь файл (это означает, что Ваша виртуальная машина займет сразу все 8 Гб. Если же нет, тогда файл будет содержать только реальные данные машины и занимать меньше места). Этот чек-бокс оставляем пустым.

 

Отметим галкой «Independent» - независимый режим, и поставим точку в «Nonpersistent», тогда изменения будут записываться во временный файл и сохраняться только если мы это явно укажем при выключении виртуальной машины. В противном случае все сразу записывается на диск.«Virtual Device Node » - Тип устройства. Если не знаете, что это такое – не забивайте голову, ставьте Adapter – IDE 0 и Device – 0.Пункт «Policies» - политики. «Optimize for safety» - Оптимизировать для безопасности (сохранности данных), а «Optimize for performance» - Оптимизировать производительность. Понятно, что одновременно реализовать обе эти политики невозможно, приходится выбирать и мы выбираем производительность.Только после этого можно нажать «Next».

 

Несомненно, мы хотим добавить сетевой адаптер (жмем «Add a Network Adapter»).

Если Вы не знаете, что означают слова на этой странице, то не забивайте голову, выбирайте «NAT».

 

Если знаете – выбирайте сами. Bridged – Соединение типа «мост», то есть Ваш адаптер будет подключен к реальному. Host Only – Только в пределах хоста, в сеть Вас не выпустят, NAT – Вам будет присвоен сетевой адрес по DHCP в пределах хоста, а во внешнюю сеть Вы пойдете с адресом хоста.Жмем Next. Добавляем CD привод.

 

Нажмем Use a Physical Drive, а потом next.

Следующий экран – дисковод для флоппи.

 

У меня его нет, а Вы можете выбрать Use a Physical Drive.

Далее – наличие USB. Я выбираю – Add a USB Controller.

 

На последней страничке проверяемся и жмем «Finish»

 

Теперь на закладке Virtual Machines Вы видите свою, и можете её запустить, нажав на зеленый треугольник вверху, либо командами справа (Power On)

 

Устанавливаем операционную систему.

 

Особенности (отличия от MS Virtual Machine)1. Самое неожиданное отличие:Shared Folders TabVMware Server does not support this feature.То есть Общие папки этот сервер не поддерживает. Virtual Machine от VMware – поддерживает, но она платная.2. Поддерживает USB. Поэтому можно смириться с первым пунктом, а поддержка USB все же значительно лучше, чем общие папки.3. Есть возможность установки виртуальных устройств

 

www.ennera.ru


Смотрите также