null

Установка zVirt/oVirt на GlusterFS.

Если у вас вдруг так сложились жизненные обстоятельства , ну или вам просто так захотелось, что необходимо поставить oVirt/zVirt в режиме Hosted Engine на локальные диски гипервизоров. Тот тут вам пригодится распределённая файловая система GlusterFS.  Ниже краткая инструкция как это сделать.

Для этой задачи рекомендуется использовать минимум три сервера.

После установки и обновления гипервизоров необходимо настроить FQDN серверов, причём рекомендуется и разделять сеть управления и сеть хранения. И в каждой сети у каждого сервера должен быть IP адрес и соответствующее имя. Для разрешения имён рекомендуется использовать DNS , но можно прописать и /etc/hosts .

Я в примере буду использовать единую сеть и для управления и для хранения и следующие имена серверов

hosta.lab.example.com // Сервер 1
hostb.lab.example.com // Сервер 2
hostc.lab.example.com // Сервер 3

Сперва нужно настроить возможность беспарольного доступа с первого сервера на самого себя и остальные хосты.

[root@hosta ~]# ssh-keygen
...
[root@hosta ~]# ssh-copy-id root@hosta.lab.example.com
...
[root@hosta ~]# ssh-copy-id root@hostb.lab.example.com
...
[root@hosta ~]# ssh-copy-id root@hostc.lab.example.com

Далее воспользуюсь web интерфейсом cockpit, который живёт на порту 9090 серверов. В даном случае буду разворачивать GlusterFS с hosta, поэтому воспользуюсь его интерфейсом. Там нужно запустить помощник установки GusterFS.

 

На этапе ввода сведений о хостах указываю полные доменные имена подготовленных серверов. Так как сеть одна устанавливаю опцию "Use same hostname for Storage and Public Network"​​​​​​

Дистрибутив zVirt/oVirt , уже содержит необходимые пакеты( в примере используется zVirt 3.0)  На шаге Packages ничего указывать не нужно.

На этапе создания томов часть параметров уже предзаполена. Оставлю два тома, на самый первый в списке будет уставлен engine. Второй пойдёт под размещения виртуальных машин, для экономии места установлен флаг "Arbiter"

На шаге создания bricks  необходимо указать размер томов , будет ли использоваться компрессия и дедупликаци.

На шаге создания bricks  необходимо указать размер томов , будет ли использоваться компрессия и дедупликация.

Тут так же необходимо выбрать какое именно физическое устройство сервера будет использоваться для создания bricks. В данном случае на всех серверах свободный диск -  это устройство /dev/sda. Если имена устройств на серверах различаются, то для каждого сервера можно указать отдельное устройство, выбрав соответствующий хост из выпадающего списка.

Так как на томе engine будет располагаться только виртуальная машина с hosted engine, размера 100 Gb достаточно. Но меньше лучше не ставить, если hosted engine не хватит места,  то нужно будет заняться реконфигурацией. Остальное пространство диска будет использоваться под том для виртуальных машин. А так как устройство физически одно, диск будет будет отдан под управление LVM и на нём будут созданы логические тома для каждого brick. 

И вот тут есть небольшая особенностью. В настройках LVM гипервизоров по умолчанию фильтруются все устройства кроме загрузочного диска, что делает невозможным  создание логических томов на выбранном устройстве /dev/sda. Попытка установки закончится ошибкой вида

  Cannot use /dev/sda: device is rejected by filter config

Придётся поправить файл /etc/lvm/lvm.conf

и модифицировать строку с фильтром

filter = ["a|^/dev/disk/by-id/lvm-pv-uuid-KJRixK-PH98-14MB-yeL0-EcXx-uo0x-4Pqcj1$|", "r|.*|"]

добавив устройство /dev/sda в разрешенные

filter = ["a|^/dev/disk/by-id/lvm-pv-uuid-KJRixK-PH98-14MB-yeL0-EcXx-uo0x-4Pqcj1$|", "a|^/dev/sda|", "r|.*|"]

Если диск до этого уже был размечен, можетпоявлятся ошибка вида

 Cannot use /dev/sdX: device is partitioned

Это можно исправть записав на диск новую DOS метку, с помощью fdisk /dev/sdX -> o ->w

Процедуру нужно повторить на всех хостах.

После чего можно приступать к шагу развёртывания.

Стоит так же заменить , что процедура иногда завершается ошибкой, если обнаруживает на дике созданную GPT метку. В этом случае метку нужно почистить любым удобным способом.

Но в большинстве слушаем процедура завершается успехом и можно приступать к развёртыванию Hosted Engine.​​​​​​​

 

 

Профессиональные навыки:

  •  За более чем 10 лет преподавательской деятельности стал обладателем навыка простого и понятного изложения учебного материала с использованием минимильного набора вспомогательных средств;
  •  Разработка и внедрение образовательных программ по различным ИКТ-направлениям;
  •  Многолетний опыт работы в технической поддержке позволил приобрести навыки поиска причин возникновения проблем в системах различной степени сложности;
  •  Проектирование, внедрение, обслуживание и оптимизаци производительности  ИКТ решений на базе аппаратных и программных продуктов таких производителей как Sun / Oracle, IBM, HP, Dell, Supermicro, Brocade, Veritas, Symantec, Intel, Huawei, Commvault, VMware и дргих;
  • Администрирование операционных систем на базе Linux (Arch, Debian, OEL, Fedora/RHEL, CentOS, Suse/SLES) и Unix - Solaris, HP-UX, AIX ;
  •  Построение решений по виртуализации на базе VMware vSphere, Huawei Fusion Sphere, Xen project, KVM, Oracle VM for Sparc, Oracle VM for x86, Oracle VirtualBox, Qemu;

Квалификация:

  • Диплом магистра техники и техногогий Санкт Петербургского Университета Информационных Технологий Механики и Оптики;
  • Oracle Certified Professional, Oracle Solaris 11 System Administrator
  • Oracle Certified Associate, Oracle Solaris 11 System Administrator
  • HCNA/HCNP Routing&Switching
  • HCNA/HCNP Storage
  • HCIE Storage (первый вне Китая)
  • HCNA/HCNP Data Center Facility
  • HCNA Cloud
  • HCNA Security
  • HCNA Unified Communication
  • IBM Certified Specialist - Storwize Family Technical Solutions
  • IBM Certified Technical Sales Specialist - Power Systems with POWER8 Scale-out
  • Sun Certified Field Engineer

Преподавательские сертификаты:

  • Oracle Certified Instructor
  • HCIE Storage Instructor
  • HCNP Routing&Switching Instructor
  • HCNP DCF Instructor
  • HCNA Cloud Instructor