HOSTVM
Search…
Создание хранилища через CLI
После развертывания HOSTVM используйте данное руководство для создания нового хранилища для виртуальных машин с использованием CLI.
Для обеспечения отказоустойчивости рекомендуется вариант настройки на трех либо кратном трем количестве серверов (3, 6, 9, 12 и т.д.), приведенный в данном руководстве.

Создание дополнительных записей имен серверов

На каждый из серверов будущего кластера и на ВМ engine добавить в файлы /etc/hosts записи следующего вида:
1
192.168.120.10 glusternode1 glusternode1.localdomain
2
192.168.120.11 glusternode2 glusternode2.localdomain
3
192.168.120.12 glusternode3 glusternode3.localdomain
Copied!
  • glusternode1-3 имя нод SDS (второе имя для серверов и их ip-адреса на выделенных под SDS интерфейсах).
  • Опционально можно прописать все имена на DNS-сервере.

Разметка дискового пространства

Допустим, что под новое хранилище виртуальных машин datastore мы хотим выделить 3ТБ.
Для размещения используем рейд-массив дисков, представленный в виде устройства /dev/sdX.
На каждом из серверов создадим logical volume под виртуальные машины:
1
pvcreate /dev/sdX
2
vgcreate datavg /dev/sdX
3
lvcreate -L 3072G -n datastore_lv datavg
4
mkfs.xfs -l size=512 /dev/mapper/datastore_lv
5
mkdir -p /data/gluster/datastore
Copied!
  • datavg – имя новой volume группы
  • datastore_lv – имя логического тома в составе группы datavg
  • /data/gluster/datastore - точка монтирования
После того, как созданы том и файловая система, следующий шаг – создать запись в /etc/fstab:
1
/dev/mapper/datavg-datastore_lv /data/gluster/datastore xfs defaults 0 0
Copied!
И примонтировать том:
1
mount -a
Copied!
На каждом из серверов создать директории под брики и запустить службы sds:
1
mkdir /data/gluster/datastore/brick
2
systemctl start glusterd && systemctl enable glusterd
Copied!
Открыть требуемые для работы порты на каждом сервере:
1
firewall-cmd --zone=public --add-port=24007-24008/tcp --permanent
2
firewall-cmd --zone=public --add-port=24009/tcp --permanent
3
firewall-cmd --zone=public --add-port=111/tcp --permanent
4
firewall-cmd --zone=public --add-port=139/tcp --permanent
5
firewall-cmd --zone=public --add-port=445/tcp --permanent
6
firewall-cmd --zone=public --add-port=965/tcp --permanent
7
firewall-cmd --zone=public --add-port=2049/tcp --permanent
8
firewall-cmd --zone=public --add-port=38465-38469/tcp --permanent
9
firewall-cmd --zone=public --add-port=631/tcp --permanent
10
firewall-cmd --zone=public --add-port=111/udp --permanent
11
firewall-cmd --zone=public --add-port=963/udp --permanent
12
firewall-cmd --zone=public --add-port=49152-49251/tcp --permanent
13
firewall-cmd --zone=public --add-service= nfs --permanent
14
firewall-cmd --zone=public --add-service=samba --permanent
15
firewall-cmd --zone=public --add-service=samba-client --permanent
16
firewall-cmd --reload
Copied!

Инициализация хранилища:

Дальнейшая настройка осуществляется с одного из серверов будущего кластера т.е. приведённые ниже команды нужно запускать только с одного из серверов.
В примере команды выполняются с glusternode1.
Добавить ноды sds в зону видимости друг друга:
1
[email protected]:~# gluster peer probe glusternode2
2
[email protected]:~# gluster peer probe glusternode3
Copied!
Инициализировать хранилище datastore командой :
1
[email protected]:~# gluster volume create datastore replica 3 glusternode1:/data/gluster/datastore/brick glusternode2:/data/gluster/datastore/brick glusternode3:/data/gluster/datastore/brick
Copied!
Применить следующие настройки для хранилища datastore:
1
[email protected]:~# gluster volume set datastore cluster.quorum-type auto
2
[email protected]:~# gluster volume set datastore network.ping-timeout 10
3
[email protected]:~# gluster volume set datastore auth.allow \*
4
[email protected]:~# gluster volume set datastore group virt
5
[email protected]:~# gluster volume set datastore storage.owner-uid 36
6
[email protected]:~# gluster volume set datastore storage.owner-gid 36
7
[email protected]:~# gluster volume set datastore server.allow-insecure on
8
[email protected]:~# gluster volume set datastore features.shard on
9
[email protected]:~# gluster volume set datastore features.shard-block-size 512MB
10
[email protected]:~# gluster volume start datastore
Copied!

Добавление хранилища через web-интерфейс портала администрирования

Убедиться, что в настройках кластера, на котором развернуто хранилище, включена опция:
Compute > Clusters > выбрать кластер > нажать кнопку Edit > вкладка General > Enable Gluster Service
После применения настроек создать новое хранилище на подготовленном ранее томе:
Compute > Storage > Storage Domains > нажать кнопку New Domain
  • В качестве Storage type указать GlusterFS
  • Указать имя хранилища
  • В поле Path указать путь к созданному тому (имя сервера и имя тома sds): glusternode1:/datastore
  • В поле Mount options указать остальные ноды : backup-volfile-servers=glusternode2:glusternode3