Zabbix High Available (HA) Cluster Kurulumu

Mesut Yilmaz
13 min readFeb 23, 2021

--

Zabbix HA Cluster Kurulumu

Zabbix, BT altyapılarının uçtan uca izlenmesi için high available (HA) bir çözüm oluşturmaya izin verir. Bileşenlerin nasıl çalıştığını ve birbirleriyle nasıl etkileşime girdiğini anlamak için basit bir HA çözümünün nasıl dağıtılacağını anlatacağım.

  1. Introduction
  2. Database cluster
    2.1. CLI
    2.2. GUI
    2.3. MariaDB installation
    2.4. Replication setup: node 1
    2.5. Replication setup: node 2
    2.6. Replication setup: node 3
    2.7. Zabbix database preparation
  3. Server cluster
  4. Front end cluster
  5. Conclusion

Giriş

Selam! Ben Mesut Yılmaz. Gantek’te Kıdemli DevOps Mühendisi olarak çalışıyorum. Bu makalede çok basit bir HA çözümünü nasıl uygulayacağınızı öğreneceksiniz. Zabbix HA kümesi 333 olarak adlandırılan HA mimarisinin ana bileşenleri aşağıda yer almaktadır.İşleri temel bir başlangıç ​​seviyesinde tutmak istiyorum. Tabii ki, orada çok karmaşık çözümler var ama amacım, neyle başlayabileceğimizi asgari düzeyde göstermek.

Bu HA çözümü:

  • Test edilmiş, yaygın ve zaman içinde kanıtlanmış;
  • Açık kaynak bileşenleri kullanır;
  • 3 bileşenle başlar (bu nedenle 333'tür).

Daha önce de bahsettiğim gibi, bu minimumdur, çok karmaşık hale getirmek istemiyoruz. Çünkü önce bileşenlerin nasıl çalıştığını ve birbirleriyle nasıl etkileşime girdiğini anlamanız gerekir.

A plan
Zabbix HA 333 Cluster Mimarisi

Gördüğünüz gibi, 3 veritabanı 3 zabbix sunucu, 3 zabbix frontend ve 3 sanal IP (VIP) olarak temel bileşenler üzerinde kurulumu gerçekleştireceğiz. Her küme için, o anda hangi düğümün etkin olduğunu gösteren sanal bir IP (VIP) vardır. Temel kaynaklar ölürse veya bağlantılar başarısız olursa düğümler active/passive (n-2) toleransında otomatik olarak değişir. Sorun olması durumunda geçersiz kılmak veya güncelleme yapmak için manuel kontrol de mevcuttur.Buradaki fikir, bir kullanıcının her an Zabbix aracılığıyla düğümleri değiştirebilmesidir. Bu nedenle, bir sorun varsa veya yalnızca ilk sunucu düğümünü aşağı çekmek istiyorsanız, ikincisini tıklayıp kaynakları ona taşıyabilirsiniz. Bu, Zabbix arayüzünden yapılabilir.

İhtiyacınız olan şey, kutudan çıkar çıkmaz resmi şablondur, ek olarak script yazmanız gerekmez. Tek yapmanız gereken VIP adresinizi ve varsayılan bağlantılar şablonuna bir bağlantı eklemektir. Elbette Zabbix aracısına sahip olmalısınız ve tüm uç bağlantılarda uzak komutlar etkinleştirilmelidir.

MySQL replikasyonunun nasıl çalıştığını anlamak için, 3 düğümlü bu dairesel master-slave kurulumuna bir göz atalım.

Replication, binary log’lar aracılığıyla çalışır ve asenktronize bir şekilde zaman uyumsuz olabilir. Diyelim ki bir güncelleme veya test gerekli ve orta düğüm (düğüm: küme içerisindeki herhangi bir node) devre dışı bırakıldı, böylece ilki üzerinde çalışılabilir. Replikasyon işlemi durur ve Binary Log Retention Period’u örneğin üç güne ayarlanır ve düğüm üç gün kapalı tutulur ve ardından yeniden etkinleştirilirse, replikasyon yine de tüm düğümlere gönderilecektir. Hangi düğümün devre dışı bırakıldığı önemli değildir, replikasyon, yeniden etkinleştirmeden sonra kaldığı yerden devam edecektir.

Bu nasıl başarılabilir? Her şeyden önce kümeyi hazırlayın. Her biri ayrı bir IP’ye ve Hosts dosyasında anlamlı bir hostname’e sahip dokuz sanal makine olacaktır. Ayrıca, işleri kolaylaştırmak için kendilerine hostname adları atanmış 3 Virtual IP (VIP)’miz var.

Not. DNS veya DHCP gibi domain bileşenlerinde meydana gelebilecek sorunlara engel olabilmek için /etc/hosts dosyasına hard coded olarak ip ve hostname bilgilerinin yazılması önemlidir.

Ardından, her bir sanal makineyi aşağıdakileri ayarlayarak hazırlayın:

  • Saat senkronizasyonu (NTP);
  • Yerelleştirme;
  • Güvenlik Duvarı (ilk başta kapatmak isteyebilirsiniz daha sonra firewall kural tabanlı port yapılandırmalarını yapabilirsiniz);
  • SELinux (her zaman bir sorun çıkarıcıdır, bu yüzden onu devre dışı bırakıyoruz);
  • Hostname ve IP (/etc/hostname) hard coded olarak yazılması önemlidir;
  • Depolama (DB, logs, uygulamalar ve konfigürasyon için ayrı blok cihazları kullanmak daha iyidir);
    Tüm düğümlerde Zabbix Agent (uzak komutları etkinleştirin, uygun IP adreslerini ayarlayın).

Database cluster

Veritabanı kümesini oluşturarak başlayın. CLI’de olduğu gibi GUI’de de yapılabilir.

CLI

  1. Tüm HA bileşenlerini şu komutlardan biriyle kurun:
## HA bileşenlerini kurunuz
yum groupinstall ‘High Availability’ −y

2. Güvenli bir şifre ile hacluster kullanıcısı oluşturun:

## HA Cluster kullanıcı ve şifre tanımlaması:
echo <CLUSTER_PASSWORD> | passwd --stdin hacluster

3. Her node üzerinde kullanıcı adı ve şifresi belirlendikten sonra, HA servislerini başlatın ve aynı parolayı kullanarak nodeların kimliğini doğrulayın:

## Pacemaker, Corosync gibi HA servislerini başlatınızsystemctl start pcsd.service
systemctl enable pcsd.service
## Aynı parolayı kullanarak nodeların kimliğini doğrulayın:pcs cluster auth zabbix-ha-db1 zabbix-ha-db2 zabbix-ha-db3 -u hacluster -p zabbix123username: hacluster
password: <CLUSTER_PASSWORD>
zabbix-ha-db1: Authorized
zabbix-ha-db2: Authorized
zabbix-ha-db3: Authorized

Sonraki adımlar yalnızca bir node üzerinde yapılacaktır — nodelar pcs komutu aracılığı ile senkronize edeceği için hangisi üzerinde çalıştırıldığı önemli değildir.

  1. Veritabanı kümesini oluşturun ve kaynakları ekleyin. Bu minimum kurulumda, tek kaynağımız DB kümesi için bir VIP adresidir:
##HA cluster oluşturunpcs cluster setup — name zabbix_db_cluster zabbix−ha−db1 zabbix−ha−db2 zabbix−ha−db3 -force##Kaynak oluşturunpcs resource create virtual_ip ocf:heartbeat:IPaddr2 ip=10.1.1.146 cidr_netmask=24 nic=ens192 op monitor interval=5s — group zabbix_db_cluster

2. Tamamlandığında herhangi bir sorun olup olmadığını kontrol edin:

## check:
pcs status

Genellikle bazı problemler olacaktır. Bunları düzeltmek için, nodeların yeniden senkronize edilebilmesi ve kimlik doğrulama belirteçlerinin güncellenebilmesi için küme durdurulmalı ve yeniden başlatılmalıdır:

## Restart cluster services in case of:
## “cluster is not currently running on this node” error
pcs cluster stop −−all && pcs cluster start −−all

3. Bir güvenlik duvarı kullanılıyorsa, HA kümesi için bir istisna eklemeniz gerekir:

# in case you have a firewall:
firewall−cmd −−permanent −−add−service=high−availability && firewall−cmd −−reload

4. Kurtarma işleminden sonra kaynakların hareket etmesini önleyin:

## Prevent Resources from Moving after Recovery
pcs resource defaults resource−stickiness=100

Bu komut kümeye, kaynağın başka bir node’a taşınmış olup olmadığını söyler, böylece o node üzerinde kalabilir. Varsayılan olarak, bir node üzerinde bir kaynak etkinleştirilir ve bir şey olursa, başka birine taşınır ve sorun ortadan kalktığında geri döner. Ancak bunu istemiyoruz.

5. Ardından STONITH’i devre dışı bırakın (Shoot The Other Node In The Head). Bu, bu kurulum için zorunludur, aksi takdirde kazanırsınız ve kaynaklarınızı başlatabilirsiniz.

## if you are not using fencing disable STONITH:
pcs property set stonith−enabled=false

GUI

GUI, kümeler oluşturmak için kullanılabilir. Ana bilgisayar adlarını ve bağlantı noktalarını girmeniz gerekir ve bazı gelişmiş seçenekler de mevcuttur.

Halihazırda bir kümeniz varsa, GUI’nize gidebilir ve mevcut kümedeki düğümlerden birini ekleyebilirsiniz.

GUI'de, kümenizin bileşimini, bileşenlerin bağlı olup olmadığını ve çalışma süresini anında görebilirsiniz. Kontrol sizde ve sıralı komutlar yazmanıza gerek yok.

Pcsd Web UI ile bir Yüksek Kullanılabilirlik kümesinin nasıl yapılandırılacağı hakkında daha fazla bilgi burada bulunabilir.MariaDB installation

MariaDB Kurulumu ve Replikasyonu

Bu senaryoda MariaDB kullanıyoruz, bu yüzden MariaDB kurulumuna devam ediyoruz.

  1. MariaDB sunucusunu tüm DB nodelarına kurun:
## install MariaDB server on all 3 DB nodes:
yum install mariadb−server −y

2. DB ayarlarını yapılandırın:

## tune/configure db settings:
cp ./zabbixdb.cnf /etc/my.cnf.d/

3. MariaDB’yi başlatın ve etkinleştirin:

## Start and enable to start on boot:
systemctl start mariadb
systemctl enable mariadb

4. Kurulumu bir şifre ile emniyete alın:

## secure your installation and create <MYSQL_ROOT_PASSWORD>:
mysql_secure_installation

Bir test ortamında bu gerekli olmayacaktır, ancak işte benim yapılandırma dosyası örneğim. Zabbix DB ve Binary Logs için temel ayarlara sahibim:

cat zabbixdb.cnf
[mysqld]
# ZABBIX specific settings and tuning
default-storage-engine = InnoDB
innodb = FORCE
innodb_file_per_table = 1
innodb_buffer_pool_size = 512M # 50-75% of total RAM
innodb_buffer_pool_instances = 8 # For MySQL 5.5 - 4, for 5.6+ - 8
innodb_flush_log_at_trx_commit = 2
innodb_flush_method = O_DIRECT
innodb_io_capacity = 800 # HDD disks 500-800, SSD disks - 2000
sync-binlog = 0
query-cache-size = 0
server_id = 154 # for id settings IPs last number used
report_host = zabbix-ha-db1
log-slave-updates
log_bin = /var/lib/mysql/log-bin
log_bin_index = /var/lib/mysql/log-bin.index
relay_log = /var/lib/mysql/relay-bin
relay_log_index = /var/lib/mysql/relay-bin.index
binlog_format = mixed
binlog_cache_size = 64M
max_binlog_size = 1G
expire_logs_days = 5
binlog_checksum = crc32
max_allowed_packet = 500M

Gördüğünüz gibi, logların süresi beş gün içinde dolacak, bu nedenle bir node beş gün boyunca kapatılırsa replikasyon işlemi çalışmaya devam edecek. Elbette yeterli depolama alanı gereklidir, ancak bu işlevsellik yine de çok kullanışlıdır.
5. Yapılandırma dosyasını tüm nodelara dağıtın, sunucu kimliğini ve ana bilgisayar adını her node için uyarlayın:

## Must be set on every db node acordinglyvi /etc/my.cnf.d/zabbixdb.cnf
server_id = 154 ## Last number of IP
report_host = zabbix-ha-db1 ## Hostname

Replikasyon kurulumu: node 1

Replication is the trickiest part. I always keep my plan on a separate monitor to make sure it is properly set up. Start with node 1.

1. MySQL’de oturum açın:

## Log in to MySQL:
mysql −uroot −p <MYSQL_ROOT_PASSWORD>

2. Slave’i durdurun:

MariaDB [(none)]> STOP SLAVE;

3. Node 2'nin IP’sini sağlayan kullanıcıya replikasyon ayrıcalığını verin:

MariaDB [(none)]> GRANT REPLICATION SLAVE ON *.* TO 'replicator'@'<NODE2_IP>' identified by '<REPLICATOR_PASSWORD>'

3. Master durumunu kontrol ediniz.

MariaDB [(none)]> SHOW MASTER STATUS\G

File ve Position hakkındaki ayrıntıları daha sonrası için kaydedin. Az sonra ihtiyacımız var.

Replikasyon kurulumu: node 2

4. Node 2'ye gidin. Tekrar oturum açın, slave’i durdurun ve ardından ana Master ayarlamalarını değiştirin:

## Log in to MySQL: 
mysql −uroot −p<MYSQL_ROOT_PASSWORD>
STOP SLAVE;CHANGE MASTER TO MASTER_HOST = '<NODE1_IP>', MASTER USER = '<REPLICATOR_PASSWORD>', MASTER_LOG_FILE = 'log−bin.000001', MASTER_LOG_POS = 245

Bu komut, master db’yi node 2'e bildirir ve node 1'i slave olarak node 2'ye tanıtacaktır. Ayrıca, önceki adımdaki master_log_file ve konumu replikasyon senkronizasyonu sağlayacaktır.

5. Güvenli bir parola ile Node 3'e replikasyon ayrıcalığı verin:

GRANT REPLICATION SLAVE ON *.* TO 'replicator'@'<NODE3_IP>' identified by '<REPLICATOR_PASSWORD>'

6. Bu noktada, MASTER node’de reset edilir.

RESET MASTER

7. Ardından, slave’i başlatın ve tekrar slave durumunu kontrol edin.

START SLAVE;
SHOW SLAVE STATUS\G

Gördüğünüz gibi 0 hata var. Ayrıca, “Waiting for master to send event” yazıyorsa, kurulumun başarılı olduğu anlamına gelir. Aksi takdirde, bazı hata ayıklama işlemleri gerekebilir, bu genellikle yanlış bir IP adresi veya DNS adıdır.

8. Node 2 ile devam edin ve MASTER status bilgilerinde yer alan log-bin doyasının ve pozisyon bilgileri ayrı bir text editor’e kayıt edin bir sonraki adımda senkranizasyon bağlantısı tekrar ihtiyacımız olacak :

Replication setup: node 3

9. Node 3 için adımları tekrarlayın:

## Log in to MySQL: 
mysql −uroot −p<MYSQL_ROOT_PASSWORD>
STOP SLAVE;CHANGE MASTER TO MASTER_HOST = '<NODE2_IP>', MASTER_USER = '<replicator>', MASTER_PASSWORD = '<REPLICATOR_PASSWORD>', MASTER_LOG_FILE='log−bin.000001', MASTER_LOG_POS = 245;GRANT REPLICATION SLAVE ON *.* TO 'replicator'@'<NODE1_IP>' identified by '<REPLICATOR_PASSWORD>';RESET MASTER;
START SLAVE;

10. Node 1'i Node 3 için slave olarak ayarlayın. Slave durumunu kontrol edin.

Waiting for master to send event” yazıyorsa, kurulumun başarılı olduğu anlamına gelir.

11. Node 3 için MASTER STATUS kontrol edin.

12. Node 1 için aynı komutları kullanın:

STOP SLAVE;
CHANGE MASTER TO MASTER_HOST ='<NODE3_IP>', MASTER_USER = 'replicator', MASTER_PASSWORD = '<REPLICATOR_PASSWORD>', MASTER_LOG_FILE='log-bin.000001', MASTER_LOG_POS =245;
START SLAVE;
SHOW SLAVE STATUS\G

Döngüsel kurulum bu şekilde yapılır. Artık üç nodedan herhangi birine gidebilir, istediğiniz SQL sorgularını yapabilirsiniz ve bunlar diğer tüm nodelara kopyalanacaktır.

Zabbix database preparation

Sonraki adım, bir Zabbix veritabanı ve bir kullanıcı oluşturmaktır:

## Login to mysql and create zabbix db/user:
create database zabbix character set utf8 collate utf8_bin;
grant all privileges on zabbix.* to zabbix@'%' identified by '<DB_ZABBIX_PASS>'; quit

Note. Utf8 ve collation ayarlarını unutmayınız.

Sunucunuz ve web arayüzü için ayrı kullanıcılar oluşturmanız gerekebilir, ancak bir test ortamında ben de aynısına bağlı kalacağım. Ve tabii ki şemayı almamız gerekiyor. Zabbix sunucu nodelarında elde edilebilen temel ayarlar ve schemalar bu dosyada yer almaktadır. Herhangi bir DB node’da /root dizini altına scp ile kopyaladıktan sonra mysql’e çıkarınız.

## upload db schema and basic conf: 
## create.sql.gz copied from main zabbix server
## located in /usr/share/doc/zabbix-server-mysql-*/create.sql.gz
zcat create.sql.gz | mysql -uzabbix -p zabbix

Not. Aşağıdaki komutlar, DB kümesinde hata ayıklamak için kullanışlıdır:

SHOW BINARY LOGS;SHOW SLAVE STATUS;show master status\gRESET MASTER;	## removes all binary log files that are listed in the index file, leaving 		## only a single, empty binary log file with a numeric suffix of .000001RESET MASTER TO 1234;	## reset to specific binary log positionPURGE BINARY LOGS BEFORE '2019-10-11 00:20:00';
## Numbering is not reset, may be safely used while replication ## slaves are running.
flush binary logs; ## Will reset state of binary logs and restarts numbering

Zabbix Server Cluster Kurulumu

DB kümesi kurulumu tamamlandığında, sunucu kümesini oluşturmaya devam edin.

1. Tekrar, HA bileşenlerini kurun ve ardından küme kullanıcısını oluşturun:

## Install HA components: 
yum groupinstall ha –y
## Create user for cluster:
echo zabbix123 | passwd --stdin hacluster

2. Zabbix arka plan programının daemon dosyalarını kurun. Ancak başlatmanıza veya etkinleştirmenize gerek yoktur — HA bununla ilgilenecektir.

yum install −y zabbix−server

3. Zabbix sunucu yapılandırma dosyası zaten hazırlanmıştır ve değiştirilebilir:

## Copy default zabbix_server.conf file:
cp zabbix_server.conf /etc/zabbix/zabbix_server.conf
## and modify acordingly
vi zabbix_server.conf

Her şeyden önce, kaynak IP adresini değiştirin - VIP adresini şuraya girin:

SourceIP=10.1.1.144 #VIP for zabbix-server cluster

DBHost için, DB kümesindeki VIP adresini kullanın. Ve elbette, tüm sunucu düğümlerinde dağıtılması gereken bir DB şifresi vardır:

DBHost=10.1.1.146
DBName=zabbix
DBUser=zabbix
DBPassword=<DB_ZABBIX_PASS>

4. Nodeların kimliğini doğrulayın:

pcs cluster auth zabbix-ha-db1 zabbix-ha-db2 zabbix-ha-db3
username: hacluster
password: <CLUSTER_PASSWORD>

5. Sunucu kümesini oluşturun:

pcs cluster setup --name zabbix_server_cluster \
zabbix-ha-srv1 zabbix-ha-srv2 zabbix-ha-srv3 --force

6. Fencing için STONITH’i devre dışı bırakın:

pcs property set stonith-enabled=false

7. Sertifikaları ve bildirimleri yeniden yüklemek için kümeyi yeniden başlatın:

pcs cluster stop --all && pcs cluster start --all

8. Geçiş manuel olarak yapılırsa VIP adresi ve Zabbix sunucusu binary dosyalarının belirli bir nodeda başlatılması için yine stickiness ayarını açın:

pcs resource defaults resource-stickiness=100

9. Kaynakları tanıtın. Öncelikle VIP adresi:

pcs resource create virtual_ip_server ocf:heartbeat:IPaddr2 ip=10.1.1.144 op monitor interval=5s --group zabbix_server_cluster

Ardından, Zabbix server daemon:

pcs resource create ZabbixServer systemd:zabbix−server op monitor interval=10s −−group zabbix_server_cluster

İki Zabbix deamon’u aynı anda çalışamaz, bu nedenle belirli bir Zabbix sunucusunun yalnızca bir nodeda çevrimiçi olduğundan emin olmanız gerekir.
10. Hem VIP hem de sunucu deamon servisinin için yalnızca aynı nodeda çalışabilmesi için kaynaklarda collocation değerlerini ayarlayın:

## Add colocation: resources must run on same node:
pcs constraint colocation add virtual_ip_server ZabbixServer INFINITY −force

11. VIP’nin Zabbix deamon servisinden önce başladığından emin olun, aksi takdirde kilitlenir:

## in specific order:
pcs constraint order virtual_ip_server then ZabbixServer

12. Kaynaklar için zaman aşımı ayarlarını belirleyin:

## Set start/stop timeout operations
pcs resource op add ZabbixServer start interval=0s timeout=60s
pcs resource op add ZabbixServer stop interval=0s timeout=120s

13. Küme durumunu kontrol edin:

pcs status

Küme adını, yığını ve kaynakların çalıştığı nodelar ve tabii ki kaynakların kendisini göreceksiniz.

Front End Cluster Kurulumu

Front end cluster kurulumu server cluster kurulumuna benzerdir.

  1. HA bileşenlerini kurun, bir kullanıcı oluşturun ve ardından Zabbix front end paketlerini kurun. Manuel olarak başlatmayın veya etkinleştirmeyin.
## Install HA components: 
yum groupinstall ha –y
## Create user for cluster:
echo zabbix123 | passwd --stdin hacluster
## install zabbix frontend:
yum install -y zabbix-web-mysql

2. Sunucu Cluster Nodeları ve DB Cluster Nodeları için VIP’ler ile front end sunucularına entegrasyonu için yapılandırma dosyasını hazırlayın. Aynı konumdaki tüm front end nodelarına dağıtın.

## Prepare zabbix-FE config:
cat /etc/zabbix/web/zabbix.conf.php
$DB['TYPE'] = 'MYSQL';
$DB['SERVER'] = '10.1.1.146';
$DB['PORT'] = '0';
$DB['DATABASE'] = 'zabbix';
$DB['USER'] = 'zabbix';
$DB['PASSWORD'] = 'zabbix123';
...
$ZBX_SERVER = '10.1.1.144';
$ZBX_SERVER_PORT = '10051';
$ZBX_SERVER_NAME = 'ZABBIX-HA';
## Deploy to all FE nodes on same location: /etc/zabbix/web/

3. Apache sunucusunun durumunu izlemek için Apache’de bir sanal host oluşturun:

## create resource for apache Enable the server-status page.vi /etc/httpd/conf.d/serverstatus.confListen 127.0.0.1:8080
RewriteEngine Off
SetHandler server-status
Allow from 127.0.0.1
Order deny,allow
Deny from all
</Location>
</VirtualHost>

4. Apache’yi front end cluster VIP’sini dinleyecek şekilde yapılandırın:

## set apache to listen only on VIPvi /etc/httpd/conf/httpd.conf +/Listen 80## change to:
...
Listen 10.1.1.147:80
...

Veya başka bir seçenek daha var tüm IP adreslerini içeren varsayılan Apache dinleme ayarları kalabilir ve tüm nodeların etkin olacağı anlamına gelen bir master-master-master (active-active) kurulum kullanabilirsiniz. Ancak bu bazı zorluklara neden olabilir.

5. Küme nodelarının kimliğini doğrulayın:

pcs cluster auth zabbix−he−fe1 zabbix−ha−fe2 zabbix−ha−fe3
username: hacluster
password: <CLUSTER_PASSWORD>

6. Kümeyi oluşturun:

pcs cluster setup −−name zabbix_fe_cluster \
zabbix−ha−fe1 zabbix−ha−fe2 zabbix−ha−fe3 −−force

7. Ardından yeniden başlatın ve STONITH’i devre dışı bırakın:

pcs cluster stop --all && pcs cluster start –allpcs property set stonith-enabled=false

8. Kaynakları tanıtın. Yine öncelilkli olarak VIP geliyor:

pcs resource create virtual_ip_fe ocf:heartbeat:IPaddr2 ip=10.1.1.147 op monitor interval=5s −−group zabbix_fe_cluster

İkinci kaynak, Apache hizmetinin kontrolüdür:

pcs resource create zabbix_fe ocf:heartbeat:apache \
configfile=/etc/httpd/conf/httpd.conf \
statusurl="http://localhost:8080/server−status" op \
monitor interval=30s −−group zabbix_fe_cluster

Bir sonraki node’a geçtiğimizde, Apache belirli bir node üzerinde başlatılacaktır.

9. Collocation ayarlarını yapılandırın (VIP ve Apache aynı node üzerinde çalışmalıdır):

pcs constraint colocation add virtual_ip_fe INFINITY

10. Önce hangi kaynağın başlayacağını yapılandırın:

## in specific order:
pcs constraint order virtual_ip_fe then zabbix_fe

11. Kaynak yapışkanlığını açın:

pcs resource defaults resource-stickiness=100

12. Başlatma / durdurma zaman aşımı işlemlerini ayarlayın:

pcs resource op add zabbix_fe start interval=0s timeout=60s
pcs resource op add zabbix_fe stop interval=0s timeout=120s

Özet

Tebrikler! HA Zabbix Cluster ortamınız şu an hazır. Basit, değil mi? Pekala, belki tam olarak değil. Minumum isterler ile HA Zabbix Cluster kurulumu gerçekleştirdiniz.Şimdi production ortam için ideal’e yakın bir yapı oluşturdunuz.
Red Hat documentation ve ClusterLabs, bu konu hakkında bilgiye ihtiyacınız varsa faydalı olacaktır. Daha fazla detay için www.gantek.com (Zabbix Resmi Partneri) adresinden bize erişebilirsiniz.

Örnek Donanım Gereksinimleri

Önerilen Donanım Gereksinimleri

Platform Desteği

Referanslar:

--

--

Mesut Yilmaz
Mesut Yilmaz

Written by Mesut Yilmaz

DevOps and Security Articles | Open Technologies | Copyright ©2021 Mesut Yilmaz, Inc. All rights reserved.

Responses (1)