Task 04에서는 설정은 변경 한 Cluster를 테스트하여 시나리오에 따라 정상 동작 하는지 확인합니다.
Session Manager를 통해 prihana에 접속합니다.
AWS Management Console에 로그인 한 뒤 EC2 Instance Console에 접속 합니다.
HANA-HDB-Primary 인스턴스를 선택하고, Action을 선택하고, Connect을 선택 합니다.
Session Manager 를 선택하고, Connect 버튼을 누릅니다.
hdbadm 유저로 스위치 합니다. HDB DB를 Kill 합니다.
sudo su - hdbadm
HDB kill -9
exit
sudo su -
crm_mon -rfn1
SAPHanaSR-showAttr
두번째 시나리오는 prihana의 OS를 crash 했을 때, Cluster가 어떻게 동작 하는지 확인 합니다.
sudo su -
echo 'b' > /proc/sysrq-trigger
exit
Session Manager를 통해 sechana에 접속합니다.
sechana에서 Cluster 상태를 모니터링 합니다. 리소스 상태가 어떻게 변했는지 확인 합니다.
sudo su -
crm_mon -rfn
sudo su - hdbadm
cat /usr/sap/HDB/SYS/global/hdb/custom/config/global.ini
prihana 원복 합니다. 그리고 prihana가 정상이면, QAS 시스템 사용을 위해 Take Back을 수행합니다. sechana의 HDB의 global.ini 설정을 원복합니다.
prihana 인스턴스를 Start 시킵니다.
sechana에서 root 유저로 스위치 후, prihana 인스턴스가 정상적으로 기동 후 HDB HANA 리소스가 Slave 로 보이는지 확인합니다.
sudo su -
crm_mon -rfn1
SAPHanaSR-showAttr
crm node standby sechana
crm_mon -rfn1
sudo su - hdbadm
vi /usr/sap/HDB/SYS/global/hdb/custom/config/global.ini
[system_replication]
...
preload_column_tables = false #Add-on
[memorymanager]
global_allocation_limit = 24576
sudo su -
crm node online sechana
crm_mon -rfn1
SAPHanaSR-showAttr