PXC(Percona XtraDB Cluster)叢集安裝

svoid發表於2016-04-03

Percona XtraDB Cluster簡介

Percona XtraDB Cluster是MySQL高可用性和可擴充套件性的解決方案,Percona XtraDB Cluster完全相容MySQL和Percona Server。
Percona XtraDB Cluster提供的特性有:

  • 同步複製,事務要麼在所有節點提交或不提交。
  • 多主複製,可以在任意節點進行寫操作。
  • 在從伺服器上並行應用事件,真正意義上的並行複製。
  • 節點自動配置。
  • 資料一致性,不再是非同步複製。
pxc優點:
  • 當執行一個查詢時,在本地節點上執行。因為所有資料都在本地,無需遠端訪問。
  • 無需集中管理。可以在任何時間點失去任何節點,但是叢集將照常工作。
  • 良好的讀負載擴充套件,任意節點都可以查詢。
pxc缺點:
  • 加入新節點,開銷大。需要複製完整的資料。
  • 不能有效的解決寫縮放問題,所有的寫操作都將發生在所有節點上。
  • 有多少個節點就有多少重複的資料。

Percona XtraDB Cluster侷限性

  • 目前的複製僅僅支援InnoDB儲存引擎。任何寫入其他引擎的表,包括mysql.*表將不會複製。但是DDL語句會被複制的,因此建立使用者將會被複制,但是insert into mysql.user…將不會被複制的。
  • DELETE操作不支援沒有主鍵的表。沒有主鍵的表在不同的節點順序將不同,如果執行SELECT…LIMIT… 將出現不同的結果集。
  • 在多主環境下LOCK/UNLOCK TABLES不支援。以及鎖函式GET_LOCK(), RELEASE_LOCK()…
  • 查詢日誌不能儲存在表中。如果開啟查詢日誌,只能儲存到檔案中。
  • 允許最大的事務大小由wsrep_max_ws_rows和wsrep_max_ws_size定義。任何大型操作將被拒絕。如大型的LOAD DATA操作。
  • 由於叢集是樂觀的併發控制,事務commit可能在該階段中止。如果有兩個事務向在叢集中不同的節點向同一行寫入並提交,失敗的節點將中止。對於叢集級別的中止,叢集返回死鎖錯誤程式碼(Error: 1213 SQLSTATE: 40001 (ER_LOCK_DEADLOCK)).
  • XA事務不支援,由於在提交上可能回滾。
  • 整個叢集的寫入吞吐量是由最弱的節點限制,如果有一個節點變得緩慢,那麼整個叢集將是緩慢的。為了穩定的高效能要求,所有的節點應使用統一的硬體。
  • 叢集節點建議最少3個。
  • 如果DDL語句有問題將破壞叢集。

安裝Percona XtraDB 叢集

  1. shell> tar zxvf Percona-XtraDB-Cluster-5.6.22-72.0.tar.gz
  2. shell> cd Percona-XtraDB-Cluster-5.6.22-72.0
  3. 安裝依賴包
  4. shell> yum install cmake gcc gcc-c++ libaio libaio-devel automake autoconf bzr bison libtool ncurses5-devel
  5. shell> BUILD/compile-pentium64
  6. 預設安裝路徑/usr/local/mysql/
  7. shell> make && make install
  8. shell> rpm -ivh Percona-XtraDB-Cluster-galera-3-3.14-1.rhel6.x86_64.rpm
  9. 建立資料檔案目錄
  10. shell> mkdir -p /data/pxc
  11. shell> mv /usr/local/mysql/ /opt/pxc
  12. shell> chown -R mysql.mysql /opt/pxc
  13. shell> chown -R mysql.mysql /data/pxc

配置節點node1:

  1. shell> more /opt/pxc/my.cnf
  2. [mysqld]
  3. socket=/tmp/mysql-node1.sock
  4. port=3307
  5. datadir=/data/pxc
  6. user=mysql
  7. binlog_format=ROW
  8. default-storage-engine=innodb
  9. innodb_autoinc_lock_mode=2
  10. innodb_locks_unsafe_for_binlog=1
  11. query_cache_size=0
  12. query_cache_type=0
  13. bind-address=0.0.0.0
  14. wsrep_provider=/usr/lib64/libgalera_smm.so
  15. wsrep_cluster_address=gcomm://10.106.58.211,10.106.58.212,10.106.58.213
  16. wsrep_cluster_name=my_wsrep_cluster
  17. wsrep_slave_threads=1
  18. wsrep_certify_nonPK=1
  19. wsrep_max_ws_rows=131072
  20. wsrep_max_ws_size=1073741824
  21. wsrep_debug=1
  22. wsrep_convert_LOCK_to_trx=0
  23. wsrep_retry_autocommit=1
  24. wsrep_auto_increment_control=1
  25. wsrep_causal_reads=0
  26. #wsrep_notify_cmd=
  27. # SST method
  28. #wsrep_sst_method=xtrabackup-v2
  29. wsrep_sst_method=rsync
  30. # Authentication for SST method
  31. #wsrep_sst_auth="sstuser:s3cret"
  32. # Node #1 address
  33. wsrep_node_address=10.106.58.211
  34. server-id = 1

啟動node1:

  1. shell> /opt/pxc/scripts/mysql_install_db --basedir=/opt/pxc/ --datadir=/data/pxc/ \
  2. --user=mysql --defaults-file=/opt/pxc/my.cnf
  3. shell> /opt/pxc/bin/mysqld_safe --defaults-file=/opt/pxc/my.cnf --wsrep-new-cluster &
  4. shell> /opt/pxc/bin/mysql -u root -S /tmp/mysql-node1.sock
  5. mysql> delete from mysql.user where user = '';
  6. mysql> GRANT RELOAD, LOCK TABLES, REPLICATION CLIENT ON *.* TO sstuser@'localhost' identified by 's3cret';
  7. mysql> flush privileges;

配置啟動節點node2、node3:

node2、node3配置啟動同理。

  1. [mysqld]
  2. socket=/tmp/mysql-node1.sock
  3. wsrep_node_address=10.106.58.212
  4. server-id = 2
  5. shell> /opt/pxc/bin/mysqld_safe --defaults-file=/opt/pxc/my.cnf &

檢查pxc狀態

  1. mysql> show status like 'wsrep%';
  2. +------------------------------+----------------------------------------------------------+
  3. | Variable_name | Value |
  4. +------------------------------+----------------------------------------------------------+
  5. | wsrep_local_state_uuid | 17b9d472-5ace-11e5-b22f-ab14cb9dcc7b |
  6. | wsrep_protocol_version | 7 |
  7. | wsrep_last_committed | 7 |
  8. | wsrep_replicated | 0 |
  9. | wsrep_replicated_bytes | 0 |
  10. | wsrep_repl_keys | 0 |
  11. | wsrep_repl_keys_bytes | 0 |
  12. | wsrep_repl_data_bytes | 0 |
  13. | wsrep_repl_other_bytes | 0 |
  14. | wsrep_received | 3 |
  15. | wsrep_received_bytes | 311 |
  16. | wsrep_local_commits | 0 |
  17. | wsrep_local_cert_failures | 0 |
  18. .
  19. | wsrep_incoming_addresses | 10.106.58.213:3307,10.106.58.212:3307,10.106.58.211:3307 |
  20. | wsrep_evs_delayed | |
  21. | wsrep_evs_evict_list | |
  22. | wsrep_evs_repl_latency | 0/0/0/0/0 |
  23. | wsrep_evs_state | OPERATIONAL |
  24. | wsrep_gcomm_uuid | c21183b0-5acf-11e5-930d-9bfcbb0bb24c |
  25. | wsrep_cluster_conf_id | 5 |
  26. | wsrep_cluster_size | 3 |
  27. | wsrep_cluster_state_uuid | 17b9d472-5ace-11e5-b22f-ab14cb9dcc7b |
  28. | wsrep_cluster_status | Primary |
  29. | wsrep_connected | ON |
  30. | wsrep_local_bf_aborts | 0 |
  31. | wsrep_local_index | 2 |
  32. | wsrep_provider_name | Galera |
  33. | wsrep_provider_vendor | Codership Oy <info@codership.com> |
  34. | wsrep_provider_version | 3.11(r93aca2d) |
  35. | wsrep_ready | ON |
  36. +------------------------------+----------------------------------------------------------+
  37. 58 rows in set (0.01 sec)

簡單測試pxc

  1. mysql@node1> create database svoid;
  2. Query OK, 1 row affected (0.00 sec)
  3. mysql@node2> use svoid
  4. Database changed
  5. mysql@node2> create table test(id int);
  6. Query OK, 0 rows affected (0.01 sec)
  7. mysql@node3> use svoid
  8. Database changed
  9. mysql@node3> show tables;
  10. +-----------------+
  11. | Tables_in_svoid |
  12. +-----------------+
  13. | test |
  14. +-----------------+
  15. 1 row in set (0.00 sec)
  16. mysql@node3> insert into test select 1;
  17. Query OK, 1 row affected (0.01 sec)
  18. Records: 1 Duplicates: 0 Warnings: 0
  19. mysqlnode2> update test set id = 2 where id = 1;
  20. Query OK, 1 row affected (0.01 sec)
  21. Rows matched: 1 Changed: 1 Warnings: 0
  22. mysqlnode1> alter table test add primary key(id);
  23. Query OK, 1 row affected (0.02 sec)
  24. Records: 1 Duplicates: 0 Warnings: 0
  25. mysqlnode1> select * from test;
  26. +----+
  27. | id |
  28. +----+
  29. | 2 |
  30. +----+
  31. 1 row in set (0.00 sec)
  32. 模擬故障node1當機
  33. shell> /opt/pxc/bin/mysqladmin -S /tmp/mysql-node1.sock -u root shutdown
  34. mysqlnode2> insert into test select 1;
  35. Query OK, 1 row affected (0.00 sec)
  36. Records: 1 Duplicates: 0 Warnings: 0
  37. mysqlnode2> insert into test select 3;
  38. Query OK, 1 row affected (0.00 sec)
  39. Records: 1 Duplicates: 0 Warnings: 0
  40. 啟動node1
  41. shell> /opt/pxc/bin/mysqld_safe --defaults-file=/opt/pxc/my.cnf &
  42. mysqlnode1> select * from test;
  43. +----+
  44. | id |
  45. +----+
  46. | 1 |
  47. | 2 |
  48. | 3 |
  49. +----+
  50. 3 rows in set (0.00 sec)
  51. 可以看出其中一個節點故障不影響其他節點正常使用,啟動節點後會自動同步資料

參考:
http://www.ttlsa.com/mysql/mysql-high-availability-with-nginx-and-galera/
http://www.ttlsa.com/mysql/mysqlgalera-multi-master/





來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29733787/viewspace-2074784/,如需轉載,請註明出處,否則將追究法律責任。

相關文章