postgresql与slony1-2.1.1远程同步数据库



postgresql与slony1-2.1.1远程同步数据库

借鉴了好多别人的经验,只供参考。

一、 安装 slony1 数据同步工具(主从都需要安装)
1.解压,命令 tar -xvjf slony1-2.1.1.tar.bz2
2.这里配置是会出错,当pgconfig 找不到共享文档时。报的错误是检测到版本小于7.3。安装postgresql-devel 包

yum install postgresql-devel

如下编译即可
进入对应的 slony1-2.1.1 目录 ,命令 :cd slony1-2.1.1
./configure  –with-pgpkglibdir=/opt/postgresql/8.4/lib/postgresql
3.gmake,命令: gmake
注意,是 gmake
4.安装,命令 gmake install

如果成功会有成功提示。
5. 从数据库服务器
和主数据库服务器的安装方式一致。(其实将主的直接COPY过来就可以的)

1.3.3 建立数据库和数据表
以下以在主数据库服务器上建立主数据库和数据表 test 为例见解,其他数据库和数据表请参考建立.
/usr/local/pgsql/bin/createdb  test
/usr/local/pgsql/bin/psql -f /home/hzh/share/sql.txt  -dtest -Ussuser 

sql.txt 文件最好是 UTF-8 格式,特别是存在中文字符时)
例:sql.txt
CREATE TABLE tb_depart(Id int primary key,Name char();

在从数据库服务器上建立与主数据库服务器上相同的数据库test

1.4 配置同步
1.4.1. 主机配置
以下脚本都是在slave上的。
slony_0.sh文件内容如下:

  1. #!/bin/sh
  2. /usr/local/pgsql/bin/slonik << _END_
  3. #
  4. # Define cluster namespace and node connection information
  5. #
  6. #集群名称
  7. cluster name = testdb;
  8. # 定义复制节点
  9. node 1 admin conninfo = ‘dbname=test host=192.168.30.101 port=5432 user=ssuser’;
  10. node 2 admin conninfo = ‘dbname=test host=localhost port=5432 user=ssuser’;
  11. DROP SET (id=1, origin=1);
  12. uninstall node (id=1);
  13. uninstall node (id=2);
  14. echo ‘Drop testdb set’;
  15. _END_

复制代码


slony_1.sh文件内容如下:

  1. #!/bin/sh
  2. /usr/local/pgsql/bin/slonik << _END_
  3. cluster name = testdb;
  4. # 定义复制节点
  5. node 1 admin conninfo = ‘dbname=test host=192.168.30.101 port=5432 user=ssuser’;
  6. node 2 admin conninfo = ‘dbname=test host=localhost port=5432 user=ssuser’;
  7. echo ‘Cluster defined, nodes identified’;
  8. # 初始化集群,id从1开始
  9. init cluster (id=1, comment=’Master Node’);
  10. # 设置存储节点
  11. store node (id=2, comment=’Slave Node’);
  12. echo ‘Nodes defined’;
  13. # 设置存储路径
  14. store path (server=1, client=2, conninfo=’dbname=test host=192.168.30.101 port=5432 user=ssuser’);
  15. store path (server=2, client=1, conninfo=’dbname=test host=localhost port=5432 user=ssuser’);
  16. #设置侦听事件和订阅方向,复制中角色,主节点是原始提供者,从节点是接受者
  17. store listen (origin=1, provider = 1, receiver =2);
  18. store listen (origin=2, provider = 2, receiver =1);
  19. _END_

复制代码

slony_2.sh文件内容如下:

  1. #!/bin/sh
  2. /usr/local/pgsql/bin/slonik << _END_
  3. #
  4. # Define cluster namespace and node connection information
  5. #
  6. cluster name = testdb;
  7. node 1 admin conninfo = ‘dbname=test host=192.168.30.101 port=5432 user=ssuser’;
  8. node 2 admin conninfo = ‘dbname=test host=localhost port=5432 user=ssuser’;
  9. # 设置参与同步的数据表
  10. #先创建一个复制集,id也是从1开始
  11. #向自己的复制集种添加表,每个需要复制的表一条set命令
  12. #id从1开始,逐次递加,步进为1;
  13. #fully qualified name是表的全称:模式名.表名
  14. #这里的复制集id需要和前面创建的复制集id一致
  15. #假如某个表没有主键,但是有唯一键字,那么可以用key关键字
  16. #指定其为复制键字,如下面的key参数
  17. #set add table ( set id = 1, origin = 1,id = 4, fully qualified name = ‘public.history’,key = “column”,comment = ‘Table history’ );
  18. #对于没有唯一列的表,需要这样处理,这一句放在 create set 的前面
  19. #table add key (node id = 1, fully qualified name = ‘public.history’);
  20. # 这样设置结果集
  21. #set add table (set id=1, origin=1, id=4, fully qualified name = ‘public.history’, #comment=’history table’, key = serial);
  22. create set (id=1, origin=1, comment=’testdb tables’);
  23. set add table ( set id=1, origin=1,id=1, fully qualified name=’public.tb_depart’,comment=’Table tb_depart’ );
  24. set add table ( set id=1, origin=1,id=2, fully qualified name=’public.tb_user’,comment=’Table tb_user’ );
  25. set add table ( set id=1, origin=1,id=3, fully qualified name=’public.tb_manager’,comment=’Table tb_manager’ );
  26. set add table ( set id=1, origin=1,id=4, fully qualified name=’public.tb_test’,comment=’Table tb_test’ );
  27. echo ‘set 1 of testdb tables created’;
  28. _END_

复制代码

slony_3.sh文件内容如下:

  1. #/bin/sh
  2. /usr/local/pgsql/bin/slon testdb “dbname=test host=192.168.30.101 port=5432 user=ssuser” > ~/slon_gb_1.out 2>&1 &
  3. /usr/local/pgsql/bin/slon testdb “dbname=test host=localhost port=5432 user=ssuser” > ~/slon_gb_2.out 2>&1 &
  4. /usr/local/pgsql/bin/slonik << _END_
  5. #
  6. # Define cluster namespace and node connection information
  7. #
  8. cluster name = testdb;
  9. #提供连接参数
  10. node 1 admin conninfo = ‘dbname=test host=192.168.30.101 port=5432 user=ssuser’;
  11. node 2 admin conninfo = ‘dbname=test host=localhost port=5432 user=ssuser’;
  12. # 提交订阅复制集
  13. subscribe set (id=1, provider=1, receiver=2, forward=no);
  14. echo ‘set 1 of gb tables subscribed by node 2′;
  15. _END_

复制代码

slony_main.sh文件内容如下:

  1. #!/bin/sh
  2. case $1 in
  3.         start)
  4.                 cd /home/postgre/slony
  5.                 sh slony_3.sh
  6.                 ;;
  7.         stop)
  8.                 killall -KILL slon
  9.                 ;;
  10.         rebuild) 
  11.                 cd /home/postgre/slony
  12.                 killall -KILL slon
  13.                 sh slony_0.sh >> /dev/null 2>&1
  14.                 sh slony_1.sh
  15.                 sh slony_2.sh
  16.                 sh slony_3.sh
  17.                 ;;
  18.         *)
  19.                 echo “Please input start or stop or rebuild!!”
  20.                 ;;
  21. esac

复制代码

在从数据库服务器上执行slony_main.sh
可以建立同步,数据库更改后重建同步。
Rebuild错误处理
错误
[postgre@exper2 slony]$ ./slony_main.sh rebuild
<stdin>:4: Cluster defined, nodes identified
<stdin>:6: Error: namespace “_testdb” already exists in database of node 1
<stdin>:6: ERROR: no admin conninfo for node 158941536
<stdin>:8: PGRES_FATAL_ERROR select “_testdb”.storeSet(1, ‘testdb tables’);  - ERROR:  duplicate key violates unique constraint “sl_set-pkey”
CONTEXT:  SQL statement “insert into “_testdb”.sl_set (set_id, set_origin, set_comment) values ( $1 ,  $2 ,  $3 )”
PL/pgSQL function “storeset” line 13 at SQL statement
<stdin>:9: set 1 of gb tables subscribed by node 2

处理

#psql test
test=# drop SCHEMA _testdb CASCADE ;
VACUUM ANALYZE

或者再重新执行一次就可以了。。。