暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

AIX7.2部署Oracle19cRAC(共享存储采用NFS方式)

云和数据的彼端 2021-04-08
1141

AIX7.2

7200-04-02-2028

Oracle19c


rac节点ip规划

192.168.123.202  aix19cnode1

192.168.123.212  aix19cnode1-vip

172.16.9.12         aix19cnode1-priv

192.168.123.203  aix19cnode2

192.168.123.213  aix19cnode2-vip

172.16.9.13         aix19cnode2-priv

192.168.123.210  rac-scan




共享存储NFS服务器配置

创建oracle用户和grid用户要求aix数据库服务器的dba用户id一致

dba用户组要求和aix数据库服务器的dba用户组id一致

nfs服务器

groupadd -g 300 dba

useradd -m -u 311 -g dba  -d /home/grid -s /bin/bash -c "Grid Infrastructure Owner" grid

useradd -m -u 301 -g dba  -d /home/oracle -s /bin/bash -c "Oracle Software Owner" oracle


aix服务器节点

## 创建dba组

mkgroup -'a' id='300' admin=false projects='System'  dba


## grid 用户及属性

mkuser id='311' admin=true  pgrp='dba' groups='dba' admgroups='dba' home='/home/grid' grid

chuser capabilities=CAP_BYPASS_RAC_VMM,CAP_PROPAGATE,CAP_NUMA_ATTACH,CAP_BYPASS_RAC_VMM grid

chown -R grid:dba /home/grid


## oracle 用户及属性

mkdir /home/oracle

mkuser id=301 admin=true pgrp=dba groups=dba admgroups=dba home=/home/oracle shell=/usr/bin/ksh oracle

chuser capabilities=CAP_BYPASS_RAC_VMM,CAP_PROPAGATE,CAP_NUMA_ATTACH,CAP_BYPASS_RAC_VMM oracle 

chown -R oracle:dba /home/oracle



添加磁盘

添加第二块磁盘

parted  /dev/sdb

 查看:(parted)p

将磁盘格式变成gpt的格式(因为parted只能针对gpt格式的磁盘进行操作)

mklabel  gpt

mkpart  primary 0 nG

查看:(parted) p

退出:(parted)quit             ( parted分区自动保存,不用手动保存 )


lvm管理

linux上创建PV/VG/LV


LVM的整体思路是:

首先创建PV-->然后创建VG并将多个PV加到VG里-->然后创建LV-->格式化分区-->mount分区


创建物理卷PV

--对裸盘创建pv

pvcreate /dev/sdb

--对分区创建pv

pvcreate /dev/sdb1


创建完成后可以查看一下

pvs

pvdisplay /dev/sdb1


创建卷组VG

使用vgcreate创建卷组VG,并且此处可以-s选项指定PE(LE)的大小,(默认PE大小4M)

vgcreate vg1 /dev/sdb1

vgcreate -s 16M vg2 /dev/sdb2

--创建VG并将多个PV加到VG

vgcreate vg_test /dev/sdb /dev/sdc

创建完成后查看一下

vgs

vgdisplay vg1

注意:PE大,读取速度快,但浪费空间。反之,读取速度慢,但节省空间。类似于socket


创建逻辑卷LV

使用lvcreate创建LV。lvcreate -n lvname -L lvsize(M,G)|-l LEnumber vgname

lvcreate -n lv1 -L 64M vg1

lvcreate -n lv2 -L 10G vg1

lvs


格式化与挂载

mkfs.ext4 /dev/vg1/lv1

mkfs.ext4 /dev/vg1/data1


mount分区

mkdir /data

echo "/dev/vg_test/lv_test  /data      ext4    defaults        0 0" >> /etc/fstab


整体处理开机自动挂载

mkdir /ocr1

mkdir /ocr2

mkdir /ocr3

mkdir /vot1

mkdir /vot2

mkdir /vot3

mkdir /date1

mkdir /date2

mkdir /date3

mkdir /date4

mkdir /date5

mkdir /date6


修改目录用户属组和权限

chown  -R grid:dba  /ocr1

chown  -R grid:dba  /ocr2

chown  -R grid:dba  /ocr3

chown  -R grid:dba  /vot1

chown  -R grid:dba  /vot2

chown  -R grid:dba  /vot3

chown  -R oracle:dba   /date1

chown  -R oracle:dba   /date2

chown  -R oracle:dba   /date3

chmod  -R 775    /ocr*

chmod  -R 775    /vot*

chmod  -R 775  /data*

添加到/etc/fstab文件

vi /etc/fstab

/dev/vg1/ocr1         /ocr1     ext4 defaults 0 0

/dev/vg1/ocr2         /ocr2     ext4 defaults 0 0

/dev/vg1/ocr3         /ocr3     ext4 defaults 0 0

/dev/vg1/vot1         /vot1     ext4 defaults 0 0

/dev/vg1/vot2         /vot2     ext4 defaults 0 0

/dev/vg1/vot3         /vot3     ext4 defaults 0 0

/dev/vg1/data1        /data1     ext4 defaults 0 0

/dev/vg1/data2        /data2     ext4 defaults 0 0

/dev/vg1/data3        /data3     ext4 defaults 0 0

/dev/vg1/data4        /data4     ext4 defaults 0 0

/dev/vg1/data5        /data5     ext4 defaults 0 0



部署nfs

NFS服务端所需的软件列表

nfs-utils: 这个是NFS服务主程序(包含rpc.nfsd、rpc.mountd、daemons)

rpcbind: 这个是CentOS6.X的RPC主程序(CentOS5.X的为portmap)


检查软件是否安装

客户端和服务端都要检查

rpm -qa nfs-utils rpcbind 

如果没有安装在系统中通过yum 命令进行安装以上两个包

#yum install -y nfs-utils rpcbind



[root@shareddisk19 ~]#  rpm -qa | grep nfs

nfs-utils-1.2.3-54.el6.x86_64

nfs4-acl-tools-0.3.3-6.el6.x86_64

nfs-utils-lib-1.1.5-9.el6.x86_64


启动NFS服务端相关服务


服务端操作:


#service rpcbind status 查看状态

#service rpcbind start 启动

#service rpcbind stop 停止

#service rpcbind restart 重启

启动NFS服务

#service nfs start 启动

#service nfs status 查看状态

#service nfs stop 停止

#service nfs restat 重启


设置开机启动


[root@h1 ~]# chkconfig nfs on

[root@h1 ~]# chkconfig rpcbind on


Add the following lines to the "/etc/exports" file.

vi  /etc/exports

/ocr1  *(rw,sync,no_wdelay,insecure_locks,no_root_squash)

/ocr2  *(rw,sync,no_wdelay,insecure_locks,no_root_squash)

/ocr3  *(rw,sync,no_wdelay,insecure_locks,no_root_squash)

/vot1  *(rw,sync,no_wdelay,insecure_locks,no_root_squash)

/vot2  *(rw,sync,no_wdelay,insecure_locks,no_root_squash)

/vot3  *(rw,sync,no_wdelay,insecure_locks,no_root_squash)

/data1  *(rw,sync,no_wdelay,insecure_locks,no_root_squash)

/data2  *(rw,sync,no_wdelay,insecure_locks,no_root_squash)

/data3  *(rw,sync,no_wdelay,insecure_locks,no_root_squash)

/data4  *(rw,sync,no_wdelay,insecure_locks,no_root_squash)

/data5  *(rw,sync,no_wdelay,insecure_locks,no_root_squash)

*****************************************************************

重启nfs

chkconfig nfs on

service nfs restart


输出本地挂载点


[root@h1 ~]# showmount -e localhost

[root@h1 ~]# showmount -e 192.168.123.211



AIX7.2系统NFS目录mount方法


服务端和客户端配置/etc/hosts


服务端/etc/hosts

192.168.123.211   shareddisk19

192.168.123.202 aixnode1

192.168.123.202 aixnode2

客户端/etc/hosts

192.168.123.211   shareddisk19

192.168.123.202 aixnode1

192.168.123.202 aixnode2


AIX 开机自动挂载NFS共享

重新设置网络参数

nfso -p -o nfs_use_reserved_ports=1


提示信息显示写入了nextboot file

查看/etc/tunables/nextboot 新增加我们刚刚设置的参数

smit nfs 配置

【 Network File System (NFS)】--【Add a File System for Mounting】

 Pathname of mount point  【/u01/app/ocr1】

Pathname of remote directory    【/ocr1】

Host where remote directory resides     【shareddisk19】

Security method                                    [sys]  

Mount now, add entry to /etc/filesystems or both?     【both】

/etc/filesystems entry will mount the directory     【yes】                                                               

   on system restart. 

 Mode for this NFS file system                       read-write                                                           

Attempt mount in foreground or background           background  

 Buffer size for read                                      【65536】

  Buffer size for writes                                       【65536】

  NFS timeout. In tenths of a second                【600】

  NFS version for this NFS filesystem                    【3】

  Transport protocol to use                                    【tcp】

Mount file system soft or hard                       【 hard】

 Dio/cio/cio,cior                                            【 cio】       



/etc/filesystems entry will mount the directory on system restart   选项  设置为  yes 



vi /etc/filesystems

/opt/app/ocr1:

        dev             = "/ocr1"

        vfs             = nfs

        nodename        = shareddisk19

        mount           = true

        options         = cio,rw,bg,hard,intr,rsize=65536,wsize=65536,timeo=600,proto=tcp,noac,vers=3,sec=sys

        account         = false


/opt/app/ocr2:

        dev             = "/ocr2"

        vfs             = nfs

        nodename        = shareddisk19

        mount           = true

        options         = cio,rw,bg,hard,intr,rsize=65536,wsize=65536,timeo=600,proto=tcp,noac,vers=3,sec=sys

        account         = false


/opt/app/ocr3:

        dev             = "/ocr3"

        vfs             = nfs

        nodename        = shareddisk19

        mount           = true

        options         = cio,rw,bg,hard,intr,rsize=65536,wsize=65536,timeo=600,proto=tcp,noac,vers=3,sec=sys

        account         = false

/opt/app/data1:

        dev             = "/data1"

        vfs             = nfs

        nodename        = shareddisk19

        mount           = true

        options         = bg,hard,nointr,noac,llock,rsize=32768,wsize=32768,sec=sys,nosuid  

        account         = false


/opt/app/data2:

        dev             = "/data2"

        vfs             = nfs

        nodename        = shareddisk19

        mount           = true

        options         = bg,hard,nointr,noac,llock,rsize=32768,wsize=32768,sec=sys,nosuid  

        account         = false


/opt/app/data3:

        dev             = "/data3"

        vfs             = nfs

        nodename        = shareddisk19

        mount           = true

        options         = bg,hard,nointr,noac,llock,rsize=32768,wsize=32768,sec=sys,nosuid  


        account         = false


/opt/app/data4:

        dev             = "/data4"

        vfs             = nfs

        nodename        = shareddisk19

        mount           = true

        options         = bg,hard,nointr,noac,llock,rsize=32768,wsize=32768,sec=sys,nosuid  

        account         = false 

/opt/app/data5:

        dev             = "/data5"

        vfs             = nfs

        nodename        = shareddisk19

        mount           = true

        options         = bg,hard,nointr,noac,llock,rsize=32768,wsize=32768,sec=sys,nosuid 

        account         = false 



共享磁盘规划

OcrVotedisk 3块 10G

Data 5块 20G 

FRA_ARC 3块 10G

注:Data数据盘必须大于或等于 40G


mkdir  -p   /u01/app/ocr1

mkdir  -p   /u01/app/ocr2

mkdir  -p   /u01/app/ocr3

mkdir  -p   /u01/app/vot1

mkdir  -p   /u01/app/vot2

mkdir  -p   /u01/app/vot3

mkdir  -p   /u01/app/data1

mkdir  -p   /u01/app/data2

mkdir  -p   /u01/app/data3

mkdir  -p   /u01/app/data4

mkdir  -p   /u01/app/data5



共享目录

/u01/app/ocr1

/u01/app/ocr2

/u01/app/ocr3

/u01/app/votedisk1

/u01/app/votedisk2

/u01/app/votedisk3

创建目录

# mkdir -p /u01/app/19.0.0/grid

# mkdir -p /u01/app/grid

# mkdir -p /u01/app/oracle

# chown -R grid:dba  /u01

# chown oracle:dba /u01/app/oracle

# chmod -R 775 /u01/




grid

$ORACLE_BASE

/u01/app/grid

$ORACLE_HOME

/u01/app/19.0.0/grid


oracle

$ORACLE_BASE

/u01/app/oracle/19cbase

$ORACLE_HOME

/u01/app/oracle/19chome



上传集群软件包

在节点1上传grid安装包

在19C中需要把grid包解压放到grid用户下ORACLE_HOME目录内

解压文件到/u01/app/19.0.0/grid


从Oracle 12cR2开始,软件直接解压缩到GRID_HOME 或者ORACLE_HOME,而不是在安装时复制过去。该操作只需要在节点1上完成解压缩即可



grid、oracle用户等同性配置

--------------------------------------------------

1).等同性配置(一个节点root)

====================

# cd /orastg/software/grid/sshsetup

# ./sshUserSetup.sh -user grid -hosts "aix19cnode1 aix19cnode1" -advanced -noPromptPassphrase

# ./sshUserSetup.sh -user oracle -hosts "aix19cnode1 aix19cnode1" -advanced -noPromptPassphrase





节点1

bash-5.0#xhost +

aix19cnode1$export DISPLAY=192.168.88.8:0.0


aix19cnode1$./gridSetup.sh 






原因:Fortran Runtime 包不存在


lslpp -L all | grep -i "Fortran Runtime"


loopmount -i AIX_v7.2_Install_7200-03-03-1913_DVD_2_of_2_052019.iso -o "-V cdrfs -o ro" -m /mnt 


解决方案:


操作系统安装所需要的包:Install Fortran Runtime package (15.1) in the operating system and retry the instance startup


smitty install 安装xlfrte 包,重新执行root.sh脚本即可.




grid  安装进度32% 执行脚本


/u01/app/oraInventory/orainstRoot.sh

/u01/app/19.0.0/grid/root.sh

Oracle用户

database软件安装


##two node running in root :

sh rootpre.sh

$ xhost +  192.168.88.8

./runInstaller


dbca创建数据库

Select the "Use Oracle-Managed Files" option and enter "/u01/oradata/" as the database location, then click the "Next" button

目录

/opt/app/data1/

/opt/app/data2/

/opt/app/data3/




文章转载自云和数据的彼端,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论