码迷,mamicode.com
首页 > 其他好文 > 详细

Chapter 2 OpenStack基本环境设置

时间:2015-08-21 11:32:45      阅读:267      评论:0      收藏:0      [点我收藏+]

标签:openstack

Chapter 2 OpenStack基本环境设置

2.1 实验环境

这里使用虚拟机方式配置OpenStack架构:

  • 首先物理主机安装的操作系统是CentOS6.5 x86_64,使用的虚拟化软件是VMware WorkStation 10

  • 虚拟机网络设置如下:

技术分享

  • 在物理机上的虚拟网卡的信息如下:

vmnet1    Link encap:Ethernet  HWaddr 00:50:56:C0:00:01
          inet addr:10.0.0.1  Bcast:10.0.0.255  Mask:255.255.255.0
          inet6 addr: fe80::250:56ff:fec0:1/64Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500 Metric:1
          RX packets:712764 errors:0 dropped:0overruns:0 frame:0
          TX packets:4453502 errors:0 dropped:0overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:0 (0.0 b)  TX bytes:0 (0.0 b)
 
vmnet2    Link encap:Ethernet  HWaddr 00:50:56:C0:00:02
          inet addr:10.0.1.1  Bcast:10.0.1.255  Mask:255.255.255.0
          inet6 addr: fe80::250:56ff:fec0:2/64Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500 Metric:1
          RX packets:11112 errors:0 dropped:0overruns:0 frame:0
          TX packets:14 errors:0 dropped:0overruns:0 carrier:0
         collisions:0 txqueuelen:1000
          RX bytes:0 (0.0 b)  TX bytes:0 (0.0 b)
 
vmnet8    Link encap:Ethernet  HWaddr 00:50:56:C0:00:08
          inet addr:203.0.113.1  Bcast:203.0.113.255  Mask:255.255.255.0
          inet6 addr: fe80::250:56ff:fec0:8/64Scope:Link
          UP BROADCAST RUNNING MULTICAST  MTU:1500 Metric:1
          RX packets:207556 errors:0 dropped:0overruns:0 frame:0
          TX packets:373 errors:0 dropped:0overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:0 (0.0 b)  TX bytes:0 (0.0 b)

注意,vmnet8NAT网络,用于与外部网络进行通信。

 

实验环境拓扑图如下:

技术分享

 

2.2 (虚拟机)初始设置

2.2.1 网卡名称修改

由于安装OpenStackKilo版本,这里虚拟机选用的操作系统是CenOS7 x86_64。需要注意的是网卡的设置,在CentOS7中将使用命名空间的方式来管理网络接口名称,如果需要改为传统的管理方式,请进行下面的操作:

[root@localhost ~]# cd /etc/sysconfig/network-scripts/
[root@localhost ~]# mvifcfg-eno16777736 ifcfg-eth0
[root@localhost network-scripts]# viifcfg-eth0
TYPE=Ethernet
BOOTPROTO=static
DEVICE=eth0
ONBOOT=yes
IPADDR=10.0.0.11
NETMASK=255.255.255.0
[root@localhost ~]# vi /etc/default/grub
GRUB_CMDLINE_LINUX="rd.lvm.lv=vgsys/swaprd.lvm.lv=vgsys/root net.ifnames=0 biosdevname=0crashkernel=auto rhgb quiet"
[root@localhost ~]# grub2-mkconfig -o/boot/grub2/grub.cfg
[root@localhost ~]# reboot

 

由于没有ifcfg等网络管理工具,这里需要安装相应的软件包net-tools

[root@localhost ~]# yum -y installnet-tools

 

2.2.2 修改主机名并关闭防火墙、SELinux

[root@localhost ~]# hostnamectlset-hostname controller
[root@controller ~]# systemctl disablefirewalld
[root@controller ~]# systemctl stopfirewalld
[root@controller ~]# vi/etc/sysconfig/selinux
SELINUX=disabled
[root@controller ~]# reboot

 

2.3 节点网络设置

使用Neutron网络的示例架构要求:

  • 一个控制节点:包括一个属于管理网络的网卡。注意,这里的实际环境将为控制节点多配置一个属于NAT网段的网卡,用于连接外网,将OpenStack所需要的所有软件包制作成软件源,通过HTTP方式从控制节点进行发布,稍后介绍配置过程

  • 一个网络节点:包括一个属于管理网络的网卡、一个用于(与计算节点进行)隧道通信的网卡、一个连接外网的网卡

  • 至少一个计算节点(实验环境使用了两台):博客一个素颜管理网络的网卡、一个用于(与网络节点进行)隧道通信的网卡

 

2.3.1 配置各节点网络接口

这里以控制节点为例:

[root@controller ~]# cat/etc/sysconfig/network-scripts/ifcfg-eth0
TYPE=Ethernet
BOOTPROTO=static
DEVICE=eth0
ONBOOT=yes
IPADDR=10.0.0.11
NETMASK=255.255.255.0
[root@controller ~]# cat/etc/sysconfig/network-scripts/ifcfg-eth1
TYPE=Ethernet
BOOTPROTO=static
DEVICE=eth1
ONBOOT=yes
IPADDR=203.0.113.11
NETMASK=255.255.255.0
GATEWAY=203.0.113.2
DNS1=203.0.113.2

 

并设置外网连通性:

[root@controller ~]# ping -c 4openstack.org

PING openstack.org (162.242.140.107)56(84) bytes of data.

64 bytes from 162.242.140.107:icmp_seq=1 ttl=128 time=285 ms

64 bytes from 162.242.140.107:icmp_seq=2 ttl=128 time=286 ms

64 bytes from 162.242.140.107:icmp_seq=3 ttl=128 time=291 ms

64 bytes from 162.242.140.107:icmp_seq=4 ttl=128 time=296 ms

 

--- openstack.org ping statistics ---

4 packets transmitted, 4 received, 0%packet loss, time 3003ms

rtt min/avg/max/mdev =285.180/290.095/296.684/4.551 ms

 

网络节点和计算节点配置方式相同,配置完毕后可以对每个节点都进行ping测试。

 

2.3.2 添加主机名解析

在控制节点上设置/etc/hosts文件:

[root@controller ~]# cat /etc/hosts

10.0.0.11       controller

10.0.0.21       network1

10.0.0.31       compute1

10.0.0.32       compute2

 

将其复制到其他节点中,如果后面有新的服务器加入到OpenStack环境,加到/etc/hosts即可,当然也可以通过DNS方式对主机名称进行管理,由于环境机器需求不多,所以暂时不考虑。

 

2.4 创建repo

首先在控制节点上编辑自定义的网络repo源:

[root@controller ~]# vi/etc/yum.repos.d/all-packages-source.repo

[all-packages-source]

name=all-packages-source

baseurl=http://10.0.0.11/all-packages-source

enabled=1

gpgcheck=0

 

OpenStack所需要所有软件包下载到/all-packages-source目录中,然后安装HTTP服务将目录发布出去:

[root@controller ~]# yum -y installhttp://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-5.noarch.rpm

[root@controller ~]# yum -y installhttp://rdo.fedorapeople.org/openstack-kilo/rdo-release-kilo.rpm

[root@controller ~]# wget -P \

 /etc/yum.repos.dhttp://download.gluster.org/pub/gluster/glusterfs/LATEST/CentOS/glusterfs-epel.repo

[root@controller ~]# mkdir/all-packages-source

[root@controller ~]# yum -y install Pakcage_Name --downloadonly--downloaddir=/all-packages-source

[root@controller ~]# createrepo/all-packages-source/

[root@controller ~]# yum -y installhttp

[root@controller ~]# ln -s/all-packages-source/ /var/www/html/

[root@controller ~]# systemctl starthttpd

[root@controller ~]# systemctl enablehttpd

[root@controller ~]# yum clean all;yum repolist

[root@controller ~]# yum repolist

Loaded plugins: fastestmirror

Loading mirror speeds from cachedhostfile

 * base: centos.ustc.edu.cn

 * epel: mirror01.idc.hinet.net

 * extras: centos.ustc.edu.cn

 * updates: centos.ustc.edu.cn

repo id                    reponame                                              status

all-packages-source         all-packages-source                                   458

base/7/x86_64           CentOS-7 - Base                                           8,652

epel/x86_64                   ExtraPackages for Enterprise Linux 7 - x86_64                     8,457

extras/7/x86_64          CentOS-7- Extras                                 180

glusterfs-epel/7/x86_64      GlusterFS is a clustered file-systemcapable of s          14

glusterfs-noarch-epel/7       GlusterFS is a clustered file-systemcapable of s         2

openstack-kilo             OpenStackKilo Repository                            823

updates/7/x86_64        CentOS-7 - Updates                                1,225

repolist: 19,811

注:由于软件包较多,这里就不一一列出,查看官方文档查看每个组建所需要的软件包。

 

在其他节点上删除原有的repo源,从控制节点上复制all-packages-source.repo源文件并刷新,这里以网络节点为例:

[root@network1 ~]# rm -rf/etc/yum.repos.d/*

[root@network1 ~]# scp 10.0.0.11:/etc/yum.repos.d/all-packages-source.repo/etc/yum.repos.d/

[root@network1 ~]# yum clean all; yumrepolist

[root@network1 ~]# yum clean all; yumrepolist

...

repo id                             reponame                         status

all-packages-source        all-packages-source                   458

repolist: 458

 

2.5 网络时间服务(NTP)设置

2.5.1 在控制节点上配置NTP服务端

设置10.0.0.0/24网段可以对其进行时间同步:

[root@controller ~]# yum -y installntp

[root@controller ~]# vi /etc/ntp.conf

...

restrict 10.0.0.0 mask 255.255.255.0nomodify notrap

[root@controller ~]# systemctl startntpd

[root@controller ~]# systemctl enablentpd

可以通过ntpq -p命令查看与上层服务器时间是否同步。

 

2.5.2 在其他节点上配置NTP客户端

以网络节点为例:

[root@network1 ~]# yum -y install ntp

[root@network1 ~]# vi /etc/ntp.conf

server 10.0.0.11 iburst

注意,这里清除了其他上层NTP服务器。

 

2.6 SQL数据库

OpenStack很多服务通过SQL数据库来存储信息。这里使用MariaDB数据库,当然OpenStack服务也支持其他数据库服务,例如MySQLPostgreSQL

 

2.6.1 在控制节点上配置数据库服务端

1. 安装配置MariaDB

[root@controller ~]# yum -y installmariadb mariadb-server MySQL-python

[mysqld]

...

bind-address = 10.0.0.11

default-storage-engine = innodb

innodb_file_per_table

collation-server = utf8_general_ci

init-connect = ‘SET NAMES utf8‘

character-set-server = utf8

 

2. 完成安装

启动mariadb服务并设置为开机自启:

[root@controller ~]# systemctl startmariadb

[root@controller ~]# systemctl enablemariadb

 

加固数据库服务安全并设置数据库管理员root的密码:

[root@controller ~]#mysql_secure_installation

Set root password? [Y/n] Y

Remove anonymous users? [Y/n] Y

Disallow root login remotely? [Y/n] Y

Remove test database and access to it?[Y/n] Y

Reload privilege tables now? [Y/n] Y

 

注意,一定要移除数据空用户和空连接地址,否则在导入OpenStack各服务数据表时会报错。

 

2.7 消息队列服务(Message queue)

OpenStack通过消息队列服务来协调各服务之间的操作和状态信息。本示例将消息队列服务安装在控制节点上,OpenStack所支持的消息队列服务包括RabbitMQQpidZeroMQ。这里将使用RabbiMQ作为消息队列服务。

 

2.7.1 安装和配置消息队列服务

[root@controller ~]# yum -y installrabbitmq-server

[root@controller ~]# systemctl startrabbitmq-server

[root@controller ~]# systemctl enablerabbitmq-server

[root@controller ~]# rabbitmqctladd_user openstack iforgot

[root@controller ~]# rabbitmqctlset_permissions openstack ".*" ".*" ".*"


本文出自 “技术宅” 博客,请务必保留此出处http://8497595.blog.51cto.com/8487595/1686708

Chapter 2 OpenStack基本环境设置

标签:openstack

原文地址:http://8497595.blog.51cto.com/8487595/1686708

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!