文档库 最新最全的文档下载
当前位置:文档库 › Veeam Backup & Replication 5 安装,配置及使用(转)

Veeam Backup & Replication 5 安装,配置及使用(转)

Veeam Backup & Replication 5 安装,配置及使用(转)
Veeam Backup & Replication 5 安装,配置及使用(转)

Veeam Backup & Replication 5 安装,配置及使用(转)

一. 概念:

第三方备份和复制的esx/esxi数据软件,支持多种备份方法及模式。全面支持ESX和ESXi主机的备份,支持虚拟机裸机恢复(vmdk)和单个文件恢复(仅Windows平台),针对目标备份数据的在线重复数据删除和压缩,同时支持VMware Tools暂停和利用微软VSS驱动的专用代理实现应用一致性备份.除了许多备份产品使用的传统的全备份/增量备份方法以外,Veeam还支持合成备份模式

备份(复制)方法:

1. VMware vStorage APIs:VMware Consolidated Backup继任者,两者均可以直接访问虚拟机存储而无需通过主机(LAN-free)。

有四种传输模式可以使用:SAN模式、故障切换SAN模式、网络模式和虚拟设备模式

1). SAN模式(SAN ONLY): 只支持运行在块存储设备上的虚拟机, 若在物理服务器上运行此软件,必须通过光纤通道HBA卡或iSCSI启动器直接访问虚拟机数据存储,若在虚拟机上安装,则需安装的微软iSCSI启动器直接连接iSCSI数据存储。

2). 故障切换SAN模式(SAN with failover): 增加了安全机制,当SAN模式不可用,会切换到网络模式完成备份。这是不可取的,因为运行在网络模式的时候,会消耗ESX主机更多的资源。

3). 网络模式(Network):效率最低模式,通过主机访问虚拟机存储,使用网络块设备协议(NBD)协议连接到虚拟机数据存储。这增加了额外的网络流量。但对于本地存储,只能用此模式,因为软件无法直接访问虚拟机的磁盘。

4). 虚拟设备模式(Virtual Appliance):软件安装在一台专用的虚拟机,要备份的虚拟机磁盘被“热添加(hot-added)”到此虚拟机上,数据直接从存储栈中读取而不是通过网络。SAN模式与虚拟设备模式没有太大不同,因为它们都利用了存储栈来访问源数据

双核CPU的服务器上使用此软件,性能是非常差的。官方推荐至少四核到八核才能获得最佳的性能, 因为它不仅把数据从源发送到目标。它还使用重复数据删除和压缩等先进的逻辑最小化复制和存储的数据总量。

2. VMware Consolidated Backup(VCB):

1). SAN

2). Network

3. 传统的网络备份(Network Backup):

Service Console Agetn OR Agent-less

二. 下载:

可以到官方网站下载最新的版本(有32位与64位两种版本)试用,需要注册一个帐号,下载后网站会自动发一个30天试用版的lic文件到你的注册邮箱。

https://www.wendangku.net/doc/9718880060.html,/vmware-esx-backup.html

最新版:5.0.2.230

三. 安装:

Veeam Backup服务器可安装于物理服务器或者虚拟机,这取决于自己的实际情况。若要安装多台Veeam Backup & Replication服务器,可以再安装一套Enterprise Manager应用程序,用于通过Web界面集中管理多个服务器。

平台需求:

操作系统:Windows XP SP3、win2003 SP2、Vista SP2,Win2008 SP2,Win2008 R2 SP1,Windows 7 SP1

软件:SQL 2005/2008(自带SQL 2005 SP3 Express) ,NET Framework 2.0 SP1,PowerShell 2.0 or later

安装步骤图例:

注:安装过程比较简单,跟普通的microsft软件一样,需要注意的地方就是数据库选择,若已经有数据库,可以选择已经存在的数据库,若没有也可以用自带的免费版SQL 2005 Express。

四. 配置:

1. 加入vCenter server 或ESX(i)主机:

2. 设置通知邮件地址:

3. 设置帐号&权限:

注:帐号必须是事先有的帐号,可以是本地或网域的帐号。

五. 如何备份与还原:

1. 备份:

2. VM COPY 方法同备份:

3. FILE COPY比较简单,就像windows资源管理器,把存储,本机及网络之间的文件夹及内存相互之间拷贝

4. 恢复VMs:

六. 如何复制与failvoer

1. 虚拟机复制:

CITRIX常见问题与汉化等

Citrix软件问题汇总: 一、安装问题 1、在安装Citrix Presentation Server 4.0时提示Error 10001 原因分析:Citrix Presentation Server 4.0的英文版安装过程中会一直搜索机器上的NT AUT HORITY\Authenticated Users用户,一旦出现该用户组被列在不同的名称下,就会出现错误 解决方法:通过msiexec命令来执行Citrix Presentation Server 4.0的安装步骤,命令行如下: Msiexec /i “” CTX_MF_AUTH_USERS_GROUP="transalation of NT AUTHOR ITY\Authenticated Users" /l*v “”. “path to mps.msi”中输入mps.msi文件的正确路径和文件名,将“transalation of NT AUT HORITY\Authenticated Users”替换为本机的本地用户与组中存在的用户,“path to log fil e”输入一个log文件的完整路径。 2、在安装web interface时,提示“error 1609” 原因分析:在win2000成员服务器上安装.NET运行环境时,系统会自动创建一个本地帐户ASPN ET用来运行.NET的framework工作进行(Aspnet_wp.exe),而在2000域控制器上,ASPNET帐户不会自动创建,因而导致上面的问题。 解决方案: 在安装web interface之前,手工创建一个本地帐户ASPNET,在安装完成后,该用户将被删除或禁用,因为运行.NET工作进程将由IWAM系统帐户替代。 还有一点,要在控制面板-本地安全策略中,本地策略-用户权利指派中,在“身份验证后模拟客户端”策略中添加IWAM系统帐户。 3、在添加删除程序中安装Web Interface 4.0时,提示“Application has generated an exc eption that could not be handled”的错误 原因分析:安装方式的问题,导致安装过程阻止了安装参数的提交从而导致报错 解决方法: 推荐在安装Web Interface 4.0时,采用Citrix Presentation Server 4.0安装的autorun.ex e自动进行安装,然后选择需要安装的组件;也可以通过在命令行中直接运行Webinterface.ex e来安装。 4、在进行Presentation Server 3.0升级到Presentation Server 4.0的安装过程中,提示"I nstallation ended prematurely because of an error."错误信息 原因分析:此问题是Citrix在运行一个CTX_MF_SetDefaultLicenseServerToHostName功能时出现问题,此功能主要是用于取得一个License Server的name,问题就是无法取得License Ser ver的name从而返回一个错误 解决方法:可以通过命令行中指定licensing server,进行安装 Msiexec /i "" CTX_MF_LICENSE_SERVER_NAME = /l *v "" 5、当Citrix服务器要加入一个Farm或执行CHFARM时,FarmName是空白的无法显示:

ceph分布式存储介绍

Ceph分布式存储 1Ceph存储概述 Ceph 最初是一项关于存储系统的PhD 研究项目,由Sage Weil 在University of California, Santa Cruz(UCSC)实施。 Ceph 是开源分布式存储,也是主线Linux 内核(2.6.34)的一部分。1.1Ceph 架构 Ceph 生态系统可以大致划分为四部分(见图1):客户端(数据用户),元数据服务器(缓存和同步分布式元数据),一个对象存储集群(将数据和元数据作为对象存储,执行其他关键职能),以及最后的集群监视器(执行监视功能)。 图1 Ceph 生态系统 如图1 所示,客户使用元数据服务器,执行元数据操作(来确定数据位置)。元数据服务器管理数据位置,以及在何处存储新数据。值得注意的是,元数据存储在一个存储集群(标为―元数据I/O‖)。实际的文件I/O 发生在客户和对象存储集群之间。这样一来,更高层次的POSIX 功能(例如,打开、关闭、重命名)就由元数据服务器管理,不过POSIX 功能(例如读和

写)则直接由对象存储集群管理。 另一个架构视图由图2 提供。一系列服务器通过一个客户界面访问Ceph 生态系统,这就明白了元数据服务器和对象级存储器之间的关系。分布式存储系统可以在一些层中查看,包括一个存储设备的格式(Extent and B-tree-based Object File System [EBOFS] 或者一个备选),还有一个设计用于管理数据复制,故障检测,恢复,以及随后的数据迁移的覆盖管理层,叫做Reliable Autonomic Distributed Object Storage(RADOS)。最后,监视器用于识别组件故障,包括随后的通知。 图2 ceph架构视图 1.2Ceph 组件 了解了Ceph 的概念架构之后,您可以挖掘到另一个层次,了解在Ceph 中实现的主要组件。Ceph 和传统的文件系统之间的重要差异之一就是,它将智能都用在了生态环境而不是文件系统本身。 图3 显示了一个简单的Ceph 生态系统。Ceph Client 是Ceph 文件系统的用户。Ceph Metadata Daemon 提供了元数据服务器,而Ceph Object Storage Daemon 提供了实际存储(对数据和元数据两者)。最后,Ceph Monitor 提供了集群管理。要注意的是,Ceph 客户,对象存储端点,元数据服务器(根据文件系统的容量)可以有许多,而且至少有一对冗余的监视器。那么,这个文件系统是如何分布的呢?

Amanda安装配置

Amanda安装配置 一关于amanda Amanda本身并不是备份程序,它其实只是管理其他备份软件的封装软件。它使用系统上的dump和restore命令作为底层的备份软件,同时也能够使用tar命令,针对于windows计算机,Amanda还能够使用smbtar命令来实现备份。 Amanda 的整体策略是:在每次周期中完成一次数据的完全备份,并且确保在两次完全转储之间备份所有更改的数据。传统的做法是先执行完全备份,然后在此期间执行增量备份。而Amanda 的工作方式不同的是,每次运行Amanda 都对部分数据进行完全备份,确切地说,就是在一个完整的备份周期内备份全部数据所需备份的其中一部分。例如,如果周期为7 天,且一个周期内进行7次备份,则每天必须备份1/7 的数据,以便在7 天之内完成一次完全备份。除了这个“部分”完全备份外,Amanda 还对自最近一次完全备份后更改的数据进行增量备份。Amanda这种特有的备份策略,可以减少每次备份的数据量 amanda组件 Amanda系统包含如下组件: 1、客户端程序,是amandad 其中最重要的。此后台程序在备份运行时和Amanda 服务器进行通信。在/usr/lib/amanda目录下,还有其它的一些客户端程序:amandad 处理客户机和中央服务器之间的所有通信;运行所有其它的客户端程序;selfcheck 验证本地Amanda 配置;sendsize 估计备份大小;sendbackup 执行备份操作;这些程序是Amanda 客户 端系统的一部分。但是并不能通过手工去执行他们,是由客户端包的其他辅助程序来调用这些程序。 2、执行各阶段实际备份操作的服务器程序。amdump 程序启动Amanda ,并且常常使用cron 定期运行。它控制一些其他程序,包括:planner 决定备份哪些内容;driver 设备接口;dumper 与客户端amandad 进程进行通信;taper 把数据写入媒介;amreport 准 备Amanda 运行的报告; 3、执行相关任务的管理工具,包括:amcheck 验证Amanda 配置的有效性以及此工具是否准备运行;amlabel 在磁带上写入Amanda卷标,用于避免覆盖错磁带;amcleanup 在

开源自动化配置管理工具Puppet入门教程

开源自动化配置管理工具P u p p e t入门教程 系统管理员经常陷入一系列的重复任务中:如升级软件包、管理配置文件、系统服务、cron任务以及添加新的配置、修复错误等。这些任务通常是重复低效的,解决这类任务的第一反应是让他们自动化,于是出现了定制脚本。由于环境复杂,定制脚本和应用程序一再被重复开发,并且很难适合多种平台,灵活性和功能也很难保证,于是像Puppet这样的 自动化配置管理工具便出现了。 在开源世界里,有很多配置工具可供选择,这个领域一些关键的产品有: Puppet(): Ruby写成的配置管理工具,使用C/S架构,使用declarative language配置客户端。 Cfengine(): 最先发布的开源配置工具之一,1993年发布,同样是C/S架构,通常应用于教育机构。 LCFG(): C/S架构的配置管理工具,使用XML定义配置。 Bcfg2 Python编写的C/S架构的配置管理工具,使用规格书和客户机响应配置目标主机。 本文档致力于描述使用Puppet管理你的主机、应用程序、后台程序和各种服务。 Puppet简介: 1. Puppet的用途 Puppet是开源的基于Ruby的系统配置管理工具,依赖于C/S的部署架构。主要开发者是Luke Kanies,遵循GPLv2版权协议。从1997年开始Kanies参与UNIX的系统管理工作,Puppet的开发源于这些经验。因为对已有的配置工具不甚满意,从2001年到2005年间,Kanies开始在Reductive实验室从事工具的开发。很快,Reductive实验室发布了他们的 旗舰产品——Puppet。 2. Pupput的特性 许多系统配置管理工具工作的方式非常类似,如cfengine。是什么让Puppet与众不同Puppet的语法允许你创建一个单独脚本,用来在你所有的目标主机上建立一个用户。所有的目标主机会依次使用适用于本地系统的语法解释和执行这个模块。举例:如果这个配置是在Red Hat服务器上执行,建立用户使用useradd命令;如果这个配置是在FreeBSD 主机上执行,使用的是adduser命令。 Puppet另一个卓越的地方是它的灵活性。源于开源软件的天性,你可以自由的获得Puppet的源码,如果你遇到问题并且有能力的话,你可以修改或者加强Puppet的代码去适用于你的环境。另外,社区开发者和捐献者还在不断增强Puppet的功能。一个大的开发者和用户社区也致力于提供Puppet的文档和技术支持。 Puppet也是易于扩展的。定制软件包的支持功能和特殊的系统环境配置能够快速简单 的添加进Puppet的安装程序中。

Puppet利用Nginx多端口实现负载均衡

随着公司应用需求的增加,需要不断的扩展,服务器数量也随之增加,当服务器数量不断增加,我们会发现一台puppetmaster压力大,解析缓慢,而且时不时出现“time out”之类的报错,那这时有什么优化的办法吗?我们在Puppet官网上找寻解决方案,发现puppetmaster可以配置多端口,结合WEB代理(推荐Nginx),这样puppetmaster承受能力至少可以提升数倍以上,相当于在很大程度上优化了puppet的处理能力。 1.遵循前面的环境设定,我们这里的服务器环境及软件版本分别为: 服务器系统:CentOS5.8 x86_64 Ruby版本:ruby-1.8.5 Puppet版本:puppet-2.7.9 Nginx版本:nginx-0.8.46 2.Mongrel安装 要使用puppet多端口配置,需要指定mongrel类型,默认没有安装,需要安装: yum install -y rubygem-mongrel 3.配置puppetmaster 在/etc/sysconfig/puppetmaster文件末尾添加如下两行,分别代表多端口、mongrel类型,内容如下所示: PUPPETMASTER_PORTS=(8141 8142 8143 8144 8145) PUPPETMASTER_EXTRA_OPTS="--servertype=mongrel --ssl_client_header=HTTP _X_SSL_SUBJECT" 4.安装Nginx服务 安装之前请确保系统已经安装pcre-devel正则库,然后再编译安装Nginx,需要添加SSL 模块参数支持,Nginx的安装过程如下所示: yum -y install pcre-devel cd /usr/local/src wget https://www.wendangku.net/doc/9718880060.html,/download/nginx-0.8.46.tar.gz tar zxvf nginx-0.8.46.tar.gz cd nginx-0.8.46 ./configure --prefix=/usr/local/nginx --with-http_ssl_module make && make install && cd ../ 添加www用户组及用户,命令如下所示: groupadd www useradd -g www www 5.我们依据puppet需求来修改配置文件nginx.conf,内容如下所示: user www;

openstack部署与管理-fuel介绍

OpenStack部署与管理之 Fuel介绍 成胜 汉柏科技有限公司

内容 Fuel简介 Fuel架构 Fuel功能 Fuel扩展 2

OpenStack部署 OpenStack发展很猛,很多朋友都很认同,为了解决OpenStack部署的问题,让安装,配置变得更加简单易用,很多公司都投入人力去做这个。说到部署,肯定和OS有关,对于OpenStack来说,无非就是Ubuntu还是CentOS,当然也会和OpenStack版本有关。 其实部署工具,最麻烦的地方,不是软件的配置和安装,而是网络。用户的网络情况太多,还有OpenStack本身的网络也很复杂。

部署工具: RDO: REDHAT出品,支持Redhat、CentOS等系统。RDO基于puppet部署各个组件,支持单节点或多节点部署,在Redhat系操作系统上使用非常方便。 devstack: 这个应该是最老的Fuel简介了,可以用来快速部署一个OpenStack测试环境,基于git最新代码部署服务,并将所有服务都起在screen中,不适合生产环境直接使用。 Fuel: Mirantis出品,支持在ubuntu和centos上通过web界面配置并部署OpenStack,应该是目前最为直观的Fuel简介。支持自动发现部署节点,并部署 OpenStackHA,对OpenStack作健康检查等。

Mirantis 一家很牛逼的OpenStack服务集成商,他是社区贡献排名前5名中唯一一个靠软件和服务吃饭的公司(其他分别是Red Hat, HP, IBM, Rackspace)。相对于其他几个社区发行版,Fuel的版本节奏很快,平均每两个月就能提供一个相对稳定的社区版。

puppet安装以及遇到的问题

Puppet安装以及遇到的问题 主机名需要能够解析,相互之间能够解析。 1、puppet master的安装puppet 1)通过源代码安装 2)通过二进制的安装(yum apt-get...) # wget -r ftp://192.168.0.254/notes/softwares/puppet # tar xf puppet-2.7.23.tar.bz2 # cd puppet-2.7.23 # yum -y localinstall puppet-server-2.7.23-1.el6.noarch.rpm puppet-2.7.23-1.el6.noarch.rpm facter-1.6.18-3.el6.x86_64.rpm ruby-augeas-0.4.1-1.el6.x86_64.rpm ruby-shadow-1.4.1-13.el6.x86_64.rpm 2、在两个agnet上安装agent # cd /root/puppet-2.7.23/ # yum -y localinstall puppet-2.7.23-1.el6.noarch.rpm facter-1.6.18-3.el6.x86_64.rpm ruby-augeas-0.4.1-1.el6.x86_64.rpm ruby-shadow-1.4.1-13.el6.x86_64.rpm 3、配置puppet master端 # rpm -ql puppet-server /etc/puppet/fileserver.conf --puppet内置的文件服务器 /etc/puppet/manifests --全局的资源清单所在的目录 /etc/puppet/puppetmasterd.conf --主配置文件

各公司管理系统使用地Ceph存储集群

Ceph 作为软件定义存储的代表之一,最近几年其发展势头很猛,也出现了不少公司在测试和生产系统中使用 Ceph 的案例,尽管与此同时许多人 Ceph 作为软件定义存储的代表之一,最近几年其发展势头很猛,也出现了不少公司在测试和生产系统中使用 Ceph 的案例,尽管与此同时许多人对它的抱怨也一直存在。本文试着整理作者了解到的一些使用案例。 1. 携程(Ctrip) 携程所使用的各种存储的现状: ?商业存储: ?SAN(HP/ HPS) , 1+ PB, 数据库 ?NAS (HW) , 800+ TB, 文件共享 开源存储 ?GlusterFS, 1+ PB, 数据库备份 ?FastDFS, 1+ PB, 海量照片 ?HDFS, 10+ PB, 大数据 而在不久的将来,随着公司业务的发展,携程需要的存储容量需要扩大到10倍以上。 携程选择Ceph的理由:低成本 + SDS + Scale-out + 统一存储 + 企业特性

携程目前的Ceph集群的配置: ?CephVersion: 0.94.2,H release ?Object Storage: RGW + Swift API ?SDK: Python/ Java/ C#/ Ruby ?OS: Centos 6.4 ?硬件:CPU(2 channels & 32 Core)、Mem128GB、disk(12*3TB/SATA disk +2*256GB raid1 SSD)、NIC(4*Gigabit LAN, bond 2 in 1 pair) RGW 使用架构:

携程有在数据中心之间的同步数据的需求。在研究了 CRUSHmap、Radosgw-agent、Federate gateway (不稳定、不灵活(只支持Zone 之间同步)、不易扩展)后,其自研了COS方案,它具有稳定、灵活、扩展性等特点:

citrix HA配置

Knowledge Center Citrix Knowledge Center Communities Support Forums Blogs Alerts Sign in How to Configure High Availability in XenServer 5.0 Document ID:CTX118545 / Created On: 2008-10-24 / Updated On: 2010-1-20 Average Rating: View products this document applies to Summary Before you can configure high availability (HA) on a resource pool, you must ensure that these requirements are satisfied for all servers and virtual machines in the pool: ? Shared storage is available, including at least one iSCSI or Fibre Channel LUN of 356MB or greater. This LUN will be used for the heartbeat SR. ? Adequate licenses are installed on all servers. ? Only agile virtual machines might be protected by HA. For VM this means: –Virtual disks must be on shared storage. Any type of shared storage may be used; the iSCSI or Fibre Channel LUN is only required for the storage heartbeat and can be used for virtual disk storage if you prefer, but this is not necessary. –Virtual network interfaces must be on pool-wide networks. –Virtual machines must not have a connection to a local DVD drive configured. We strongly recommend the use of a bonded management interface on the servers in the pool if HA is enabled, and multipathed storage for the heartbeat SR. Procedure 1. Select the pool in the Resources pane, click on the HA tab, and then click Enable HA and follow the steps in the wizard.Exit Print View l i t ://w w w .g u t h c a d .C c k t o b u y N O W !h t p c o m

ceph集群维护手册

Ceph群集维护简明手册 (2) 前言 (2) MON (2) MON节点添加 (3) MON节点删除 (4) MON故障恢复 (4) OSD (6) OSD添加 (6) OSD删除 (6) 日志迁移 (6) 硬盘更换 (7) RBD (7) 块存储的基本操作 (7) 快照 (10) 导入导出 (11) 增量备份与恢复 (12)

Ceph群集维护简明手册 作者: 普通人 前言 本手册针对已部署完成ceph集群进行阐述(通过ceph-deploy工具),部署架构图如下: MON 环境配置 节点 主机名 Public ip address Cluster ip address Admin/ceph ubuntu-ceph-06 192.168.0.24 10.10.0.6 ceph ubuntu-ceph-07 192.168.0.25 10.10.0.7 ceph ubuntu-ceph-06 192.168.0.26 10.10.0.8

在管理节点的配置目录下,使用ceph-depoloy工具添加新的mon节点。 1.更新配置文件,添加新mon的信息 2.推送新的配置文件到所有节点,或者在添加时覆盖(ceph-deploy会提示) 3.使用ceph-deploy工具添加MON新节点 root@ubuntu-ceph-06:/opt/ceph# ceph-deploy mon create ubuntu-ceph-08 [ceph_deploy.cli][INFO ] Invoked (1.4.0): /usr/bin/ceph-deploy mon create ubuntu-ceph-08 [ceph_deploy.mon][DEBUG ] Deploying mon, cluster ceph hosts ubuntu-ceph-08 [ceph_deploy.mon][DEBUG ] detecting platform for host ubuntu-ceph-08 ... [ubuntu-ceph-08][DEBUG ] connected to host: ubuntu-ceph-08 [ubuntu-ceph-08][DEBUG ] detect platform information from remote host [ubuntu-ceph-08][DEBUG ] detect machine type [ceph_deploy.mon][INFO ] distro info: Ubuntu 14.04 trusty [ubuntu-ceph-08][DEBUG ] determining if provided host has same hostname in remote [ubuntu-ceph-08][DEBUG ] get remote short hostname [ubuntu-ceph-08][DEBUG ] deploying mon to ubuntu-ceph-08 [ubuntu-ceph-08][DEBUG ] get remote short hostname ………………..] **************************************************************************** [ubuntu-ceph-08][DEBUG ] status for monitor: mon.ubuntu-ceph-08 [ubuntu-ceph-08][DEBUG ] { [ubuntu-ceph-08][DEBUG ] "election_epoch": 0, [ubuntu-ceph-08][DEBUG ] "extra_probe_peers": [ [ubuntu-ceph-08][DEBUG ] "192.168.0.24:6789/0", [ubuntu-ceph-08][DEBUG ] "192.168.0.25:6789/0" [ubuntu-ceph-08][DEBUG ] ], [ubuntu-ceph-08][DEBUG ] "monmap": { [ubuntu-ceph-08][DEBUG ] "created": "0.000000", [ubuntu-ceph-08][DEBUG ] "epoch": 14, [ubuntu-ceph-08][DEBUG ] "fsid": "fc989fb1-eea9-47f4-83e1-999c47df0930", [ubuntu-ceph-08][DEBUG ] "modified": "2015-08-19 02:50:54.480663", [ubuntu-ceph-08][DEBUG ] "mons": [ [ubuntu-ceph-08][DEBUG ] { [ubuntu-ceph-08][DEBUG ] "addr": "192.168.0.24:6789/0", [ubuntu-ceph-08][DEBUG ] "name": "ubuntu-ceph-06", [ubuntu-ceph-08][DEBUG ] "rank": 0 [ubuntu-ceph-08][DEBUG ] }, [ubuntu-ceph-08][DEBUG ] { [ubuntu-ceph-08][DEBUG ] "addr": "192.168.0.25:6789/0", [ubuntu-ceph-08][DEBUG ] "name": "ubuntu-ceph-07", 添加mon节点也可以使用ceph-deploy mon add --address [ADDRESS] hostname

NOVA安装手册

NOV A安装手册目录 chapter1 System Requirements chapter2 NOV A手动安装步骤 2.1安装nova 相关软件包 2.2 安装MySQL数据库 2.3 进行网络环境配置 2.4 创建工程并配置环境 2.5 上传镜像并运行一个实例 chapter3 配置Glance镜像服务器chapter4 安装Dashboard远程操作界面chapter5 使用Puppet部署OpenStack环境chapter6 FAQ 常见问题及解决办法

chapter1 System Requirements y硬件: x86系列机器,AMD处理器 y操作系统:: 安装Ubuntu 10.04(LTS)版本 y网络: 官网推荐1000 Mbps,提供nova-network服务的节点需要配置两块网卡。 OpenStack支持以下三种网络架构:flat,DHCP,VLAN&DHCP y数据库: 采用MySQL数据库 y权限: 需要使用root权限进行安装

chapter2 NOV A手动安装步骤 2.1安装nova 相关软件包 y下载python软件包,完成后需要run update: sudo apt-get install python-software-properties sudo add-apt-repository ppa:nova-core/release sudo apt-get update y安装Message Queue Server,Rabbit MQ及python dependencies: sudo apt-get install -y rabbitmq-server sudo apt-get install –y python-greenlet python-mysqldb y根据节点的不同类型,选择安装所需要的nova-packages和dependencies:sudo apt-get install -y nova-common nova-doc python-nova nova-api nova- network nova-objectstore nova-scheduler nova-compute y安装euca2ools 工具包: sudo apt-get install –y euca2ools unzip 2.2 安装MySQL数据库 OpenStack Nova的数据库有多种选择如MySQL 和 PostgreSQL,参照官方手册这里选用 MySQL。另外,数据库需要安装在controller节点上。 y安装mysql-server : bash MYSQL_PASS=nova NOV A_PASS=notnova cat <

ceph安装配置说明

ceph安装配置说明 一、环境说明: 注:在配置系统环境时,需要指定各结点的机器名,关闭iptables、关闭selinux(重要)。相关软件包: ceph-0.61.2.tar.tar libedit0-3.0-1.20090722cvs.el6.x86_64.rpm libedit-devel-3.0-1.20090722cvs.el6.x86_64.rpm snappy-1.0.5-1.el6.rf.x86_64.rpm snappy-devel-1.0.5-1.el6.rf.x86_64.rpm leveldb-1.7.0-2.el6.x86_64.rpm leveldb-devel-1.7.0-2.el6.x86_64.rpm btrfs-progs-0.19.11.tar.bz2 $src为安装包存放目录 二、内核编译及配置:

cp /boot/config-2.6.32-279.el6.x86_64 /usr/src/linux-2.6.34.2/.config make menuconfig #选择把ceph编译成模块和加载btrfs文件系统

make all #若是多核处理器,则可以使用make -j8命令,以多线程方式加速构建内核makemodules_install make install

修改/etc/grub.conf文件,把新编译的linux-2.6.34.2版本内核做为默认启动内核。三、Ceph安装配置: 先安装相关依赖包: rpm -ivh libedit0-3.0-1.20090722cvs.el6.x86_64.rpm --force rpm -ivh libedit-devel-3.0-1.20090722cvs.el6.x86_64.rpm rpm -ivh snappy-1.0.5-1.el6.rf.x86_64.rpm rpm -ivh snappy-devel-1.0.5-1.el6.rf.x86_64.rpm rpm -ivh leveldb-1.7.0-2.el6.x86_64.rpm rpm -ivh leveldb-devel-1.7.0-2.el6.x86_64.rpm 编译安装ceph: ./autogen.sh ./configure --without-tcmalloc --without-libatomic-ops make make install 配置ceph: cp $src/ceph-0.61.2/src/sample.ceph.conf /usr/local/etc/ceph/ceph.conf cp $src/ceph-0.61.2/src/init-ceph /etc/init.d/ceph mkdir /var/log/ceph #建立存放ceph日志目录。 修改ceph配置文件,除客户端外,其它的节点都需一个配置文件ceph.conf,并需要是完全一样的。这个文件要位于/etc/ceph下面,如果在./configure时没有修改prefix的话,则应该是在/usr/local/etc/ceph下: vimceph.conf [global] max open files = 131072 log file = /var/log/ceph/$name.log pid file = /var/run/ceph/$name.pid keyring = /etc/ceph/keyring.admin auth supported = none #取消挂载时的认证 auth cluster required = none #取消挂载时的认证 auth service required = none #取消挂载时的认证 auth client required = none #取消挂载时的认证 [mon] mon data = /data/$name

Cisco Nexus 9000系列交换机入门级部署

指南Cisco Nexus 9000 系列交换机 在中小型商业数据中心的 入门级部署 Carly Stoughton 2014 年 11 月

目录 简介 (4) 概述 (4) 免责声明 (4) 为什么选择 Cisco Nexus 9000 系列交换机 (4) 关于 Cisco Nexus 9000 系列交换机 (5) 思科 ACI 就绪性 (6) 思科 ACI 是什么? (6) 将 Cisco Nexus 9000 NX-OS 模式转换为 ACI 模式 (7) 数据中心设计演进 (8) 传统数据中心设计 (8) 生成树支持 (9) 商业紧缩设计 (9) 第 2 层与第 3 层影响比较 (10) 思科第 2 层设计演进:虚拟 PortChannel (12) 虚拟重叠 (13) 主干-枝叶数据中心设计 (14) 重叠设计 (15) 其他 Cisco Nexus 9000 功能支持 (17) 服务质量 (17) 组播 (19) SNMP 和支持的 MIB (19) 商业拓扑示例 (20) Cisco Nexus 9500 平台产品系列 (20) Cisco Nexus 9300 平台产品系列 (21) 设计 A:两台交换机 (22) 设计 B:两台汇聚交换机和两台接入交换机 (23) 设计 C:两台汇聚交换机和四台接入交换机 (25) 设计 D:四台汇聚交换机和四台接入交换机(采用主干-枝叶架构) (25) 与现有网络集成 (26) 接入层设备连接 (26) 设计 A 集成 (26) 设计 B 集成 (27) 设计 C 和 D 集成 (28) 交换矩阵扩展器支持 (30) 存储设计 (32) 最终状态拓扑 (35) 示例:Cisco Nexus 9000 系列设计和配置 (36) 硬件和软件规格 (36) 基本网络设置 (37) ECMP 路由设计 (39) 服务器 NIC 组合设计和配置 (40) 重叠设计和配置 (44) 为什么实施 VXLAN? (44) VXLAN 如何工作? (45) 组播考虑事项 (45) 主干(汇聚)组播配置 (46) 枝叶(接入)组播配置 (47) 在商业拓扑中使用 VXLAN (48) 服务设计和配置 (50) 交换矩阵管理和自动化 (52) Cisco UCS Director (52) Cisco Prime 数据中心网络管理器 (53)

Ceph-原理-安装-维护-Centos7

Ceph在存储中的层次 第一层:物理存储介质。 a.LUN:通常将硬件生成生成的虚拟磁盘叫LUN, 比如raid卡生成的虚拟磁盘。 b.Volume:通常将软件层次生成的虚拟磁盘叫做卷,比如LVM生成的逻辑卷。 c.Disk:就是物理磁盘 第二层:内核层次的文件系统,维护文件到磁层磁盘的映射关系。(用户一般不需要管) 第三层:应用层次的文件系统(需要用户自己手工安装应用程序,启动应用进程) 第四层:网络文件访问系统NFS, CIFS(服务器端装Server,客户端装Client,挂载目录远程访问) Ceph原理

1.Ceph存储系统的逻辑结构 2.Rados的系统逻辑结构 3.Ceph寻址流程

4.ceph部署网络拓扑 备注:Cluster Network可选,但是最好建议有该网络,用于OSD扩展时,后端网络传输数据用。 在实际工作中时,深有体会,如果只有public network,在OSD扩展时,由于ceph需要重新“搬运”数据,导致升级长达5个小时。如果有专门的集群网络(万兆交换机+光钎),几分钟升级完成。 Ceph安装(ceph-deploy) 1.环境准备以及各ceph节点初始化 ?部署逻辑架构 节点安装组件备注

该章节的操作均通过root执行且在各个ceph节点均要执行 ?修改/etc/hostname #vi /etc/hostname #如果为其他节点调整为其他节点的名称 ceph{number} #如ceph1 #hostname -F /etc/hostname #立即生效,断开shell重新登录 ?创建安装用户irteam且该用户不需要tty #useradd -d /home/irteam -k /etc/skel -m irteam #sudo passwd irteam #echo " irteam ALL = (root) NOPASSWD: ALL" | sudo tee /etc/sudoers.d/irteam #chmod 0440 /etc/sudoers.d/irteam 修改/etc/sudoers,irteam用户不需要tty #chmod 755 /etc/sudoers #vi /etc/sudoers #添加如下配置,而不是将原来的Default requiretty注释掉 Defaults:irteam !requiretty #chmod 440 /etc/sudoers ?yum源以及ceph源设置 #yum clean all #rm -rf /etc/yum.repos.d/*.repo #wget -O /etc/yum.repos.d/CentOS-Base.repo https://www.wendangku.net/doc/9718880060.html,/repo/Centos-7.repo #wget -O /etc/yum.repos.d/epel.repo https://www.wendangku.net/doc/9718880060.html,/repo/epel-7.repo #sed -i '/aliyuncs/d' /etc/yum.repos.d/CentOS-Base.repo #sed -i 's/$releasever/7.2.1511/g' /etc/yum.repos.d/CentOS-Base.repo #vi /etc/yum.repos.d/ceph.repo #增加ceph源 [ceph] name=ceph baseurl=https://www.wendangku.net/doc/9718880060.html,/ceph/rpm-jewel/el7/x86_64/ gpgcheck=0 [ceph-noarch] name=cephnoarch baseurl=https://www.wendangku.net/doc/9718880060.html,/ceph/rpm-jewel/el7/noarch/ gpgcheck=0 ?安装ceph #yum makecache #yum install -y ceph

puppet自定义facter说明

Puppet之ruby模块说明 1 说明 使用自定义facter分别获取客户端ip地址和网卡名称,不需要在客户端安装脚本 2 配置 管理服务器和被管理服务器都要配置 #vim /etc/puppet/puppet.conf [main] factpath=$vardir/lib/facter pluginsync=true 新建目录 以nrpe模块为例 mkdir -p /etc/puppet/modules/nrpe/lib/facter 3 脚本 #cd /etc/puppet/modules/nrpe/lib/facter 获取外网网卡脚本 vim wannetcard.rb Facter.add(:wanname) do setcode do %x{ /sbin/ifconfig|egrep -v "127\.0\.0\.1\|192\.168\.7\."|grep -B 1 "inet addr:"|grep "eth"|/usr/bin/awk '{print $1}'|grep -v ":" }.chomp end end 获取内网网卡脚本 vim lannetcard.rb Facter.add(:lanname) do setcode do %x{/sbin/ifconfig|grep -B 1 "192\.168\.7\."|grep "eth"|awk '{print $1}'|grep -v ":"}.chomp end end 获取客户端外网IP Facter.add(:getip) do confine :kernel => :linux setcode do ip = nil output = %x{/sbin/ifconfig|egrep -v 'eth0[::]|eth1[:space:]'|grep -A1 "eth"|grep "inet addr:"} # a=output.split(/^\S/) # a.each { |str| print str} output.split(/^\S/).each { |str| if str =~ /inet addr:([0-9]+\.[0-9]+\.[0-9]+\.[0-9]+)/

相关文档
相关文档 最新文档