在公司当前情况中,VMware虚拟化情况承载着大年夜约80%的应用体系的运行。跟着应用体系和虚拟桌面需求增多,尤其各类营业体系突发增多,传统的存储筹划已经无法知足请求,须要灵活的应对VMware情况存储需求的筹划。跟着各类软件定义存储的成长和应用,我们也在测验测验和寻找一个比较成熟的┞冯对VMware情况的软件定义存储筹划。
存储筹划的基来源基本则:
- 灵活快速安排,经由过程监控当前情况存储的状况可以或许经由过程快速安排应对存储机能和容量的需求增长。
- 在知足机能请求的前提下,降低成本。
- 通用型存储,以便该存储筹划可以或许应对其他应用处景的需求。
结合VMware所兼容的存储类型接口,在软件定义存储的选型中,我们对当前主流的几款软件定义存储做了一些测试以及分析,综合下来竽暌剐以下特点:
一些开源软件定义存储已经可以经由过程安排iSCSI Gateway供给block存储挂载给VMware ESXi主机应用,但今朝此筹划还不成熟,比如Ceph。
4. SSD pool重要用于存放虚拟桌面镜像
- 容错设备:
一些存储公司的软件定义存储产品已可以与VMware情况集成,但有些产品集成度过高,不敷通用;还有些产品可以自力安排,作为通用存储应用,除了可以或许供给对VMware存储集成支撑,也可实用于其他应用处景。在这一点上,比较相符我们选型前所设定的基来源基本则。
那么,若何对此存储集群进行设计?
在设计前,须要浇忧⒈前VMware运行情况的特点以及容量和机能需求做同一推敲:
- 经由过程监控当前VMware情况,我们发明,在此情况中存储的读写比例约为7:3,读操作明显更多
- 结合虚拟桌面的特点,也更多的是读操作
- 容量需求
- 虚拟桌面的镜像存储须要更优的读机能
结合容量以及将来增长需求,我们推敲此存储集群的存储节点不会跨越16个,我们最终按以下架构进行了第一期安排:
- 采取两套自力的10gb收集用于不合的通信:
1. Private network用于存储节点之间通信,作为数据rebuild和rebalance收集
2. Public network用于存储客户端与存储集群通信,作为数据存储收集
- 采取6台X86办事器作为存储节点,每台办事器设备:
1. 10K SAS 1.2TB × 20
2. SSD 480GB × 4
- 存储藏和Cache设置:
1. 根据硬盘分类将集群分为两个存储藏:SAS pool和SSD pool
2. 应用一部分存储节点内存作为缓存
3. 每台存储节点应用一块SSD作为SAS pool读缓存
我们经由过程FIO对此存储集群做了一个简单的机能测试,结不雅如下:
为了应对办事器故障,同时因为存储集群节点较少,我们设置每台办事器作为一个Fault set,同时预留一台办事器的容量空间作为spare space,可以应对一台办事器故障。跟着集群增大年夜,可以灵活更改此预留空间比例。
当然,VMware情况的实际IO类型要比以上的测试更为复杂,今朝此套集群已经能知足当前需求。我们也将赓续根据实际应用情况汉孟耋,慢慢增长集群存储节点,结合cache技巧,进行存储机能优化。
【编辑推荐】
- 关于云存储体系的六大年夜技巧分析
- 关于分布式存储,这是你应当知道的(图文详解)
- “NAS存储”PK“移动硬盘存储”的那些优势
- 洞察存储趋势,扶植高效存储体系
- 影响云存储采取决定计划的两大年夜身分:容量和成本
推荐阅读
程序员市场需求调查:React.js获前五,AngularJS掉出前十!
Upwork的最新技能指数查询拜访显示,与客岁同期比拟,排名前十的增长最快的自由职业技能列表(包含区块链,比特币,React.js,深度进修等)跃升跨越200%。Swift,AngularJS和机械进修已经>>>详细阅读
地址:http://www.17bianji.com/lsqh/38661.html
1/2 1