WEB开发网
开发学院服务器存储技术 重复数据删除对备份技术的影响 阅读

重复数据删除对备份技术的影响

 2008-08-21 11:57:19 来源:WEB开发网   
核心提示: 重复数据删除比率与所用处理的颗粒精细程度相关,理论上讲,重复数据删除对备份技术的影响(4),更细致的颗粒会带来更高的重复数据删除比率,然而,包括了它的虚拟化和供给容量功能,因此,更细致的颗粒意味着大量的Hash表,会导致更糟糕的重复数据删除性能和更高的CPU消耗

重复数据删除比率与所用处理的颗粒精细程度相关。理论上讲,更细致的颗粒会带来更高的重复数据删除比率。然而,更细致的颗粒意味着大量的Hash表,会导致更糟糕的重复数据删除性能和更高的CPU消耗。

一般来说,10:1的重复数据删除比率是很现实角度的评估起点,足以满足一般性的业务应用规划需求。

集群式重复数据删除是新的技术发展方向

从性能的角度看,只能提供单台重复数据删除服务器/设备的解决方案根本无法满足每天需要备份成百TB数据或每天需要多次备份的大型企业的需求。在这种情况下,重复数据删除反而会造成瓶颈。一些企业考虑用两台或多台设备完成这一工作,但由于每台设备都保留了它自己的Hash索引,设备根本不能鉴别出重复的数据是否已经由另一台设备备份。这种方法不仅会影响到重复数据删除的比率,还会增加维护的工作量。

单台重复数据删除服务器/设备也会成为单点故障。如果重复数据删除服务器/设备发生故障,所有的备份工作则都将失败,更糟的情况是造成恢复过程中的失败。尽管单台重复数据删除服务器/设备在实际应用过程中出现故障的情况非常罕见,但这对企业来说还是一个潜在的、无法接受的风险。

其实,针对这个难题有一种解决办法,就是重复数据删除集群,即利用双工故障切换架构。在集群的重复数据删除架构中,2或4台重复数据删除设备被虚拟化为一台,为用户提供了双倍或四倍的吞吐及处理能力。如果他们中的任意一台出现故障,另外的设备就会自动的接管它的工作负荷,以确保处理的连续性。由于集群仍然保留的是单个的Hash表,因此它不会影响到重复数据删除比率。

以行业知名的美国飞康软件公司的SIR技术为例,飞康SIR是应用于业界领先的飞康VTL解决方案的重复数据删除技术。飞康SIR可在一个性能集群中支持4个节点并可应用于所有的飞康VTL节点,从而优化了管理能力和扩展能力。这个集群架构通过统一性的添加节点,使企业可以扩展到最大容量(最多4个节点,每个节点64TB,合计256TB)和速度(每个节点的重复数据删除约为300MB/秒,合计最大1.2GB/秒)。内置的N+1故障切换功能,SIR重复数据删除引擎是后处理方式,在不影响恢复或备份窗口的情况下减少了存储成本。此外,由于SIR解决方案基于飞康历经验证的IPStor® 技术平台,包括了它的虚拟化和供给容量功能,因此,用户可以在任意时间添加存储而不用中断处理。

上一页  1 2 3 4 5 6 7 8  下一页

Tags:重复 数据 删除

编辑录入:爽爽 [复制链接] [打 印]
赞助商链接