WEB开发网
开发学院服务器存储技术 测试:Data Domain拔得重复数据删除头筹 阅读

测试:Data Domain拔得重复数据删除头筹

 2009-01-07 12:11:30 来源:WEB开发网   
核心提示: 虽然配置过程并不简单,但是有些方面更注重企业存储技术,测试:Data Domain拔得重复数据删除头筹(2),而不是全面IT技术,通过远程登陆或者附加KVM使用CLI来完成安装,传统备份方法被不断完善甚至是突破了原有的局限性,DD120在分支机构的应用结合DD690或者DD510在数据中心

虽然配置过程并不简单,但是有些方面更注重企业存储技术,而不是全面IT技术。通过远程登陆或者附加KVM使用CLI来完成安装。我发现,在第一次登陆的时候是必须要更改默认密码的。我们安装了存储设备、复制和OST的许可,然后架构网络、文件系统、系统和管理设置。确认设置完成之后重启系统,再开始安装CIFS和NFS共享。

CLI可以帮助你结束命令、运行命令树以及提供帮助。然而,它仍然只是CLI,而我更倾向于选择更好一些的Web GUI。不过我认为这是Data Domain一个最主要的缺点——虽然GUI能够完成任务,但是却并不完善。我可以在一个屏幕下监控所有这三个部分的运作情况,但是在真正管理的过程中就必须使用CLI。Data Domain有关负责人表示,他们的大多数用户都是使用CLI的(这一点也在我们的调查过程中得到了证实),下一步他们将研究升级加入Web GUI的应用。

文件资料组织缜密且信息详尽,这远不会降低向数据中心增加新技术可能存在的问题。例如,我们使用扩展套件对DD510进行升级,在10分钟内配置6个250GB附加驱动器,这就组成了一个由8个磁盘构成的RAID组、一个由6个磁盘构成的RAID组以及能够被每个组使用的热备份盘。

我们的实验室测试过程中发现,重复数据删除率从5倍到99倍不等,主要取决于文件类型和相同内容备份的次数。一般来说,在你完成第一次备份之后,由于压缩的原因不会释放太多空间,然后在接下来的备份中能够节省下的空间慢慢增多。许多企业在备份、归档和业务连续性流程方面的配置与我们没有太大区别。在通过WAN连接复制之前高效重复数据删除所能节省下的成本和时间是非常惊人的。

在完成实验室测试之后,我们开始对Data Domain进行走访来了解实际应用过程中的重复数据删除率。我们采访了一家名为The Rockefeller Group的公司,这是一家提供商业地产、地产服务和电信服务的公司。该公司高级IT服务工程师Sanja Kaljanac表示,他们数据中心在DD565上可以达到100倍的数据删除率,在分支机构的DD120上可以达到67.5倍的数据删除率。在对其他Data Domain用户提供的日志文件进行分析后我们发现,压缩率从10倍到40倍不等,DD690上的最高吞吐量在每秒300~500MB之间。除了Rockefeller Group之外,其他采用了Data Domain产品的地产公司还包括Land America Financial Group and Skidmore和Owings and Merrill。

我们的实验室测试结果和实际调查结果表明,Data Domain的重复数据删除技术在站点间或者通过WAN连接的备份、恢复和归档方面具有一定的优势。考虑到维持多站点企业业务连续性所需的数据量,传统备份方法被不断完善甚至是突破了原有的局限性。DD120在分支机构的应用结合DD690或者DD510在数据中心应用不仅能够消除局限性,而且还会让你对现有业务连续性流程进行重新评估。 

l 测试产品总价格:293540美元

l DD690(带有扩展架的基本架构):210000美元

l DD510:19000美元

l DD510扩展套件:13000美元

l DD120(带有复制功能):12500美元

l DD690复制软件许可:35000美元

l DD510复制软件许可:2540美元

l DD510复制软件许可:1500美元

上一页  1 2 

Tags:测试 Data Domain

编辑录入:爽爽 [复制链接] [打 印]
赞助商链接