突破I/O瓶颈 五种解决方案各有利弊
2008-12-18 11:03:54 来源:WEB开发网这一架构从技术上看似乎是无懈可击的。它真的一举解决了所有问题的问题吗?非也!当考虑到成本的时候,问题就出现了。即使按照最保守的32个节点计算,在不考虑容错的前提下,整个SAN系统需要至少提供32个端口用于连接主机,另外还至少需要4个端口连接磁盘阵列。要建立如此庞大的SAN网络,其成本将相当可观,这也就失去了Linux并行集群的最大优势----性能价格比。
FC-SAN的成本昂贵,能否考虑替代技术呢?那么不妨考虑以相对成本较低的iSCSI技术替代FC的解决方案。
方案四、以iSCSI技术取代FC
以iSCSI替代FC技术构建SAN网络的确可以降低一定的成本。按32节点的例子计算,不考虑磁盘阵列部分,FC-SAN的硬件成本约为每端口$2000以上,采用iSCSI技术可以将这个数字降低到$1000以内。性能虽然受到一定影响,但仍会比目前的状况好很多。
然而,iSCSI技术的引入只能降低硬件产品,而对软件成本则没有任何影响。SAN架构文件共享软件的一般价格是每节点$5000~$7000,当硬件成本降低后,这部分软件成本占了SAN成本的大部分,存储系统的总体成本仍然明显高于计算节点的总和。
如此看来,无论采用哪种连接技术,只要试图将所有节点直接连接存储设备,共享软件的成本都是一个无法逾越的障碍,目前只能在其他方向上寻找解决办法。
方案五、多I/O节点间以PVFS实现负载均衡
让我们重新回到多I/O节点的架构下,来尝试解决多逻辑数据源带来的问题。并行文件系统(PVFS)似乎是个不错的选择。
从图中可以看到,以PVFS替代传统的NFS共享之后,多I/O节点被虚拟为一个单一数据源。各个前端计算节点可以面对这个单一的数据源进行读写操作,省去了复杂的管理。而PVFS架构中的管理服务器,将前端的所有I/O请求均衡负载到各个I/O节点,从而实现了系统I/O的自动负载均衡。
需要说明的是,PVFS本身有两个重要版本。其中PVFS1存在严重的单点故障问题,一旦管理服务器宕机,则整个系统都无法正常工作。PVFS2中针对这个隐患做了比较大的修正,不再单独设立管理服务器,而是各个运行IOD进程的节点都可以接管该功能,以此来改善系统的单点故障问题。
以PVFS构建的系统甚至不再需要SAN系统内文件共享,因为每个原始数据文件在I/O节点一级就被分割为一组小数据块,分散存储。
笔者对这一方案的顾忌在于技术的成熟度和服务保证。PVFS目前还不是由商业公司最终产品化的商品,而是基于GPL开放授权的一种开放技术。虽然免费获取该技术使整体系统成本进一步降低,但由于没有商业公司作为发布方,该技术的后续升级维护等一系列服务,都难以得到保证。
综上所述,笔者认为上述方案各有优势,但问题也同样明显。如果用户可以接受管理维护的复杂性,那么方案二似乎最为经济实惠。如果用户愿意接受基于GPL无原厂商服务支持的自由产品,并在短期内不考虑对非Linux集群系统的整合问题,则可以采用PVFS技术,即采用方案五。方案三虽然是所有方案中性能最好的,但其高昂的成本显然不是每一个用户都愿意接受的。
更多精彩
赞助商链接