WatchStor.com — 领先的中文存储网络媒体 | 51CTO旗下网站

评测导购 > 数据保护 > 正文
重复数据删除 为何如此吸引CIO们的眼球(1)
作者: 佚名 2010-01-27 09:40 【计世网】

对于企业的IT管理者来说,想随时关注其IT环境所采用的技术显得颇不现实,而每天花上几小时来掌握市场上所有的新技术和解决方案的动态更是不太可能。那么,在宏观经济持续疲软的今天,IT管理者们应该把注意力更多地放在哪些地方呢?

据IT管理杂志《CIOInsight》及其网站公布的“信息主管2009年最优先考虑的事项”的研究结果显示,在200多位受访者中,有38%的受访者把“降低成本”作为2009年最优先考虑的事项,而在2008年时,这个数字只有29%; 有37%的受访者把“降低ROI的成本”作为在下一年管理中最优先考虑的事项; 而34%的受访者表示“提高IT投资的回报率”将会是其最重要的管理措施。显然,IT部门在今后将会很明智地进行开支预算,其投资回报将以月(而不是年)来衡量。

而在IT管理者拟定的近期项目采购清单上,重复数据删除产品最受青睐。其中的理由很简单,这些产品提供的效益比琳琅满目的存储产品更多,因为它们降低了数据保护的投入和运营支出,促进了分布式备份操作的整合,并且减少了服务器虚拟化相关的存储费用。

据ESG预计,数据库中数据(结构化数据)每年的增长速度为25%,而非结构化数据的增加则是它的2到3倍。这么多信息的产生,以及由于政府法规遵从、电子举证等对信息存储期限的规定,使信息的存储容量需求让人难以应对; 再加上容量需求增长所带来的存储占地空间、存储设备采购、与存储相关的操作成本和管理成本等的提升,企业中IT部门所承受的压力可见一斑。

数据保护产生的影响多重效应

数据的增长成本是很昂贵的,但最大的“信息成本”来自那些出于数据保护目的所产生的大量的数据副本。当ESG询问近400名IT决策者在数据保护方面遇到的最大难题是什么时,得到的最多的答案是“与需要保护的数据的容量保持同步”。问题是数据保护操作的效率可能会很低—备份应用为同一文件(或略做修改)产生出了许多份备份,而实际上该文件只有少量的数据发生了改变,而且,即使该文件没有改变或对企业已经不再有用,也仍然会制作出几十份相同的数据副本并长时间保存。

在这种情况下,很容易使备份流程的效率低下。大量冗余的备份文件堵塞了局域网、广域网和SAN,消耗了企业内部和外部的存储容量。因此,数据保护进程和二级存储系统对容量过剩问题有很大的影响,但也为其优化提供了最明显的机会。

问题的复杂化

在某些情况下,当企业实施新技术来解决其他IT相关问题时,则增加了数据保护的容量。例如,很多信息主管正通过部署服务器虚拟化解决方案来推动数据中心的整合和“绿色”项目,这些解决方案使客户能够在单一硬件上运行多个服务器,提升了使用率。然而,ESG研究发现,在实施了服务器虚拟化技术的企业中,有超过1/3的企业的备份数据总量有所增加。由于虚拟机磁盘映像包含操作系统、应用程序和数据,在单一的物理服务器的虚拟机上会有大量的冗余信息。

艰难的协调

随着数据容量的增长及法规、法令规定保留期的延长,所管理的数据量可能会超过分配给备份的时间。为了减少备份时间,IT部门在备份进程中部署磁盘的比率正在上升。然而,ESG发现,存储系统的成本是另一个最受关注的问题,这给IT部门出了一个难题:IT部门怎么能在控制支出的同时跟上数据的增长,以提供数据保护所需的适当的服务水平协议?

控制二级存储的成本

数据容量的增长不会减慢。数据保护进程(如备份和复制)更是显著地加快了容量的增长速度。因此,企业采用策略和技术首先对环境进行优化是有道理的,这是不会牺牲性能或带来风险的做法。重复数据删除已经成为一项引人注目的控制存储容量和成本的技术。

不重复存储相同的数据

重复数据删除可识别并消除冗余数据,它可以在文件、块或字节级别上执行。数据查验的粒度越细致,找到并消除冗余数据的机会就越大。在二级存储进程(如备份)中,数据最初在二级存储设备中进行筛选,随后所有写入的数据都会进行冗余查验。相同的数据不会被重复存储,而只是存储与之相同的数据的指针,这将使占用的空间大大减少。

无论采取什么方式,重复数据删除的结果都是能够衡量的。关键的衡量指标之一就是容量缩减的程度,即缩减比。类似10∶1或10倍的缩减,表明了企业能够缩减备份数据的规模和程度,例如将500GB缩减到50GB。如图1所示,在数据保护调查的受访者中,48%的重复数据删除使用者声称缩减比为10倍到20倍,有16%的使用者认为是21倍到超过100倍不等。虽然重复数据删除的缩减比将根据数据类型、全备份频率、保留、跨文件和跨应用程序冗余、本地或全局重复数据删除、重复数据删除算法等不同而有所不同,但ESG实验室的测试发现,20∶1的缩减比总体上是可以实现的。

20∶1的重复数据删除比可以带来显著的容量节省。例如在图2中,如果对20TB的数据每周进行备份,在8周的时间内通常会激增到160TB的备份容量(设置为6周的保留期)。

应用缩减比为20∶1的重复数据删除技术之后,可节省超过140TB的容量,重复数据删除后的存储容量不到18TB。

由更频繁的全备份或更长的保留期所造成的存储的数据量往往会加大重复数据删除比,这使得企业更有理由尽量使用重复数据删除解决方案,因为它可以提高容量并节省了相关预算,同时还可以提高数据从磁盘上恢复的可能性。

重复数据删除为何最吸引CIO的眼球


【内容导航】
 第 1 页:数据保护产生的影响多重效应  第 2 页:数据缩减解决了IT最头疼的事

标签:数据保护 存储资源管理 重复数据删除 

了不起的IT经理
LecVideo
论坛与活动