WatchStor.com — 领先的中文存储网络媒体 | 51CTO旗下网站

技术文档 > 重复数据删除 > 正文
再看今日备份重删
作者: 佚名 2014-11-04 10:48 【TechTarget中国】

重复数据删除技术在今天的备份领域已经非常普遍了,它被认为是理所当然的。然而在选择重复数据删除之前,有很多重要的事情需要考虑。

在过去的几年中,重复数据删除已经从一个“锦上添花”的功能变成了备份产品的一个必备清单项目。事实上,重复数据删除已经变得司空见惯,以至于出现了组织机构竟然没有意识到他们已经使用重复数据删除技术的情况。

鉴于重复数据删除司空见惯的时代已经来临,以下问题仍然是值得考虑的,那就是是否有正当的理由来避免使用重复数据删除技术。为了回答这个问题,我们有必要先来看看重复数据删除是如何工作的。

重复数据删除架构

关于重复数据删除,首先要了解的是它有许多不同的类型。重复数据删除能够在硬件层面或软件层面上来实现,或者两者结合实现。同样,重复数据删除可以在数据源端进行,在备份目标端进行或者两者兼而有之。

源端重复数据删除在数据传输链路较慢的应用场景中会有帮助。在源端进行重复数据删除的数据使得数据可以在传输之前被压缩,从而能够更快速地传输数据。

目标重复数据删除是在备份目标或远程存储设备上进行操作的。它的主要目的是降低存储成本。目标重复数据删除通过删除重复数据,使实际使用的存储空间远低于原本的使用情况。

有 时候,源端和目标端重删需要同时使用。这一方法背后的想法是,正在传送至目标端的数据可以通过源端重复数据删除而减少。然而如果多个数据源同时存在,那么 在这些数据源中间,可能会存在一定的冗余度。目标重复数据删除过程消除了所有的跨数据源的冗余,从而进一步的降低备份存储的成本。

同样需要了解的是重复数据删除可以在线处理或者后处理。在线重复数据删除是实时 进行的。数据在传输或存储的过程中就会进行重删操作。后处理重复数据删除是在 存储层面上实现的,它需要将数据以一种未压缩的形式进行初始的存储。后处理重复数据删除可以将重复数据删除进程推迟运行,从而在用户使用系统的高峰期不占 用额外的系统资源。

重复数据删除潜在的缺点

多数情况下,重复数据删除并没有实际的缺点。一些已经干了数十年IT的管理员表示了对重复数据删除技术的反感,因为它让人想起了一种叫做交叉连接文件的常见文件格式。因此,他们质疑重复数据删除进程的可靠性。

一些组织不愿意使用重复数据删除的一个更重要的原因是,他们担心重删进程可能会在某些情况下对性能产生不良的影响。以源端重复数据删除为例。如果重删是在软件层面上进行的,则重删进程不但会消耗内存和CPU资源,同时也会导致额外的磁盘I/O消耗。

尽管重复数据删除造成的系统开销不可否认,但这种影响也可以忽略不计。假设你的硬件资源对于这些指定的工作负载(以及任何可能发生的负载峰值)能够很好支持,这会是一个很好的机会,硬件能够很好的处理重复数据删除进程而不会产生明显的性能降低。

此外,重复数据删除对性能的影响可能也是值得的。如果源端重复数据删除导致系统性能下降5%,但传送数据快了50倍,那这些性能影响相对于效率的提高是不是值得的?也许吧。如果5%的性能损失会导致系统变得明显迟缓,那么可能是服务器超载了。

有些组织避免使用重复数据删除的另一个原因是因为对于某些数据类型它可能是无效的。只有当数据中存在冗余数据,重复数据删除才能起到很好的效果。但是如果数据是非常独特的,或者是已经被压缩过的(如ZIP文件或流媒体文件),那么重复数据删除将不会发挥什么作用。

虽然一些组织不选择重复数据删除技术事出有因,但还是有更多组织抱着极大的兴趣 去部署它。重复数据删除技术足够成熟,并且是稳定和可靠的。此外,重复数据删 除技术可以减少存储成本,同时提升带宽使用效率。当然,要有效利用重复数据删除技术的关键是找到适合您特定需求的最佳方法。


标签:重复数据删除 

了不起的IT经理
LecVideo
论坛与活动