WatchStor.com — 领先的中文存储网络媒体 | 51CTO旗下网站

评测导购 > 数据保护 > 正文
专家谈重复数据删除不同阶段的恢复时间
作者: 油菜花 2010-03-09 23:13 【IT专家网】

进行数据保护最重要的是能够及时进行可靠且具有成本效益的数据恢复,无论是在本地还是远程,这一点都很重要。

如果你像大多数的IT专业人士一样,那么你肯定已经思考过重复数据删除技术怎样改善数据保护操作这个问题了。你可能已经听说了,厂商们正在利用很多指标使自己的产品与众不同:资源与基于目标的,在线处理和后期处理的,文件级别与子文件级别指纹的,固定窗口与窗口长度可变的,单一的与全局重复数据删除保存的等等,让人们很难作出决定。

做出灾难恢复(DR)操作的决策需要遵循的一个关键指标是恢复所用的时间(TTR)。

探讨关于重复数据删除技术方面的文章有很多,但是“不同的方法怎样影响灾难恢复技术恢复数据所用的时间”这个话题却一直没有得到很适当地解决。随着数据保护操作变得越来越以磁盘为基础,企业把数据从基于磁带的设备上迁移出来时应该大量利用重复数据删除技术和数据复制等技术。

本文我们将了解将备份数据从分散站点迁移到集中式站点,然后为了灾难恢复而再将其迁移到远程站点的整个的系统流程,我们将会按照恢复点目标(RPO)与恢复时间目标(RTO)对以目标为基础的两个主要的重复数据删除架构的影响进行评估,这两个架构分别是在线处理和后期处理。

为了进行这样的一个比较,我们的头脑中需要始终保持的一个重要的观念是:这会影响到灾难恢复的最终结果以及整个重要的数据保护过程的成本;仅仅侧重于对这一过程中的一个或者多个中间步骤进行比较,就足以让你能够充分理解获得底线目标的能力:需要用具有成本效益的做法来满足你的RPO/RTO要求。

在线处理与后期处理

要想说明在线处理与后期处理间的不同之处的最佳做法是描述两者在备份过程中分别是怎么工作的。在这两种情况中,你有自己的备份资源(通常称为“备份客户”)和备份目标。在线处理过程中,重复数据删除设备被定义为备份目标。在数据被写入目标之前将那些处于运行的数据删除;只有经过了重复数据删除操作之后,数据才会被存储起来。后期处理过程中,重复数据删除设备同样被定义为备份目标,但是数据一开始就会以原本的形式被写入磁盘。然后在接下来的过程中会挑选出这些数据,对它们进行重复数据删除,并将其再以重复数据删除形式写入设备中。

在线处理中,重复数据删除过程可能会增加一定的潜伏期,而且在过去人们会有这样的一个担心:在线设备可能会影响备份的性能。而在后期处理重复数据删除过程中,人们需要增加比预先更多的存储空间(以便将备份数据写为“未重复数据删除”的格式)和更多的时间(一旦备份开始,重复数据删除就变成两个独立的连续的进程)来将备份数据处理为重复数据删除格式。

一直以来厂商都在努力解决这一问题,现在市场上有一些在线重复数据删除设备可以500MBps的单数据流技术的速度或者更高的速度来提取备份数据(并将其转换为重复数据删除格式)。这些在线重复数据删除设备可让备份数据提取的性能低于预期(假设在最有限的网络备份情况下)的性能,但是却可带来最高的性能环境。为了后期处理可与备份数据提取操作同时进行,后期处理做法已经进行了一些改变,大大缩减了将数据提取和处理为重复数据删除格式所需的时间。夜间备份工作往往被分为大量按顺序作业的备份工作,在这样的情况下,一些后期处理厂商现在已经可以对全面的备份工作进行重复数据删除,同时他们还可以从其它设备中提取数据。


图:假设数据一直都停留在磁盘上,那么从备份资源上迁移数据到灾难恢复站点往往需要一个分三步走的过程(备份、重复数据删除和数据复制)。但是需要知道的是,在线处理做法会同时进行备份和重复数据删除,有效地将其分为两步走的过程。


图1就是很好地说明了在线处理和后期处理的重复数据删除分别对恢复时间的影响。TTR的操作做法在时间上被定义为最早的点(也就是利用的时间最短),你可以从灾难恢复站点恢复一个完整的文件(或者一个完整的系统),这种做法将产生相关的特定的RPO和RTO 。

评估人们对TTR认知程度的一些关键的必要因素有哪些?让我们更加深入地认识一下这几个因素:

网络带宽

什么时候和在哪里进行重复数据删除会严重影响备份所需的时间。

在备份环境中,重复数据删除往往会减少10倍到20倍甚至更多的备份工作规模。如果在靠近资源的地方进行重复数据删除,那么重复数据删除的好处可减少一定量的数据,而以前这些数据必须通过LAN/WAN才能实现从备份资源到主站点的传输,例如让更小的更廉价的重复数据删除设备与远程办公室或分支机构(ROBO)的本地备份目标一样进行工作。这个因素能够帮助大大降低带宽和时间需求。这一过程中你会面临的取舍是:备份的同时进行重复数据删除会增加时间的需求,而必须在网络中传输数量明显更少的数据的话又可能会节约大量的时间。网络带宽在这一比较过程中是一个关键的变量。

备份提取性能

备份提取性能是一个很重要的因素,但不是唯一的因素。但是,你往往需要将这过程的周期最短化,在这一过程中使用的应用的性能可能会因备份操作而降低,但是你需要弄清楚重复数据删除设备的备份提取性能以及网络向设备交付数据的最大数据量。只有这样你才会理解这是否与在线处理和后期处理过程中的重复数据删除设备的备份提取性能有关。


图:应该使用一整套的指标来评估在线处理和后期处理的重复数据删除方法,来准确地预测从远程灾难恢复站点恢复数据所需的时间。

同时进行的重复数据删除操作

对于在线重复数据删除设备来说,可能出现的状况是,由于重复数据删除与提取备份数据同时进行,会导致提取速度变慢。如果在物理定律下这可能能够实现,但是你同样可能预见到后期处理重复数据删除设备的性能会同样出现下降,因为后期处理重复数据删除设备往往在进行备份工作的同时对另一个对象进行重复数据删除。

尽管这不是对比的唯一点,但是为了在同一个水平上对在线处理和后期处理进行比较,你需要理解后期处理设备的重复数据删除的性能如何,而不能停止于对备份提取性能的了解,并且你还需要理解同时进行备份提取的时候如何进行转换。在线处理厂商会公开公布重复数据删除性能与备份提取性能的特点,然而后期处理厂商通常仅仅报告备份提取的性能,而不公开重复数据删除的性能。如果要想知道本地备份什么时候完成你不需要知道两种数据点,但是,一旦不能将备份数据传输到远程灾难恢复站点以及你不知道在该远程站点的TTR是多少的话,你就需要弄清楚这两个的性能了,除非这些数据已完成提取和重复数据删除。

更多网络带宽问题

如果在灾难恢复站点你将数据保存在磁盘上,那么重复数据删除性能可能会对TTR产生另一种影响,这种影响可能不是快速并且明显的。需要对受到毁灭性的灾难影响的多个系统进行全面的恢复,诸如此类的特定的恢复操作可能需要人们将大量的数据传输出去,并且这那样的情况下你往往不能使用广域网来完成任务。大多数的厂商支持将数据倾倒到“运送”设备(一个设备、磁带等),以便可将数据更快地运送到恢复站点(假设与灾难恢复站点不同)。通常处于主站点的数据可能遭到了破坏,但是该站点本身没有遭到破坏,并且主站点往往是首选的恢复站点。如果数据以重复数据删除的格式被存储在灾难恢复站点的磁盘上,你往往想知道,如果要想将数据以其原本的格式传输到这些设备中会需要多少时间。

在关于在线处理和后期处理设备的不同读取性能的调查中我们发现,如果不将数据以最初的格式存储在磁盘高速缓存器的话,在线设备往往比后期处理设备的速度更快(大约3倍到4倍)。能够以400MBps的速度从在线重复数据删除设备中读取数据,与能够以100MBps的速度从后期处理设备中读取数据的差距可能会造成下载数据时的几个小时的差距,这取决于数据的数量。这一不同可能会对TTR产生巨大的影响。

成本和管理问题

不同的做法带来不同的成本开销和管理问题,因此你需要确保你已经完全了解了这些。一个主要的例子是,在与单数据流技术的性能进行比较的时候,了解不同厂商配置要求的型号和成本就变得十分重要,因为只有这样你才能获得最高级别的性能。如果一些做法需要更多的磁盘主轴来获得最高级别的性能的话,那么这将不仅对成本造成局限,还可能会对管理和其他问题(占地面积、能源消耗等)造成限制。在解决大的单一的备份任务的时候,吞吐量是了解TTR的一个可执行的指标,如数据库、单数据流(非聚集数据流)。

数据复制所需的时间

你还需要知道数据复制是一个怎样的工作流程。以及当进行文件备份的时候、当备份任务结束的时候,或者仅当所有备份任务结束的时候,数据复制是否还在进行中?

很显然,你希望能够以重复数据删除格式而非原本的格式对数据进行复制,以便最少地占用主站点和灾难恢复站点的带宽需求,因此你必须等待,直到重复数据删除开始。在最开始的重复数据删除过程中,大多数厂商在存储数据之前都会先对数据进行重复数据删除和压缩,但是并不是所有的厂商在进行数据复制的时候都将数据保存为这样的格式。如果厂商必须要在复制之前对数据进行解压缩的话,完成复制的过程将会对带宽需求造成一定的影响,这也是可能会对TTR造成影响的一个因素。

清楚什么时候构成重复数据删除文件的必要元数据被复制也十分重要。否则你无法将文件从灾难恢复站点恢复,除非这些元数据(关于数据仓库的数据,指在数据仓库建设过程中所产生的有关数据源定义,目标定义,转换规则等相关的关键数据)也处在灾难恢复站点上。

一些方法将元数据与文件同时进行复制,然而其他做法却不会对整个文件的元数据进行复制,除非特殊的备份工作的复制过程结束,或一些情况下甚至更晚些的时候才会同时复制。对于大的数据传输任务来说,完成复制需要的时间的不同决定了什么时候开始从远程站点进行文件的恢复,这之间可能会有几个小时的差距。这将对TTR产生明显的影响。

将数据复制与重复数据删除设备进行功能上的整合而不是使用独立的复制能力来完成任务是有很大的好处的,例如基于阵列的复制。随着元数据传输的结束,综合的选择可让文件立刻适用于灾难恢复站点的只读要求,但是更加静态的选择例如基于阵列的复制,会要求该文件在允许访问之前被手动安装到服务器上。整合的做法让重复数据删除之后的数据的完整性的管理工作变得更加容易,但是即使这样你往往想知道厂商是怎样解决数据完整性问题的。在重复数据删除后的环境中,大块数据的丢失可能会影响几百或几千的不同的文件,因此,你一定要确保你对厂商在此方面的做法的可靠性是满意的。

恢复的时间

在比较恢复时间的时候,厂商显然想告诉用户他们可提供很快的恢复能力。在线的做法不会将数据隐藏为原本的格式,然而大多数后期处理厂商建议至少要维持最新的备份数据的原本的格式,以便促进更快的恢复。(据统计,如果可行,大多数恢复来自于最新的备份)

在比较恢复时间的时候,要确保你已经清楚了数据从远程站点被恢复所需的时间,无论被隐藏在主站点上还是非主站点上。维持主站点的一个大的缓存可能会导致更佳的恢复时间,例如已被传输到灾难恢复站点的数据,但是这可能不是恢复种类(你必须在你的环境中操作)的现实的代表。

磁盘价格变得越来越实惠了,但是主站点上的大量的缓存花费了比更少缓存或没有缓存的磁盘更多的费用。如果被隐藏很多天的话还值得备份在主站点上么?如果必须在灾难恢复站点进行恢复的话,你可以做的是什么?你需要的数据会适用于主站点的磁盘存储么?数据不仅应该在主站点上,还应该必须是可恢复的。在灾难发生的时候,上述情况可能并非总是如此。

在考虑这些问题的时候,头脑中有一些意识变得日渐明显。如果你有严格的RPO/RTO请求的话,运行速度很快的最新版本的在线重复数据删除技术可能会很好地创造TTR,可能会比后期处理的重复数据删除技术的做法少用几个小时的时间,甚至当后期处理做法的备份提取(而非重复数据删除)性能比在线设备的超额完成任务量在2倍到3倍的情况下也是如此。在你处理大的备份集的时候这就不再是一个问题了,在与可同时进行备份提取和重复数据删除的后期处理技术进行对比的时候,我们发现单一的最大的备份任务将很可能决定在线处理与后期处理做法的TTR的不同。这是因为大多数的后期处理重复数据删除做法在备份任务完成之前不能开始进行重复数据删除。这就意味着有着严格的恢复规定的规模较大的企业实际上可能更适用于在线重复数据删除技术。提供带有重复数据删除性能的这些解决方案至少可以满足你的网络交付数据能力的要求。

在制定采用重复数据删除技术的灾难恢复战略的时候,与数据复制功能进行整合是满足企业恢复需求的一个关键的功能,不仅可以简化数据迁移流程,还有助于进行更加自动的数据恢复,并提供可能减少几个小时时间内的TTR。

总结

虽然不同厂商的产品的架构存在很大的不同,但是这些不同并不会对TTR造成很大的影响,因为市场上仍然有一些可以起到作用的关键产品。通过了解你的需求,然后了解不同厂商做法的影响,你就可以把工作重点放在指标的定制上,并且让这些指标来帮助你更直截了当地作出技术决策。

【编辑推荐】

  1. Nexenta推NexentaStor 3.0:为主存储提供联线重复数据删除
  2. Spectra nTier重复数据删除工具获得OpenBench Labs的好评
  3. IBM推出针对大型主机的重复数据删除产品
  4. 飞康发布第二代重复数据删除管理器FDS 2.0
  5. 戴尔向Exanet发出收购要约 将与EMC在重复数据删除进行合作

标签:数据保护 存储资源管理 备份恢复 重复数据删除 

了不起的IT经理
LecVideo
论坛与活动