|
本帖最后由 cocker 于 2013-11-2 00:12 编辑
ITCK 发表于 2013-11-1 20:36
同样的标称当然有不同的颗粒,所以我说intel 自己的MF2标称1000,后来可能觉得宣传上不好,所以才改的300 ...
看了一下这个测试,由于并没有给出测试软件Anvil's Storage Utilities寿命测试的配置文件,因此无法判断测试数据的写入模型,随机数据占多少比例呢? 也无法判断测试过程中有没有让ssd休息做GC,这些都是是影响写入放大的,他们给出的写入数据是从Anvil's Storage Utilities和SMART中的F1值取得的,是操作系统的写入量,而不是SSD内部的实际写入量,实际上840和840Pro的nand写入量可以从SMART数据中的B1值取得,B1值表示全盘擦写次数,这个值从470系列的SSD开始就有了,从以下这段话可以看出,他们连如何从840和840Pro的SMART数据中取出代表全盘擦写次数的B1值都不会:
http://techreport.com/review/25320/the-ssd-endurance-experiment-22tb-update
We can compare those totals to the host write tallies in order to get a sense of write amplification. Both HyperX drives report 21.6TB of host writes, resulting in write amplification factors of 1.05 for the incompressible data and 0.72 for compressible data. The Intel 335 Series registers 22.9TB of total NAND writes on 21.6TB of host writes, closely matching the write amplification of its HyperX counterpart. Unfortunately, the other SSDs don't track NAND writes in addition to host writes, preventing us from calculating their write amplification factors.
这就无法判断840和840Pro的写入放大了,更无法判断840和840Pro的擦写次数了,由于测试数据样本和测试过程的不透明,因此这个测试结果完全无法反映840和840Pro的寿命...
还有一点: 和840、840Pro一起对比的盘都是240G的,出厂就已经做了16G的OP空间,这16G的OP空间是很影响写入放大的,也很影响测试过程中的写入性能,如果非要放到一起对比的话,至少先对840和840Pro手工做OP空间,把840和840Pro都做成240G的盘放到一起测试才算公平。
|
|