数据的相关性是指系统对SSD多次访问的关系,具体表现就是多次访问地址的范围大小。这是属于操作系统一级的操作,在多数PC用户的应用环境中,系统的数据访问相关度是非常高的,很多操作的地址前后是连续的,或者说集中在一定范围内;而在多用户的Server应用中,数据的相关度则比较低,因为各个用户之间的相关性本身就比较低,导致其需要的范围也没有太大的相关性。对于相关性较高的多次数据请求,可以由SSD的控制IC合并成一个请求,从而减少Erase操作次数、延长SSD的寿命。
这是NAND存储颗粒特有的一个属性。因为在NAND Flash中,数据的存放是以Page和Block来组织的,所以如果系统的数据访问能够对齐到Page或者Block,就能够大大减少写入操作跨Page、跨Channel(数据通道)、跨Block的情况出现,也会减少Flash的P/E延迟,延长整个SSD的寿命,并且在一定程度上能够提高写入性能。
每种应用方式都有对SSD的访问强度,例如有些应用场合需要24(小时)×7(天)不间断工作,而且几乎每秒钟都在进行数据读写操作(服务器应用);而另外一些场合则只需要进行8×5的应用,且工作时间对SSD的访问频率很低。对于这两种截然不同的应用场合和需求,SSD产品所表现出的寿命长短肯定会存在巨大差异。
可能有些朋友会觉得这个理由比较牵强,容量越大的SSD产品使用寿命也会越长吗?答案是肯定的,因为从理论上来说,SSD容量越大,其能够承受的总的写入请求数就越大;从Flash磨损和坏块管理机制的角度来看SSD的寿命基本上跟容量成正比。虽然在实际应用中我们不可能等到“海枯石烂”的时候再想起换硬盘,但是容量越大的硬盘,其在硬度磨损时的余量也越大。
在了解了这些影响SSD产品寿命的因素之后,我们就可以对SSD产品的寿命进行一个简单的估算。一个典型的笔记本电脑用户,每天开机10小时、每周开机6天,应用Windows XP操作系统,其SSD访问平均强度为100 IOPS,所有I/O比例为3∶1,访问数据块的大中小比例为3∶4∶3,自适应通道中分别对应4∶2∶1个块操作,Cache命中率为70%。
64GB的MLC SSD一共有64GB÷512KB/Block=128K Block;每个Block中的读写次数极限3万次,则整个SSD所能够承受的极限总数为:128K Block×3万次=3.84 Billion亿次;
用户一周内总的写入I/O次数:100×10小时×3600秒×6天×0.25(读写比率)=5.4M 次;
扣除缓存命中等因素影响后,每周实际写入次数:5.4M×(1-0.7)=1.62M次;
考虑数据块以及文件大小的影响后:1.62M×(4×0.3+2×0.4+1×0.3)=3.726M次;
一年52周,则每年写入次数为:52×3.726=194.3M次;
预计SSD寿命全部耗尽时,共需:3.84 B次÷194.3M次=19.7年。
(以上数据来源于固捷数据的技术资料,不代表本刊观点,仅供参考)
二楼的,性能过剩?现在硬盘的速度远远低于内存的速度,已经成为整机性能的瓶颈,当硬盘的速度和内存接近的时候再说硬盘性能过剩还不迟