最近在自己开发文件系统,不知不觉,一个奇妙的想法一闪而过,关于文件的读写。
设想:把单个文件储存在多个磁盘上,由于cpu速度比磁盘速度快,那么可以在一块磁盘上读写的时候,cpu进行另外一个磁盘上读写。那么这样一来,整个文件的读写时间就大大缩短了。有点像cpu的流水线技术!
我们知道,现在的单个文件都是储存在一个磁盘上的,也就是说整个文件都是在一个磁盘上,例如windows的c盘有一个文件test.txt,它文件数据就是在这个磁盘上的。对于单个磁盘的操作,它是线性的,只有完成前面的数据读写,才能继续后面数据的读写。
假设我们有2块磁盘,分别是sda, sdb吧。现在有一个test.txt文件在sda上面,假设,它的大小是1MB,假设磁盘读写速度是1MB/S,那么读取这个文件需要花费1秒的时间。
那么,如果此时把文件的数据分别储存到2个磁盘上,当从一个磁盘sda读取数据的时候,我们切换到另一个磁盘sdb,再读取数据。相当于把文件分成2半,当前半部分在sda中读写的时候,cpu再到sdb中进行读写。如果忽略cpu的运行,绝对得来看,对于1MB的文件,我们是不是在0.5S就读写完成了呢?当然这个只是绝对得来看。但是这种设想,也不是不可取。
如果我们把cpu的时间加上,浪费0.1秒,那么现在就0.6s来读写这个文件,速度照样可以提升40%。这是什么概念?对于小文件来说,这倒无所谓,可是对于大文件来说,这个设想就十分有利。如果一个1G的文件需要花费10s来完成读写,如果作用这个机制,时间就是6s。对于数据库文件的读写,可以大大缩短整个响应时间。
不过。这种方式最大的弊端就是,把文件分别储存到了多个磁盘上,如果一个磁盘受损,那么这个文件就废了。
如果是"同时"操作4块磁盘的话?如果每个磁盘可以提高一半的速度,那么,4块磁盘的就只需要0.625s时间!!!震惊!
不过,这些都是理想状态下的。还有许多都被忽略了。为什么还是要提出来呢?因为从这个数据读写速度的角度来说,是非常乐观的。
如果这个理论运用于实际中去,再结合多处理器,那么,在未来,对于文件的读写在以后速度将成倍提高!
原本打算进一步研究,写成一篇论文的,由于自己太懒了,就没去做。
我是操作系统BookOS的开发者,我们的官网是http://www.book-os.org,欢迎各位操作系统开发爱好者来玩(不忘为自己打广告,哈哈)。