”
“硬件层面的准备基本完善,但软件层面的部署还得我们亲自来,首先是分布式文件系统,我们讨论一下,是否直接使用Hadoop实现的分布式文件系统:HDFS?”
张可的问题引发了课题实验组每个成员的意见发表。
首先HDFS基本上是个通用的大数据分布式文件系统,最重要的一点是设计就是用来部署在低廉硬件上的。
包括Hadoop,完全就是为了大数据而开发的程序。
Hadoop框架最核心的设计就两点,HDFS和MapRedue。
HDFS为海量数据提供了存储方式,MapRedue为海量数据提供了计算。
苏小木试图争取了一下,“教授,如果我们课题的时间足够长的话,不如我们试试自己实现,不借用Hadoop,重新设计分布式文件系统、并行运算算法、并行处理数据库这些。”
“这样一来,专业针对的就是课题本身的算法、主导数据与行为模型。”
苏小木的话是有道理的,当然也是有私心的……
2更。
备用站:www.lrxs.org