1
whahuzhihao 2015-07-03 14:12:21 +08:00
1秒钟写400M数据? 关注下,等待大神解答
|
2
fredcc 2015-07-03 14:14:32 +08:00
好奇怎么大的数据为啥要进数据库
|
3
sobigfish 2015-07-03 14:22:31 +08:00
就是 不能把需要查询的放入数据,不需要的放入fs然后index么?
|
4
loading 2015-07-03 14:32:18 +08:00 via Android
一楼真相!
写到文件系统都压力不小吧… |
5
9hills 2015-07-03 14:35:51 +08:00
按照你这个写入速度,1个月写1PB。不止是单机打满吧。现在有好几PB的单机?
|
6
lianghui OP @whahuzhihao @9hills 看附言
|
7
felixzhu 2015-07-03 15:04:31 +08:00
DFS
|
8
Ashitaka4 2015-07-03 15:58:17 +08:00
oracle+lob字段表
|
9
mhycy 2015-07-03 16:01:07 +08:00
4M一条应该不是文本数据来的吧?用文件吧。。。
|
10
wy315700 2015-07-03 16:05:47 +08:00
mongodb GridFS也可以试试看
|
11
kaneg 2015-07-03 17:44:58 +08:00
如果这个4M的数据是不变的,比如是照片之类的,放在文件系统应该是最好的。如果要从文件系统把文件读出来再存到数据库,单单网络带宽和IO压力就是一笔不小的开支。
|
12
zhicheng 2015-07-03 17:48:50 +08:00
S3
|
13
xufang 2015-07-03 17:50:45 +08:00
weedfs
|
14
loryyang 2015-07-03 18:03:49 +08:00
算了一下,一天34T数据,和我这边处理的数据量差不多,我们这里可是用了一整套的解决方案来搞定的,我不明白,你们的数据量如此之高,之前是怎么做的?
解决方案是慢慢进化的,如果刚上就这个量级,而你还需要来v2咨询解决方案,那我建议还是招一个有经验的人协助下吧,这绝对不是一个简单的问题。 比如你如何保证数据不重不丢,如何实施多副本冗余,如何进行挖掘,如何应对网络延时,对数据积压采取什么解决方案,如何节省存储和计算资源 更不用说基础软件的维护了,如果用hbase,那么hadoop集群的搭建和维护(这个集群肯定有一定规模了),是否具备足够的hadoop和hbase实战经验,据我了解,hadoop的集群参数设置也是很有学问的 |
15
openroc 2015-07-03 18:04:42 +08:00
关键是,数据要不要索引,查询
|
16
idblife 2015-07-03 18:07:16 +08:00
1秒400M???
|
17
idblife 2015-07-03 18:09:36 +08:00
目前什么存储能达到1秒400M的写入,求指教。
|
18
lhbc 2015-07-03 18:18:30 +08:00
假如存一年数据,4*100*60*24*365/1024/1024 = 200T
这么大的数据,要分布式加多份存储,所以预算1PB的硬盘容量 单是存储就是几百万的成本,还不算开发、运维、运营、带宽的成本,一年总要千万的投入吧,为什么会来这里问…… |
20
9hills 2015-07-03 18:22:22 +08:00
每分钟400M的话,用HBase是可以的。
200T的话,现在的存储机器是3*12T,10台机器怎么够了,几十万而已 |
23
lincanbin 2015-07-03 18:55:07 +08:00
不需要索引的大数据不要放数据库里。
|