首页
注册
登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请
登录
›
Spark
›
Databricks
›
Mastering Apache Spark 2
V2EX
›
Spark
疑问:spark对于迭代运算场景很有优势,那对于迭代不严重的计算场景呢?
xiaochong
·
2014-01-02 20:10:30 +08:00
· 6257 次点击
这是一个创建于 3976 天前的主题,其中的信息可能已经有所发展或是发生改变。
对于汇总n天的log这种扫一次或几次的非严重迭代运算的场景,spark相比于hadoop而言的性能是继续有优势、差不多还是差了?
还有就是除了文档里面机器学习的几个算法,大家在日常还有哪些比较合适的应用场景,以及集群的规模(cpu个数,内存数),希望大家分享。
迭代
场景
Spark
2 条回复
•
2017-03-01 16:42:43 +08:00
1
Livid
MOD
2017-03-01 15:13:52 +08:00
扫 log 这种事情,如果数据量不大(<100G )的时候, Spark 不一定有传统工具快。
2
xiaochong
OP
2017-03-01 16:42:43 +08:00
@
Livid
嗯,现在扫 log 也不用 spark ,即使大数据量,因为 ETL 本身不太耗内存, spark 这种性能没优势,稳定性还可能差了
关于
·
帮助文档
·
博客
·
API
·
FAQ
·
实用小工具
·
1000 人在线
最高记录 6679
·
Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 33ms ·
UTC 22:18
·
PVG 06:18
·
LAX 14:18
·
JFK 17:18
Developed with
CodeLauncher
♥ Do have faith in what you're doing.