V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  dhairoot  ›  全部回复第 3 页 / 共 3 页
回复总数  58
1  2  3  
2019-06-28 07:03:38 +08:00
回复了 ericgui 创建的主题 职场话题 只是我一个人感觉工作不开心吗?
@newComingBoy 为啥我现在刚毕业,也不想工作
2019-05-29 23:50:36 +08:00
回复了 b1anker 创建的主题 程序员 来大厂没几天就想溜了。。
+1
我在某里
2019-02-19 07:53:40 +08:00
回复了 freedom1988 创建的主题 前端开发 [新年新气象] 赠送 6 本前端面试书籍
就当攒个人品
2019-01-28 17:52:06 +08:00
回复了 cythb 创建的主题 职场话题 有赞 996 先走的会是技术好的人吗?
@dhairoot 回复错了
2019-01-28 17:49:55 +08:00
回复了 cythb 创建的主题 职场话题 有赞 996 先走的会是技术好的人吗?
@ls2995 加油,搞完了可以写篇文章
@ls2995 我后来就是在每一台电脑上分别跑处理程序
@ls2995 兄弟你是做什么项目呀
@kex0916 文件都是本地的,每台电脑有一部分,这样的也可以吗
2018-11-24 12:22:38 +08:00
回复了 xypcn 创建的主题 程序员 golang 何时干掉 Java
@cmuler 同样觉得 Java 的设计很优雅,go 连一个好的包管理工具都没有很难受
@dawncold 我现在测试在本地多线程解压,但是因为都是小文件,每秒 io 次数很多,但是读写速度只能达到 10mb/s
@est hdfs 上和本地上的文件是一样的
@dawncold 现在的情况是总共有 16T 文件,通过手动的把文件分开放在不同电脑上,开多线程去解压就已经非常耗时了,所以才想通过上传到 hdfs,利用 MapReduce 解压,。但是目前发现解压速度太慢了,完全不知道因为什么。
@Vamposine 但是目前解压速度远远没到磁盘 io 的瓶颈
@ym1ng 我是参考这个博主写的代码实现解压的,http://cutler.io/2012/07/hadoop-processing-zip-files-in-mapreduce/
@ym1ng 自己实现了解压工作,但是现在的问题是速度异常慢
2018-09-07 07:07:57 +08:00
回复了 KevinOfNeu 创建的主题 程序员 手拉手一起来实现一门运行在 JVM 上的语言
m
2018-08-02 21:41:48 +08:00
回复了 JiaZombie 创建的主题 程序员 自己写了个 V2EX 的小程序,可惜过不了审~
@sansansan333 个人怎么获取企业认证的
1  2  3  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2753 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 23ms · UTC 10:03 · PVG 18:03 · LAX 02:03 · JFK 05:03
Developed with CodeLauncher
♥ Do have faith in what you're doing.