一个成绩很好的同学在读硕士,背景是国内排名很靠前的高校,非计算机和软工专业。总是需要一些高配的深度学习平台(例如 16 核+4 张 P100 及以上)来完成他的实践。
外行人觉得这个配置真的是很高很费钱了。有没有 cs 专业的大佬能够科普一下,日常科研的场景?请问什么体量的任务,需要这样的配置,连续不断跑一周才能完成?深度学习是否可能因为算法和设置不当,导致效率低下?
1
azh7138m 2019-09-03 13:06:21 +08:00 1
某学校是 8XP100 的工作站,这种配置
|
2
azh7138m 2019-09-03 13:07:24 +08:00
唔,前几天华为云开车的 AI 实例不都是 32C 128G 16 张加速卡,这种规格的吗?
|
3
shikimoon 2019-09-03 13:17:46 +08:00 1
和模型关系很大,本人是做 nlp 的,之前用的 svm 和 cnn 做语义相似度还有意图识别,这几个模型参数量不是很大,普通的 gpu 甚至是 cpu 一天足够训练出模型了,自从出了 bert 后,参数量达到上 e,甚至数十 e,我们用 p4 训练 1 周多才能出模型
|
4
pcmid 2019-09-03 13:30:19 +08:00 via Android 1
太上老君的炼丹炉为什么那么厉害呢 (
|
5
Pho3nix 2019-09-03 13:33:51 +08:00 1
4 张 P100 也就是 DGX-STATION 入门配置,图像方面的基本一个人就要吃一台。ps:16 核是很不专业的说法,家里那台破烂有 20 核
|