首页   注册   登录
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX 提问指南
宝塔
V2EX  ›  问与答

请问深度学习真的需要吃大量的资源吗?

  •  
  •   d5 · 77 天前 · 746 次点击
    这是一个创建于 77 天前的主题,其中的信息可能已经有所发展或是发生改变。

    一个成绩很好的同学在读硕士,背景是国内排名很靠前的高校,非计算机和软工专业。总是需要一些高配的深度学习平台(例如 16 核+4 张 P100 及以上)来完成他的实践。

    外行人觉得这个配置真的是很高很费钱了。有没有 cs 专业的大佬能够科普一下,日常科研的场景?请问什么体量的任务,需要这样的配置,连续不断跑一周才能完成?深度学习是否可能因为算法和设置不当,导致效率低下?

    5 回复  |  直到 2019-09-03 13:33:51 +08:00
        1
    azh7138m   77 天前   ♥ 1
    某学校是 8XP100 的工作站,这种配置
        2
    azh7138m   77 天前
    唔,前几天华为云开车的 AI 实例不都是 32C 128G 16 张加速卡,这种规格的吗?
        3
    shikimoon   77 天前   ♥ 1
    和模型关系很大,本人是做 nlp 的,之前用的 svm 和 cnn 做语义相似度还有意图识别,这几个模型参数量不是很大,普通的 gpu 甚至是 cpu 一天足够训练出模型了,自从出了 bert 后,参数量达到上 e,甚至数十 e,我们用 p4 训练 1 周多才能出模型
        4
    pcmid   77 天前 via Android   ♥ 1
    太上老君的炼丹炉为什么那么厉害呢 (
        5
    Pho3nix   77 天前   ♥ 1
    4 张 P100 也就是 DGX-STATION 入门配置,图像方面的基本一个人就要吃一台。ps:16 核是很不专业的说法,家里那台破烂有 20 核
    关于   ·   FAQ   ·   API   ·   我们的愿景   ·   广告投放   ·   感谢   ·   实用小工具   ·   1244 人在线   最高记录 5043   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.3 · 27ms · UTC 17:46 · PVG 01:46 · LAX 09:46 · JFK 12:46
    ♥ Do have faith in what you're doing.