1
ysheep 2024-01-11 10:45:49 +08:00
3 大厂 Z 板+好颗粒内存 超频 会增加显卡的利用率,但是价格的代价会比较大,自己评估吧
|
2
sunny352787 2024-01-11 10:53:46 +08:00
AI 显存容量更重要,显存不够都跑不起来,GPU 快不快其实意义不大,要只是随便玩玩的话 4060ti 够了
|
3
tallie 2024-01-11 11:07:54 +08:00
4060ti 都有 16G 的版本了吗? 什么价位大概?
|
4
zwpaper 2024-01-11 11:07:56 +08:00
要是 4060Ti 16G 能有 192 的带宽,我都不带犹豫的,老黄着刀法太难受,下一个 16G 选项 4070Ti Super 直接 6499
|
6
frankyzf 2024-01-11 12:05:47 +08:00
借楼问一下,也有这方面的兴趣但还没入门,自己买显卡和租显卡( colab 或 autodl )有什么优势和劣势呢?
|
7
telaviv 2024-01-11 13:36:10 +08:00
2080 Ti 22G ,显存和带宽重要
|
8
GNK48linlin 2024-01-11 13:46:39 +08:00
@tallie 双十一铭瑄电竞之心有过 3200
|
9
woqujjfly 2024-01-11 13:54:27 +08:00
借楼问一下,sd 生成非常高质量得图( 10m 左右大小 4000 分辨率左右的)至少得上什么显卡
|
10
ZxykM 2024-01-11 13:55:22 +08:00
买显存大的,然后买位宽高的
|
11
phli OP @ysheep 看有人评测如果 cpu 跟 主板太差可能导致显卡跑不满。超频到没啥想法,就是怕买 m 板散热供电啥的不行导致跑不满。
|
12
phli OP @sunny352787 4060 ti 16g 版本完全足够,但看他那 128 尾款 这黄皮子太恶心了。4070ti super 是 256 价格就翻翻了。
|
15
paopjian 2024-01-11 15:43:18 +08:00
你现在有现成模型或者有训练的需求了吗,使用过在线 colab AutoDL 运行过模型了吗,如果一点没开始的话建议还是先试试在线的吧
|
16
SantuZ 2024-01-11 15:59:02 +08:00
建议还是先自己租卡感受一下,位宽和显存很重要,可以非常直观的感受出来...不差钱就上 4090 吧
|
18
Greendays 2024-01-11 16:10:48 +08:00
只能说搞 AI 的话,这几张显卡没啥本质区别,最多就是快慢的区别。
|
19
k9982874 2024-01-11 16:14:00 +08:00 via Android
我选 3080 女骑士包浆魔改 20g 版
|
20
howfree 2024-01-11 16:49:48 +08:00
|
21
phli OP @paopjian 只拿人家的模型玩过,还没深入搞呢。现在是 macbook 4g 显存 运行个 sd 也就能跑动。深入研究就没法继续了。
|
22
NewHere 2024-01-11 22:16:49 +08:00
只是玩玩可以上 800 一张的 P100 16G ,但是你得有其他的显示输出设备,比如核显或者另外一张亮机卡
|