目前售价 12000
1
vvhhaaattt 1 天前 via Android
现在用的 a770 ,如果是个人用户为了 ai 推理,不建议买 intel 。
其他情况不予评论。 |
2
after1990s OP @vvhhaaattt llama 能在 a770 上跑吗
|
3
vvhhaaattt 1 天前 via Android
llama.cpp 看你的模型要求了,如果经常试新模型,新模型又用了新的算子……
gpt-oss 为例 sycl 版本 12 月中旬的时候我记得是不能跑还是很慢,因为有算子不支持,会把相关操作退化为 cpu 操作,最近看有 issue 处理,不清楚现状。 valkan 版本能跑,推理速度能用的程度,算子支持速度还行,不过相对 sycl 有折扣。 @after1990s |
4
defaw 1 天前
曾经废了九牛二虎之力在 arc a750 上跑起来了 ipex-llm ,inter 跑 ai 还是不如 cuda 方便
|
5
vvhhaaattt 1 天前 via Android
ipex-llm 停止更新了~
|
6
slowgen 1 天前
这个售价飘了,不如 2 张 AMD 的 7900XTX
|
7
coefu 14 小时 53 分钟前
都能整 6 张 v100 32G 了。加一点可以 A100 40G 了。这波 H200 一旦进来,之前的 A 系列很大一部分都会被替换出来。
|