有没有相关的工具可以推荐一下。
1
xausky 4 天前
昨天刚看到一个站内人的项目: https://github.com/TabbyML/tabby 模型下载好后应该可以离线使用
|
2
securityCoding 4 天前
ollama 跑一个?
|
3
yunyuyuan 4 天前 1
ollama+continue+openwebui
|
4
chairuosen 4 天前
本机最大也就跑个 32b 的模型,跟在线 api 效果差得多
|
5
miniliuke 4 天前
idea2024 不是自带吗?就是能力一般就是了
|
6
clemente 4 天前
@chairuosen 今年不好说 嘿嘿
|
7
jaylee4869 4 天前
Ollama + continue.
话说 deepseek v3 已经支持 Ollama 了。 |
8
ganbuliao 4 天前
vscode server
配置 copilot 走本地网络 { "remote.extensionKind": { "GitHub.copilot": [ "ui" ], "GitHub.copilot-chat": ["ui"], "pub.name": [ "ui" ] } } |
10
tomyark123 3 天前
lsp 不是离线的吗
|
11
mioktiar56 3 天前
离线了还怎么赚你钱
|
12
spike0100 3 天前
@jaylee4869 话说 671b 模型跑起来需要什么配置的机器啊😧
|
13
xing7673 3 天前 2
@spike0100 6 个 64g mac mini 或 3 个 m1u 128g mac studio 或 2 个 m2u 192 mac studio 或 4*80g a800+显卡 或者 8 * 48g 4090
至少要 7 万+的预算 |
16
windgreen 3 天前
ollama + codegeex + visual code
|
17
yangth 3 天前
本机跑不动的,能跑动的不是智能是智障
|
18
yangth 3 天前
如果有实力,可以自建机房
|
19
yuedashi 3 天前 via Android
lmstudio
|
20
PolarisY 3 天前
或许你可以研究研究内网穿透😂
|
21
Genshin2020 3 天前
ollama
|
22
oncethink 3 天前
推荐 tabby ,可以本地代码问答和,如果内存在 16GB 或以下,建议用 1.5b 的模型,再大速度就很慢了。
如果使用 macOS ,直接用 brew install tabbyml/tabby/tabby ,然后访问后台注册账户,在设置界面拿到 token ,然后在 vscode 中装上 tabby 扩展,填入本地 tabby 服务地址和 token 如果使用 ollama 做后端,可以参考下面配置: 下面是一个使用 qwen2.5-coder:7b 的参考配置,你需要先用 ollama pull qwen2.5-coder:7b-base 和 qwen2.5-coder:7b ,前者适合做补全,后者适合做问答。 ~/.tabby/config.toml ``` # Completion model [model.completion.http] kind = "ollama/completion" model_name = "qwen2.5-coder:7b-base" api_endpoint = "http://localhost:11434" # prompt_template 不同的模型配置可能不一样,需要自己注意一下 prompt_template = "<|fim_prefix|>{prefix}<|fim_suffix|>{suffix}<|fim_middle|>" # Embedding model [model.embedding.http] kind = "ollama/embedding" model_name = "bge-m3:latest" api_endpoint = "http://localhost:11434" # Chat model [model.chat.http] kind = "openai/chat" model_name = "qwen2.5-coder:7b" api_endpoint = "http://localhost:11434/v1" ``` |
23
HK560 3 天前
同问,为了代码安全公司想要本地部署 ai 模型服务来辅助开发,目前就在找这种类似的解决方案,
|
24
chenJianRong123 3 天前
Idea 最新版,不是可以补全吗
|
26
blackeeper 3 天前
docker 运行 openWebUI + ollama ,然后 vscode + continue 插件,离线写代码
|
29
hanshuqiang92 2 天前
https://code.fittentech.com/ 支持私有化部署,收费的,不差钱可以看看
|