1
xmumiffy 2023-04-05 12:51:17 +08:00 via Android
|
2
zacharyjia 2023-04-05 13:08:16 +08:00
首先基于 OpenAI 的 API 必然是不行的,不满足你的**保密**要求。最近三星已经出了几次 ChatGPT 的泄密事件了。
不考虑保密,可以用 1 楼的方法。 考虑保密的话,需要自己部署私有的开源 LLM ,比如清华的 ChatGLM ,Meta 的 llama 等。两种模式:一种是参考现有的模式,对每次提问去搜索相似的文本语段,作为上下文提供给 LLM ,然后它根据上下文和问题进行回答;另一种是用你自己的数据对它进行 fine-tune ,让你的知识嵌入到模型当中。 |
3
iloveoovx 2023-04-05 13:12:57 +08:00
去看看微软怎么解决保密问题的
毕竟 2B 解决方案保密需求是第一要求 |
4
q307990588 2023-04-05 22:22:14 +08:00 via Android
怎么一直喂? gpt 最大的储存 token 不是有限的么,记住现在的,会把之前的遗忘吧
|
5
Fenix666 2023-04-06 10:28:22 +08:00
不考虑保密的话,用 fine-tune ,一楼的办法还是摆脱不了 token 限制,但 fine-tune 贵的一批
|