怎么想 meta 都不至于出现这种低级问题,大概只可能是 ollama 的问题了
1
jifengg 55 天前
图片看不了。
怎么发现是假的? |
2
paopjian 55 天前
不是,靠问问题问他版本???
|
3
winglight2016 OP @jifengg imgur 免费版太容易超请求数了
其实就问了两个问题:1. 你是谁; 2. 你的版本是什么 中文提问,3.1 和 3.2 的回答都是 chatgpt/openai 英文提问,基本答对了,但是版本是 llama2.0 |
4
winglight2016 OP @paopjian 对于 chat ai ,你还有其他方式吗?
|
5
kaichen 55 天前
你问大部分的模型,都会说自己是 chatgpt ,因为大部分厂商都拿 chatgpt 来合成训练数据,用来训练自己的模型。
这不是判断模型真假的标准。 |
6
jifengg 55 天前
https://ollama.com/library/qwen2.5/blobs/66b9ea09bd5b
像 qwen ,会内置一个 system 文件告诉他自己是谁。 llama 系列的都没有这个内置 prompts ,问是谁都会随机回答。我的 llama 还说它是 bing 呢 |
7
bluehr 55 天前
问它是问不出来正确版本的,不信你可以试一试其他方式部署的
|
8
yianing 55 天前
ollama 上面的是 3B 版本的吧,性能很弱的
|
9
winglight2016 OP |
10
laooong 55 天前
5 楼回答已经可以解释你的问题了。
“这不是判断模型真假的标准。” 不用纠结的。 Qwen2.5 也被人测出来会说自己是 chatgpt 、sonnet 乃至其他的,gemini 此前也被人测出来说自己是文心一言。 |
11
winglight2016 OP 再补充一下:刚才的本地运行是 Mac 环境,换到 Windows 后,无论中英文都可以正常回答——难道 mac 版本有啥不一样?
|
12
myxingkong 55 天前
Ollama 的默认模型基本都是量化过后的,而 Groq 模型是未量化的。另外,temperature 也会影响模型的回答。
```shell $ ollama run llama3.2 >>> /set parameter temperature 0.0 ``` |
13
winglight2016 OP @myxingkong 的确,环境/设置因素都可能影响回答,不过我测试时都是用了默认设置,方便对比。
|
14
yuting0501 54 天前 via iPhone
llama 的中文实在太差了,训练数据来源可能非常有限。可以试试用英文再问一次。
|