1
cmdOptionKana 2023-07-11 11:17:04 +08:00 4
> chatgpt 就是一个概率模型,有 90%概率能给你正确答案
错, chatgpt 本身并不关心答案是否正确, 它只关心模仿人类语言时的语法是否正确, 逻辑是否接近人类逻辑. 而它能偶然输出正确答案, 仅仅因为训练材料里有正确信息而已, 如果给它一堆信息错误的材料进行训练, 那么它将会几乎每句话都与事实不符. |
2
coderluan 2023-07-11 11:24:53 +08:00
楼主你观察的现象是对的,但是你不能拿现象去给已经东西重新定义啊。chatgpt 就是语言模型,所有他它不能保证正确。概率模型是你自己发明的,计算机思维也不是你说的意思。
|
3
tool2d OP @cmdOptionKana 不是啊,回答正确率是判断一个模型好坏的重要指标。这些都有公开数据的。
你看这里( https://chatglm.cn/blog ),有个 accuracy 指标,肯定越准确越好了。 |
4
cmdOptionKana 2023-07-11 11:47:13 +08:00
@tool2d chatgpt 本身不追求正确率, 但如果想把 chatgpt 落地到具体的商业项目, 比如用于搜索, 用于当客服等等, 就会增加正确率这个指标, 然后做些特殊调教.
比如, chatgpt 本来也不关心道德问题, 各种变态的言论它都能说, 但如果对外开放给大众聊天, 就需要额外增加 "道德", "政治正确" 等指标, 做一些特殊调教. 但要注意, chatgpt 的本质是什么, 额外的指标并不是它的本质. |
5
tool2d OP |
6
1map 2023-07-11 12:32:14 +08:00
“有 90%概率能给你正确答案。”
这个结论不靠谱啊。。 |
8
NoOneNoBody 2023-07-11 12:53:38 +08:00
@cmdOptionKana #1 说的是对的,你搞错了
它就是一个 chat 模型,而不是一个问答或者搜索(类检索)模型 有个综艺叫“百万胡扯大赛”,我第一反应就是 chatgpt 活人版,不懂就编让别人相信,其实人类 chat 就是这样,谦逊一些会说“不懂”、“不知道”,但大部情况是编的 |
9
pkoukk 2023-07-11 13:52:32 +08:00 1
正确用法:不要提问,而是要求。
不要问:“世界上代码写的最好的人是谁”, 而是“代码写的好的标准有哪些,按照这个标准,找出三位影响力最大最出名的人,并列出他们的事迹生平” 不需要概率,需要的是完整的推理链条,就和你写代码一样。 之所以会有概率的感觉,是因为 prompt 上下文里包含了隐藏的共识知识,gpt 并不一定知道 |
10
murmur 2023-07-11 13:54:35 +08:00
chatgpt 其实问题不在于胡扯,是他没有真正的 API 手册,相当于纸笔编程在做答,如果有技术可以强制给他看 API 手册那不是太恐怖了
有几个纸笔编程能编的过 chatgpt 的 |
11
OFChronos 2023-07-11 16:05:13 +08:00 via iPhone
学到了
感谢 |
12
huntagain2008 2023-07-12 11:40:30 +08:00
小白我现在越来越感受到,平时对于 GPT 之类的用法是完全错误的,我讲教科书上面的习题让它来解答。乍看是对的,细品则完全不正确。理由就是 GPT 这类是语言模型,而并非准确的问答客服,并不能解答问题,教授小白知识,反而会误导小白对一些基础概念的错误理解,把人带到坑里。比如关于因特网体系结构的 ISP 第一层和 ISP 第二层的作用,以及因特网接入服务提供商的作用,这个问题 poe.com 的机器人的回答都不准确,只有 Google 的才看起来正确。
GPT 的正确用法只能是下命令、给明确的要求。平时用作翻译器、语法检查、文字润色之类的还是可以的。 |