V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
x77
V2EX  ›  程序员

有人试过 gpt-3.5-turbo-16k 这个模型吗,效果如何?

  •  
  •   x77 · 2023-06-26 11:38:20 +08:00 · 2853 次点击
    这是一个创建于 514 天前的主题,其中的信息可能已经有所发展或是发生改变。

    刚在 OpenAI 文档看到的,以前没注意到

    7 条回复    2023-06-27 09:20:20 +08:00
    tttin
        1
    tttin  
       2023-06-26 13:05:21 +08:00
    据说可以编写 5000 字的长文。我的 azure openai service 月初申请到了 turbo-16k 和 gpt-4 这两个模型,但当时没注意,胡乱操作几下就再也找不到了
    liantian
        2
    liantian  
       2023-06-26 13:10:59 +08:00
    你只要注意,任何情况下都是 4 倍计费就完事了..

    自己写程序,注意判断好用 gpt-3.5-turbo 还是 gpt-3.5-turbo-4k
    leipengcheng
        3
    leipengcheng  
       2023-06-26 15:54:33 +08:00
    为什么我用这个模型,java api 调用,但是 token 还是只有 4k
    x77
        4
    x77  
    OP
       2023-06-26 16:56:13 +08:00
    原来邮件里讲了,就是贵点

    Longer Context
    We're also introducing gpt-3.5-turbo-16k. This model offers four times the context length of the 4k base model and is priced at $0.003 per 1K input tokens and $0.004 per 1K output tokens.
    wanjiawei0755
        5
    wanjiawei0755  
       2023-06-26 18:09:38 +08:00
    @chaotttin #1 Azure 应该还没有 16k 吧,我记得社区里面回答说暂无计划,包括 0613 版本的模型
    lanlanye
        6
    lanlanye  
       2023-06-27 02:15:02 +08:00
    随着 613 版本一起更新的啊,3.5 降价了,但推出了稍微贵一些的 16k 版本,并不需要申请。

    效果的话由于 tokens 变长了,长文总结或者 agent 之类的用法超出限制的可能性减小了,聊天也可以记录更多上下文了。

    但上下文始终会对结果产生影响,长了有时未必是好事。

    另外新模型支持的 Function calling 功能很有用,效果比 langchain 好一些,想尝试的话可以试试我写的小工具 https://github.com/laipz8200/openai-agent
    MEIerer
        7
    MEIerer  
       2023-06-27 09:20:20 +08:00
    限制比普通的 turbo 大,不能整色色
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   4836 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 27ms · UTC 01:10 · PVG 09:10 · LAX 17:10 · JFK 20:10
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.