V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  chspy  ›  全部回复第 1 页 / 共 3 页
回复总数  53
1  2  3  
2 天前
回复了 AEnjoyable 创建的主题 程序员 国内哪个大模型 API 便宜
PPIO 你可以看看,他那价格直接写官网上一览无遗
直接找个相关的网站去咨询,还能看看报价,可以看下 PPIO
16 天前
回复了 pipi32167 创建的主题 程序员 收集一下各种 AI 编程工具的主观体验
国产的几款可以用 ppio 体验一下,需要的话可以用我的 WF34BQ ,送额度
国产的话,推荐 ppio ,可以用我的 WF34BQ 注册送额度,都体验一下
你试试呗,可以用 ppio ,glm 、minimax 、deepseek 这些都有,然后月底前是双 11 活动,可以用我的码 WF34BQ 送额度
26 天前
回复了 netherder 创建的主题 程序员 国内编程大模型做的比较好的有哪些?
kimi-k2-thinking 、、MiniMax-M2 、GLM4.6 ,大家都怎么用,我是用 PPIO ,感觉效果还不错,有需要的可以拿我这个码 WF34BQ ,有试用额度
27 天前
回复了 Sh1xin 创建的主题 Local LLM 私有化部署 LLM 及 LVM 选型方案意见收集
你可以先去提供这种服务的网站去咨询一下,比如 PPIO ,还能顺便把报价了解了。
32 天前
回复了 simple2025 创建的主题 Local LLM deepseek 如何本地部署啊.
我用的 ppio ,他们接入的模型比较多,然后有问题还可以问技术支持,蛮方便的,你可以用我的码 WF34BQ 去试试
34 天前
回复了 zhaoyeye 创建的主题 OpenAI AI 求推荐
这个需求得用闭源模型了,国内闭源的话可以用 ppio ,用我的 WF34BQ
闭源模型的话,我是用的 ppio ,现在应该又邀请活动,可以用我的 WF34BQ
@bixinhaner 国内的话,我就是 ppio 接 glm ,glm 体验还可以了,价格也便宜
45 天前
回复了 wenkgin 创建的主题 Local LLM AI 本地化部署的方式
本地部署感觉降智很多啊,还是用 API 的吧,性能比较稳定,还有技术支持随时能解决一些问题,安利一个 ppio ,我一直用着没出啥问题,可以用我的 WF34BQ 试用
48 天前
回复了 sikuu2al 创建的主题 Claude Claude 开始大规模封号了吗
你们都是挂梯子被封的吗,我走 ppio 的中转目前还没事儿
51 天前
回复了 Philippa 创建的主题 Claude Claude Code 再次大幅度提价
感觉还是用中转比较省心,价格透明还稳定
51 天前
回复了 lameleg 创建的主题 Claude claude code 一天花了 190 刀,来谈谈我的感受
@Albat 你用过中转 API 吗,我用的 ppio 蛮稳定的,你可以先用我这个 WF34BQ 试试,看看能不能满足你的需求
52 天前
回复了 CL7 创建的主题 Claude Claude code 被封两个号了,有什么稳定的方案吗
jiekou.ai 你试一试,不用梯子和海外卡,我用下来挺稳定的
53 天前
回复了 infinityv 创建的主题 GitHub Copilot github copilot 还看不到 claude sonnet 4.5
@chspy 我一直用的 ppio ,这个有 4.5 ,你要是需求量不是特别高,可以用我的 WF34BQ ,差不多够用了
53 天前
回复了 infinityv 创建的主题 GitHub Copilot github copilot 还看不到 claude sonnet 4.5
用梯子就是不太稳定,你切美 ip 重启几次试试;不行的话就用中转吧,省事儿
54 天前
回复了 fanhaipeng0403 创建的主题 Cursor cursor 是不是涨价了
最近发现一个新的中转 jiekou.ai,可以试试
1  2  3  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2104 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 34ms · UTC 16:10 · PVG 00:10 · LAX 08:10 · JFK 11:10
♥ Do have faith in what you're doing.