V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  keakon  ›  全部回复第 1 页 / 共 55 页
回复总数  1092
1  2  3  4  5  6  7  8  9  10 ... 55  
19 小时 35 分钟前
回复了 zhwguest 创建的主题 程序员 deepseek 的源代码开源在哪里啊?
@Yuanlaoer 既然简单,你为何不自己查证呢?这些知识哪怕是 AI 界的初学者也是常识啊。

GPT-3 之前的版本开源,你现在能访问到的都是闭源版本的,所以当然告诉你它是闭源的。在 GPT-2 的 wiki ( https://en.wikipedia.org/wiki/GPT-2 )中可以看到这样一句:It was superseded by the GPT-3 and GPT-4 models, which are no longer open source. 意思是 GPT-2 之后的版本「不再」是开源的。
https://www.llama.com/ 第一句话就是:The open-source AI models you can fine-tune, distill and deploy anywhere.
你找找看它们是否公布了训练代码和训练集?

「 open-source AI model 」是外国公司在 5 年前就抢先定义了的,业界也早已认可了,不是 DeepSeek 临时炒作的概念。
https://en.wikipedia.org/wiki/Open-source_artificial_intelligence 里也提到了「 The Open Source Initiative and others stated that Llama is not open-source despite Meta describing it as open-source, due to Llama's software license prohibiting it from being used for some purposes.」 Open Source Initiative 是最权威的开源协议组织了吧?它质疑 Llama 不开源也只针对了它不能用于某些用途,而不是没有开放训练代码和训练集。
1 天前
回复了 zhwguest 创建的主题 程序员 deepseek 的源代码开源在哪里啊?
@dajj @Yuanlaoer 程序开源和模型开源本来就是不同的领域,为啥要一样?
这个概念也不是国内发明的,OpenAI 的 GPT-3 之前的版本也是开源的,但只开放了权重。
Meta 的 LLaMA 系列也是开源模型,同样不提供训练数据,但它进一步在论文中公开了一些训练细节,因此不妨碍它成为国内套壳模型的鼻祖。
而 DeepSeek 在论文中公开的细节比 LLaMA 的论文更多,且不少是前人未走过的捷径,这足以让业界震撼了。
类 JWT 场景下,at 是用签名来验证,而不用实际比对数据库。当发生某些需要 revoke token 的场景时,如果 at 的有效期足够短,可以不实现。等到过期校验 rt 时,发现不可用了,再进行退出。
23 天前
回复了 wryyyyyyyyyyyy 创建的主题 程序员 被 cursor 气出脑血栓
给它一个方案,告诉它需要异步,用什么库实现。不明确的需求它就随便写。
35 天前
回复了 albin504 创建的主题 程序员 cursor 能理解整个工程的代码吗?
cline 可以,会读取项目的文件列表和打开的文件列表,然后判断应该从什么文件里获取信息
10 年 mac 用户的方案是戒了电脑游戏
谢谢楼上各位,我先研究下。root 不是必须的。
@jorneyr 印象中 []uint8 会被当成字符串,需要声明成 []uint16 ,然后需要用到 uint8 和 []uint8 时得来回转换格式。
因为有 __setitem__ 方法。提供 dict.get 方法是因为 __getitem__ 在 key 不存在时会抛出异常。
一分钱,3 人 aa 收款应该怎么分配金额最合理
114 天前
回复了 julyclyde 创建的主题 Python functools.partial 和 partialmethod 的困惑
@julyclyde 你先看看 descriptor 的作用吧。简单来说,如果一个类( Client )的属性( getMe )是 descriptor ,那么在访问这个类的实例( c )的同名属性( getMe )时,访问的实际是这个 descriptor 的 __get__() 方法。
getMe = functools.partialmethod(callAPI, "getMe") 正是给类定义了一个 descriptor ,而它的 __get__() 方法里返回了一个 callable 。
而 return functools.partialmethod(self.callAPI, APIname) 这个实现虽然返了 descriptor ,但它不是类的属性,因此访问时并不会调用 __get__()。
114 天前
回复了 julyclyde 创建的主题 Python functools.partial 和 partialmethod 的困惑
partial 实现很简单,它的 __call__() 方法将新老参数合并在一起调用原函数。
因此 c.getMe() -> c. __getattr__('getMe') -> functools.partial(self.callAPI, 'getMe') -> self.callAPI('getMe')

partialmethod 是一个没有定义 __call__() 方法的 descriptor ,而它的 __get__ 方法主要实现是调用 partial()。
因此 functools.partialmethod(self.callAPI, APIname) 返回的是一个不能调用的 partialmethod 对象。
而 getMe = functools.partialmethod(callAPI, "getMe") 是给 Client 类定义了一个叫 'getMe' 的 descriptor 。此时,c.getMe() -> functools.partialmethod(callAPI, "getMe").__get__(c, Client) -> Client.callAPI(c, "getMe")。
126 天前
回复了 andforce 创建的主题 程序员 约 192GB 短信样本如何标记分类?
先用 LLM 标注一部分,比如 1 万条,人工校对一下。然后用 bert 类的模型,例如 roberta 加几层预测标签来训练。

这玩意是个体力活,有多少人工,就有多少智能
不看进程不看 sy/wa 之类的,咋分析啊
189 天前
回复了 cowcomic 创建的主题 程序员 LLama3.1 的申请被拒了
@kenvix 算错了,800 GB 。
zap 挺慢的,基本没啥奇技淫巧
https://github.com/keakon/golog/?tab=readme-ov-file#result
189 天前
回复了 cowcomic 创建的主题 程序员 LLama3.1 的申请被拒了
@afxcn 正常的机器跑不起来,半精度 405B 需要超过 8TB 显存,100 多张 A100 80G ,大概 1 千万人民币吧。
@DIMOJANG numpy 是有的
单纯是因为 cv2 没有写 docstring ,只是转发到 c 的接口而已。
双 4090 用 vllm 部署 qwen2:72b-int4 ,最低大概要 42GB 显存。占满 48GB 显存的情况下,32 并发下大概每秒 300 tokens 。
用 ollama 部署,大概要 40GB 显存。2 并发大概每秒 30 tokens ,再增加并发性能反而下降。
但是具体到单个请求,只有 15 tokens/s 的样子,大概是 gpt-4o 的 1/4 。
1  2  3  4  5  6  7  8  9  10 ... 55  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   692 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 33ms · UTC 21:32 · PVG 05:32 · LAX 13:32 · JFK 16:32
Developed with CodeLauncher
♥ Do have faith in what you're doing.