V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  sillydaddy  ›  全部回复第 24 页 / 共 130 页
回复总数  2595
1 ... 20  21  22  23  24  25  26  27  28  29 ... 130  
174 天前
回复了 Vraw5 创建的主题 V2EX V2ex 的这个 PRO 会员是什么
之前充值还支持支付宝的,现在都需要加密货币了。对国内的 v 友有些不方便。
175 天前
回复了 line 创建的主题 随想 AGI 费米悖论
@line 像#1 楼的 @D0n9 这样的人,不要理他。这种人什么都不缺,就缺一巴掌抽醒他。这种人随处拉他的故作高深的💩,别人不理他,他还以为被自己戳中要害害怕了。
@heziqiang 也可能是我把人想得太好了。他可能就仅仅是一个骗子而已。
缺乏最基本的换位思考能力,意味着你根本无法从用户的角度去考虑问题,去解决问题。
缺乏最基本的真诚,意味着跟你们合作是一个大坑。
说了半天等于什么也没说。

什么叫「志同道合」?
~你们的「志」是哪个方向,独立思考?
~你们的「道」又在哪里,硅谷?

什么叫「对项目有好奇心」?什么才叫「核心技术能力」?
~连你们的项目是什么都不知道,怎么知道是不是有好奇心?
~连你们都项目是什么都不知道,怎么知道需要什么核心技术能力?

我要是 Leader ,会先把你给开掉!什么信息都没有透露,还这呀那的。
@nomagick >““推理”的过程中需要不断向文本 round down”
感谢你的提醒,我确实没有注意到这点。我需要再去研究下。
不过,我可以提出 2 点反驳:
1 是大语言模型的训练,本身是在潜空间中进行的,这点上是没有问题吧?如果说 V-JEPA 2 通过训练获得了「世界模型」。那么说大语言模型没有获得任何语言深层的含义,就是极其不公平的。
2 是根据上面的理解,一个已经通过语言训练获得了「世界模型」的 LLM ,在推理时,尽管是自回归的,我从直觉上觉得,它不会因为什么每一步都向文本 round down ,就失去某些核心能力,变成一种「统计」。你说呢?

当然,上面的第 2 点,还需要我进一步去推理一下。但第 1 点,无论如何,也足以支持对杨立昆关于大语言模型只是「统计模型」立场的反驳。
> “Latent space 就是比文本空间什么像素空间靠谱啊,Latent space 是学习出来的”
LLM 有哪一点不符合? LLM 的嵌入向量不是学习得到的吗? LLM 有直接用高维的文字空间去做训练吗?
这都是初学者都知道的基本常识了,杨立昆他非要说自己的才是真理,其他的都是垃圾。看看他怎么评价 Sora 的?再看看他怎么评价自家的 V-JEPA 的。
180 天前
回复了 daodaolicai 创建的主题 推广 活钱 07 | 摆脱线性增长!复利思维养成术
不要推这些缺乏常识,误人子弟的东西了。
所有的投资,都是把一些本来可以消费的钱,借给别人。牺牲当下的享受,用利息来补偿。
所有的复利效应,都必须要考虑本钱数量,1 分钱哪怕复利到 1 块钱,花掉你 100 年,你肯干吗?
1%复利,365 天提升 37.8 倍,你的数学是体育老师教你的吗?你的人品又是谁教你的?
@NotLongNil 用什么数学证明,我还从来没听过数学可以证明像深度学习这样的东西。上面的对比还不够明显吗?
杨立昆就是一个笑话。倒不是说他不懂,而是他对 LLM 装傻充愣的样子。
@shmilypeter 嗯,我还以为 Opus 模型会不一样呢。
没有试过 Opus ,不知道消耗的 token 有多少,thinking 过程产生的 token 也计入在内吧?
请问楼主你说的 1 小时是连续工作吗?还是 Opus 编码过程中介你有介入呢?
181 天前
回复了 Asuler 创建的主题 TypeScript ts 有没有直接能查看最终类型的方法
直接写一个这个类型的变量,比如 a:TypeA ,然后写 a.b ,鼠标悬浮到 a.b 上,可以看到 b 的类型。如果 b 是函数,应该可以看到函数参数的类型。
今天又用 Cursor 来写代码,给到它一个问题之后,它自己去写测试用例,自己去测试,自己去添加打印信息,自己修改后运行。改完调试后,自己把打印信息、多余的测试文件删除掉。

只要有现实的约束和反馈,幻觉和造假就不是问题。
能不能分享一下是什么点呢?
181 天前
回复了 MiguelTapia 创建的主题 问与答 遇到剪映罕见 bug,这是在内容审查吗?
天呐,剪映是一个桌面端软件吧?意思是剪辑的东西都上传到剪映的服务器,然后某个 bit 翻转导致 blockID 串了?否则无法解释本地出现未知数据。
现在的大模型啊,你根本不知道它们什么时候会「降低智商」。大模型本身就是一个黑盒了,黑盒外面还要套一层黑盒。
@fbxshit 哈,我刚刚也想到了,我觉得是可以的。
假设 A 还是给 B 发了一句“北京的糖葫芦是不是很有名? ”(不包含隐藏信息),大语言模型正常的输出是“ 没错!尤其是在冬天,街头的小贩会卖糖葫芦,山楂蘸上糖浆,酸甜可口。”。
在每输出一个 token (可以看作是一个汉字)时,A 和 B 的大语言模型以及随机数发生器都完全处于同步状态。
就像你说的,我们可以介入这个过程,让二进制串嵌入到这个生成过程,比如在生成第一个字“没”时,其实大语言模型生成的是一个(0.2, 0.5, 1.0, 0.8, 0.7, 0.25, 0, 0.32, ...)向量,这个向量与“没”(0.2, 0.4, 1.0, 0.8, 0.7, 0.25, 0, 0.32, ..),以及“不”(0.1, 0.5, 1.0, 0.8, 0.7, 0.25, 0, 0.32, ..),以及“对”(0.2, 0.5, 0.9, 0.8, 0.7, 0.25, 0, 0.32, ..)。。。这些字最接近。然后根据接近程度,分配给“没”,“不”,“对”等这几个字,分别以(0.25, 0.3, 0.3,...)的出现概率,这时开始使用伪随机数摇骰子,我们其实是知道伪随机数在这一步一定是输出一个确定的数字,比如是 200 ,它对应到“没”字。但是我们可以介入这个过程,如果我们希望将 1 这个 bit 位加入进来,我们可以让伪随机数继续输出 200 之后的下一个数字,比如 312 ,这时它仍然映射到“没”,不符合我们的要求,继续输出再下一个,直到与“没”字不一样,比如输出 123 ,映射到“不”字,这时我们通过“相对于原本要输出的字的改变”这个现象,编码了一个 1 进去,如果希望编码 0 ,那就不改变原始输出的字。

后面可以继续这样处理,每输出一个 token ,都可以至少编码 1 个 bit 进去。当然了,有时候,如果几个字的概率分布是(0.99, 0.01, 0.01, ...)这样,那就不要强行编码 bit 1 进去了,因为可能会让文字变得不通顺。我感觉大部分情况下,是完全可以编码 bit 1 的。甚至可以每个 token 编码多个 bit 进去,如果有多个字出现的概率相似,比如(0.1, 0.1, 0.1, 0.1, 0.1, ...)。

这个方案优点就是可以非常精确的编码和解码,不需要人工介入,生成的语句还非常自然。利用的关键就是伪随机数发生器的确定性和同步。
1 ... 20  21  22  23  24  25  26  27  28  29 ... 130  
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   5103 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 42ms · UTC 07:32 · PVG 15:32 · LAX 23:32 · JFK 02:32
♥ Do have faith in what you're doing.