@
craftsmanship #20
这个问题非常大,但是,既然你提了,我就尝试从我当前的认知来给出一个可能性的答案:
1 ,一波真正有影响力的技术潮流的出现,都归因于某个核心技术从无到有的出现,宏观角度来说,PC 互联网的 web 技术(在 200x 年代,web1.0 时代,大部分页面都是后端语言 render ,此时还没有所谓的前端岗位; 201x 年代之后,随着更复杂的逻辑需要在浏览器的页面上产生,诞生 web2.0 ,将页面从后端语言 render ,剥离开来,才有现在的前端工作岗位),移动互联网的 ios/android ,前两者所催生的云计算( x-stack(openstack/闭源云))/云原生( docker ( container 化)+编排( docker swarm ,apache mesos ,kubernetes )...),这些技术都能诞生一个产业域提供资金的进入从而带来新的工作岗位。
2 ,单独的将这次因为 LLMs 所拱热的所谓的“AI”浪潮提出来说,因为它和 1 里所提到的技术不同,看似试图想让它达到 1 里面技术的结果,记住这是一种主观力量去催动的。而 1 里面的技术,是属于发展到了一定阶段,必然会催生的,主观催动与否,客观世界都会让其繁荣。
2.1 如果你深入了解过人工智能技术的发展历史,就会发现,其实 LLMs 的基石 transformer 框架是一个偶然的出现,不是时机到了会自然出现的成果,这个技术有很多共同的作者,每个人提供一些 idea ,诚然,NLP 发展必然会出现一个类似的成果,包括 NLP 里的注意力机制,都是逐渐进步的。只是这个时间间隔会有点长,基础性的突破,往往都需要较长的时间沉淀思考。我认为和参与者多寡无关(没有可引用的有效论据,可能是错误的观点),因为知识的影响力的存在,100 个人和 10 个人去研究某一个问题,本质上是一样的,并不是每个人都能有突破性进展的那个人的水平。但是从历史的发展来看,当前整个 DL 领域里的基石技术反向传播到 80 年代才搞出来(人工智能的探索从 50 年代末开始),真正有效果的手写数字识别到了 90 年代末才搞成,到了 2010 年代初期,借助 gpu 才让 DL 开始起步; RL 真正有效果的技术基于 DRL 的 DQN2015 年才横空出世,这才有后面围棋的 AlphaGo 。仅仅是将深度神经网络整合进 RL 产生很好的效果就花了快 50 年(现代 RL 技术从 1970 年代开始)。
2.2 偶然出现的 Transformer 所衍生的各种 LLMs ,包括多模态 LMs ,因为其产生的效果,被因为 1 里技术边界效应递减的情况下主观放大,试图推到如 1 里面技术的高度和繁荣度;它本来的位置只应该是在人工智能整个发展的一个子集,现在却让它等同于人工智能,于是它的短处也被放大,并且导致主流视野都去 fix 。它下一步的可能的技术是什么呢?
3 ,因为短视频的繁荣,导致整体受众的认知被降低;几分钟的视频里所压缩的信息量,很容易让沉迷其中的人认为,他们似乎对于世界已经了如指掌,对于任何未知且可能复杂的问题,在几秒钟的几步推理之间都可解决。如果连试图突破基础技术的人,都被这种认知所裹挟的话,那么怎么可能会有新的突破呢?短视频沉迷的结果就是,将本来 IQ120 的降低到 100 以下的同时给其的自信以为自己 IQ 已经突破了 140 ,你能想象 IQ 低于 100 的时候自信到自己有高于 140 的 IQ ,那是多么的可怕。