欢迎访问今日热搜榜

AI炼金术

频道:中国香港电影 日期: 来源

人类才是瓶颈:大概率,我们会把 AI 套用到老工作流之中解决老问题,就好像英国人发明了坦克拿来做固定碉堡一样。但实际上,真正把新工具价值发挥出来,需要我们清空老的思维框架,以 AI 创造的新能力为中心,来重新设计流程和商业,才能挖出真实的新机会。

人才密度,是换工作的风向标:徐文浩在 Twitter 上观察到,Google 的牛人们在一个一个奔向 OpenAI。如果你不知道什么行业是未来,就去观察聪明人周末在研究什么;如果你不知道哪家公司更有未来,就看看身边真正干活的牛人们正在奔向哪家公司。

LLM 是最伟大的皮条客:LLM 最强大的能力就是把信息从 X 形式翻译成 Y 形式,这点大家都知道。但往往被忽略的是,除了我们人类沟通需要翻译来中介之外,世界上成百上千万个系统之间,其实也需要翻译。LLM 如果能有效做中介拉皮条,让这些相互隔绝的系统沟通起来,协作起来,本身就是一个巴别塔的价值。

创新来自于对异端的容忍:其实研究 OpenAI 为什么能一骑绝尘没意义,因为很可能只是他们赌对了路的幸存者偏差。真正强大的,是那个容忍异端、鼓励创新的土壤。在这个土壤之上,无数的创新迸发,相互跟进学习,才会有下一个伟大的涌现。

我经常拿流水线给别人举例子,讲以后我们要设计人和机器配合的知识工作流。

但今天看了一篇老文章,忽然有了一些更极端的视角。

这篇文章讲的是传统管理决策的”有限理性“和”满意即可“原则,可能会在人工智能时代变成”极限理性“和”最优化决策“。本身这些概念有点掉书袋,略过不表。但文章背后的思想其实很震撼——我们现在很多世界观和方法论……其实都基于我们已有的能力、资源和约束。当实际能力10X 变化时,大概率我们一下子脑子还转不过来,仍然会用传统的方式来使用新的能力和资源。

就好像,有些老人曾经经历过饥荒年代,所以现在特别节俭,哪怕住在大别墅里也总是忍不住想出门捡破烂回家放着才安心。我们在脑力稀缺(其实就是现在)的时代,不管是对自己,还是对下属,很容易自然而然形成一些节约脑力的偏好。基于这些隐性偏好,我们做的设计,很可能未必能释放 AI 真正的能力。

我们看过分节俭的父辈,总是能一眼看出来他们思维模式和现实可能性之间鸿沟,但看自己很难看出来。

举个例子,70 后、80 后中很多人会用电脑,如果读一本书想写个读书笔记,可能会在电脑里开一个 Word 文档(或者印象笔记里生成一条笔记)来记录。这一条读书笔记可能有个名字叫”读《XXX》的笔记“,而内容可能会包括我们看这本书获得的 2 个启发,觉得有意思的 3 个段子,一段感人的故事,和看完之后觉得自己应该养成的 1 个习惯。你是不是觉得我上面这个描述没什么问题?

你有没有想过为什么这些不同类的信息应该放在“一个文档”里呢?为什么这个文档有”标题“?为什么这个文档有”分页”?我们明明是在用数字工具,为什么脑子里的隐喻还是“纸张”和“文档”呢?为什么还受到了模拟世界莫名其妙的约束呢?

最近在和好几个传统公司一起探讨如何拥抱 AI,每次都用上面这个 Word 写文章的例子,让大家放飞思路一些。当我们进入到 AI 世界。如果我们整体结构不变,只是把自己原有工作拆解成任务,然后让 AI 来帮助我们提效完成部分工作,这个设计里面就会因隐含包含很多我们对于工作”应该怎样“的假设,而这个假设已经过时了。就好像英国人最先发明坦克,但却无法正确理解坦克的真正价值,只是把它们当做方便移动的碉堡。

只是把新工具嵌入到老工作流,大概率会有用,但也很可能不能物尽其用。应该反过来,从新工具角度出发,思考以它为中心,可能应用在哪些场景能最具威力,然后考虑如何给其支持和配合。

在二月份的短短两天里,就在推上看到两位Google Brain的研发人员宣告加入了OpenAI。几乎是在同一时间段,原先Telsa的人工智能总监Andrej Karpathy也宣布了自己决定回到OpenAI。也另有消息说,在ChatGPT上线之后的几个月里,从Google挖走了两位数的硬核AI研发人员。ChatGPT极其震撼的效果,对于优秀的研发人员也是非常有吸引力,可谓是最好的招聘广告了。

有朋友问我OpenAI这么堂而皇之地公开大规模从Google挖人,没有竞业么?没错,事实上,OpenAI和Google所在的加州,是不允许竞业协议的。某种程度上来说,这也是硅谷有着最繁荣的创新的土壤。你只要遵守保密协议,只是使用自己学会的专业技能,在加州完全可以跳到直接竞争对手去。或者觉得公司效率低下,也可以跑出去在同领域自己创业。

人才的流向一直是观察公司兴衰的风向标之一,字节跳动崛起的时候,伴随着大量百度的人员流失去了字节。拼多多飞速发展的时候,也少不了大量优秀的阿里的工程师加入。

很多年轻的在各种互联网公司的朋友,时常会问我,是否应该换工作。

事实上,是否该换工作最好的风向标就在你的身边,当你发现周围你觉得最优秀的同事都在离开了,那你也应该考虑换个地方。而如果不断看到你觉得比现有团队更优秀的人源源不断地加入,那么就安心呆在现在的公司吧。

人才密度高的公司,即使事情没有做成,所花费的时间也会让你不虚此行。当然,你要学会分辨什么是优秀人才,不是顶着漂亮的头衔和看着出彩的简历就是优秀人才,特别是已经远离一线的管理者。要去找那些还在一些投入时间具体做事情的人,他们当中最好的人去了哪里,哪里就会起飞。

接下来,相信国内也有大公司和创业公司会来搞大模型。谁会成功?看那些最优秀的一线干活的人去哪里就知道了。

4. LLM 是最伟大的皮条客

又是从《产品沉思录》看到一篇很有启发的文章,作者认为 LLM 是个伟大的皮条客:p

比如种红薯,当然创造价值。但如果种红薯的人和想吃红薯的人连不上线、说不上话、卖不通东西,整个经济效率就很低。而当供需双方都能连上,能聊上,金流物流通顺,经济就蓬勃。而促进供需双方连接、沟通和交易,有时被戏称为拉皮条:)

为什么说 LLM 是伟大的皮条客呢?因为它是最高效率的万能翻译,它最强大的功能就是把一个信息从 X 形式转化为 Y 形式。

而当今世界,除了人与人之间沟通需要翻译,其实机器与机器之间同样需要翻译。每一个程序,都有自己的输入输出接口,这些接口都是明确定义的——相当于每个人、每个公司都有自己一种语言文字,得按照它规定方式说话它才能听懂。这当然就极大限制了系统间沟通。

而 LLM 最擅长的,就是翻译。如果 A 系统输出的是 A 格式,但 B 系统需要的输入是 B 形态,原本就需要程序员介入,学习调整。但现在就可以在中间引入 LLM 作为翻译,把 A 系统的输出翻译成 B 系统能够接受处理的输入。

请了个万能翻译做中介拉皮条之后,我们拥有的 100 万个相互说话都费劲的系统,就可以更简单地相互配合、协作起来。哪怕光看这个角度,LLM 也有巨大的价值。

泡沫和遗产:如何看待 ChatGPT 发布 API 后的AI领域

前一阵读了Dallas Innovation对于儿时偶像约翰卡马克的访谈,然后同一天下午又见了多年未见的大神级老友。感慨之下就得到了这个标题:“创新来自于对于异端的容忍”。

卡马克的访谈很有意思,讲述了他从Oculus离开决定独立去搞AGI的心路历程

• 他找了一周闭关,学习了基本的机器学习的资料,觉得了解了基本原理

• OpenAI 希望他加入,并且给了他40篇论文,告诉他看完了就明白了这个领域90%的进展

• 看完了觉得的确AGI有希望了,于是转头搞AGI去了

• 但是没有加入OpenAI,也没有融一大笔钱搞大模型,而是融了2000万美元,自己一个人搞AGI去了

• 融2000万美元的原因是虽然自己掏得起,但是融资了才会为了为别人负责认真做

• 不融更多钱跟风搞大模型的原因,是觉得大家都用相同的思路会陷入“群体思维”

• 从第一性原来来说,我们的基因里只有1GB数据,分到大脑的话是40MB数据,所以我们应该可以用更少的数据来提供AGI

卡马克去年还和Stackoverflow的创始人打了个赌 认为在2030年之前,就会有L5级别的全自动驾驶在一个美国的主要城市开通

我觉得其中特别让人佩服的一点,就是没有去跟风搞大模型,而是觉得可以探索一点不同的方向。下午和老友聊起,觉得还是整个社会对于“异端”更加容忍,所以才能有真正的创新。

事实上,过去10年的深度学习,每一次新的大的突破都是不同的人搞出来的:

深度学习的坚持来自Lecun和Hinton,但是你看Lecun最近在推上的发言没少被喷,很多人都觉得作为Meta的研究的领军人物他的发言都是在酸OpenAI。

· 2016年的ResNet的进展来自何恺明。

· 先把强化学习的效果搞出来的则是DeepMind的AlphaGo以及一系列应用。

· Transformer的作者都是Google的。

· 但是用Transformer做出了GPT的OpenAI的又是另一拨人,其中熟悉科学家Ilya又是Hinton的博士生。

· Hinton自己最近的研究重点似乎又是Forward-Forward的神经网络架构,想进一步从“仿人脑”的架构上去找突破点。

很多人问,为什么OpenAI能搞出大模型,不是别人。我觉得这个问题就错了,OpenAI搞出来大模型本质上是美国创新能力涌现的结果。

有很多拨不同的人在尝试不同的方向,这一次可能是Google搞出来了,大家跟进学习,再去基于这个基础上尝试不同的方向。甚至还有很多人在研究一个自己相信,但是主流圈没有充足认可的方向。最终,这一次是OpenAI出来了,下一次,可能就是其他人。