- 万维钢 《拐点:站在 AI 颠覆世界的前夜》
- book.douban.com/subject/36850876/
- 书摘卡片
前言:人要比 AI 凶
-
大图景是,AI 已经开始非常严肃地做传统上我们认为只有人能做的事情了。它们的智能正在超过我们。
-
演员郑伊健在一部赛车电影里有句话叫“人要比车凶”,指的是人一定要比工具强势。强势的用法,是把 AI 当作一个助手、一个副驾驶,你自己始终掌握控制权—— AI 的作用是帮你更快、更好地做出判断,帮你做你不屑于花时间做的事情。人要比 AI 凶。
如果你足够强势,当前 AI 对你的作用有三个:
-
信息杠杆。
-
让你发现自己究竟想要什么。
-
帮你形成自己的观点和决策。
-
-
越是 AI 时代,公共的信息就越不值钱。现在个人搞一个外部信息保存系统已经意义不大了,一切唾手可得,整个互联网就是你的硬盘,人类所有的知识就是你的第二大脑。你真正需要保存的是自己每天冒出的新想法,是你对信息的主观整理和解读。一切落实到自己。永远假定别人也会用 ChatGPT。
ChatGPT 究竟是什么
大变局:一个新智慧形态的产生
-
AI 的思路,不同于人类的理性套路。也就是说,当代 AI 的最厉害之处并不在于自动化,更不在于它像人一样思考,而在于它不像人——它能找到人类理解范围之外的解决方案。我后面会论证,其实 AI 这个思维方式恰恰就是人的感性思维,在这个意义上你也可以说 AI 很像人——但是现在,请你先记住这个无法让人理解的、“不像人”的感觉。
-
现在 AI 找到的,恰恰就是一些难以被人理解、不能用明确的规则定义而且根本无法言说的规律。这是柏拉图(Plato)理性的失败,是维特根斯坦的胜利。
-
AI 感受到了人类既不能用理性认知,也感受不到的规律,而且它可以用这个规律做事。人类已经不是世界规律唯一的发现者和感知者。你说这是不是启蒙运动以来未有之大变局?
-
AI 基本上就是一个黑盒子,吞食一大堆材料之后突然说“我会了”。你一测试发现,它真的很会,可是你不知道它会的究竟是什么。因为神经网络本质上只是一大堆参数,而我们不能直接从那些参数上看出意义来。这个不可理解性可以说是 AI 的本质特征。
“开悟”和“涌现”:AI 能力的三个境界
- 涌现(Emergence)的意思是,当一个复杂系统复杂到一定程度,就会发生超越系统元素简单叠加的、自组织的现象。
底牌和命门:AI 能力的局限
-
GPT 更像人脑,而不像一般的计算机程序。
-
沃尔夫勒姆认为,语言思考的本质是在寻求规律。而规律,是对客观世界的一种压缩。有些东西确实有规律可以压缩,但有些东西本质上就没有规律,不能压缩。
-
GPT 的底牌是:它虽然结构原理简单,但是已经在相当程度上拥有人脑的思维。现在还没有一个科学理论能完整解释它为什么能做到,但是它做到了。GPT 的命门也是因为它太像人脑了:它不太擅长做数学计算,它不是传统的计算机。这也解释了为什么 GPT 很擅长编程,却不能自己执行程序:编程是语言行为,执行程序是冷酷的计算行为。
数学: AI 视角下的语义和智能
-
简单说,人类的所有所思所想,发明过的所有概念,所有“语义”,都可以用数学组织起来。而这意味着智能不是随便排列组合的字符,智能应该有某种数学结构,不是漫无边际的。
-
一切语义都是关系,一切关系都是数学。不论你输入的提示语是哪种语言,模型只在乎其中的语义。它真正处理的是向量,所以思考过程会从神经网络中同样的地方走,结果当然就是一样的。这就如同我的大部分物理专业知识是用英文学的,但是你要是问我一个物理问题,用中文还是英文对我没什么区别。我说不清自己是用英文还是用中文思考物理的,我就是直接思考。AI 并不是用语言思考的,它是用语义思考的——它是用语言表象背后的本质思考的。
当 AI 进入人类社会
效率:把 AI 转化为生产力
-
三个加拿大经济学家——阿杰伊·阿格拉沃尔(Ajay Agrawal)、乔舒亚·甘斯(Joshua Gans)和阿维·戈德法布(Avi Goldfarb)——刚好讨论过这个问题。他们在《权力与预测》(Power and Prediction)这本书中提出,我们此刻正处在人工智能的“中间时代”(The Between Times),也就是未来已经到来,只是还没能带来很大效益。他们认为,通用技术要真正发挥生产力效能,需要经过三个阶段。第一个阶段叫“点解决方案”(The Point Solution),是简单的输入端替换。第二个阶段叫“应用解决方案”(The Application Solution),是把生产装置也给更换了。第三个阶段叫“系统解决方案”(The System Solution),是整个生产方式的改变。
-
预测是决定的前提,AI 预测能改变人们做决定的方式。当电力被广泛应用以后,人们对电力的应用和电力的来源就脱钩了。你不用关心发电厂在哪儿,你也不用管电是怎么发的,但你的厂房可以开在任何地方。那么我们可以设想,当 AI 被广泛应用的时候,预测和决定,这两件事也可以脱钩:你不用管 AI 是怎么预测的,你直接根据预测做决定就是。三位作者提出,AI 的点解决方案是用 AI 改善你现有的决定,应用解决方案是用 AI 改变你做决定的方式,系统解决方案是 AI 促成了新的决定——你的生产模式整个变了。
-
年轻人经常因为考虑不周而遇到麻烦。成年人为了避免麻烦给自己制定了很多规则,实则换成了另一种麻烦。有的人很幸运,身边有人随时提醒。而更幸运的人则根本无须操心,你们安排就好,我都行。到时候你会很乐意把决定权交给 AI。这就是预测取代规则。
经济:AI 让调配资源更有效
- 因为一家企业的波动而引起整个供应链的大幅波动,这在供应链管理领域叫“牛鞭效应”(Bullwhip Effect)。牛鞭效应会导致库存增加、服务水平下降、成本上升等问题。这个思想实验告诉我们两个道理。一个道理是,要用 AI,最好整个社会一起协调,大家都用 AI。另一个道理是,应用 AI 可能会在一时之间放大社会波动,我们最好小心行事。
战略:AI 商业的竞争趋势
- 克里斯坦森说,一项技术变革哪怕再激进,只要改善的是传统的商业模式,就不会发生颠覆式创新——只有当这项技术改善的不是传统指标时,才会出现颠覆。
社会:被 AI “接管”后的忧患
-
这就是为什么很多人呼吁,我们不应该把什么任务都交给 AI,不能让 AI 自动管理社会。这些人建议,任何情况下,真正的决策权都应该掌握在人的手里。为了确保民主制度,投票和选举都必须由人来执行,人的言论自由不能被 AI 取代或者歪曲。这也是为什么 OpenAI 在声明中说:“我们希望就三个关键问题进行全球对话:如何管理这些系统,如何公平分配它们产生的利益,以及如何公平分享使用权。”
-
基辛格等人有个观点很好,现在的关键问题,即“元问题”,是我们缺少 AI 时代的哲学。我们需要自己的笛卡尔(Descarts)和康德来解释这一切。
置身智能,你更像你
决策:AI 的预测 + 人的判断
-
决策 = 预测 + 判断。预测,是告诉你发生各种结果的概率是多少;判断,是对于每一种结果,你在多大程度上愿意接受。
-
AI 时代的决策 = AI 的预测 + 人的判断。
-
AI 再厉害,也只能让人类医生承担医疗责任,让人类警察行使执法权,让人类领导者掌握核按钮。只有人能以血肉之躯承担后果,我们只能向人问责。
-
判断这个能力正在变得越来越重要。美国的一个统计显示,1960 年只有 5% 的工作需要决策技能,到 2015 年已经有 30% 的工作需要决策技能,而且还都是高薪岗位。只有人知道自己有多疼,所以人不是机器。而判断力和随之而来的决策力,本质上是一种权力——AI没有权力。
-
决策权到底应该属于谁呢?从道德角度应该是,谁承担决策的后果,决策权就应该属于谁。而从经济学角度来说,则是谁决策能让整个组织的效率最高,就应该属于谁。这两个角度并不一定矛盾,毕竟蛋糕做大了才好分。
教育:不要再用训练 AI 的方法养人了
-
当你处在消极情绪中的时候,比如受到威胁、充满压力,你会把自己封闭起来,只关注眼前的威胁点。但当你处于积极情绪中,你的视野就打开了。你会更容易发现身边各种有意思的事情,注意到平时注意不到的细节。你的想象力会更活跃,你容易发现新的想法连接,激发创造力。这就是“拓展”。
-
创造力和动机强度都高,才是真正的创新型人才。这样看来,创新型人才的情绪最好经常在两种模式中切换。平时是积极模式,有个好心情,视野开阔,对新事物特别感兴趣,总能发现新机会,一边还构建着心理资源和社会资源。但是一旦认准一个方向,那就要切换到高动机强度模式,把注意力和精力都聚焦在项目上,非得完成不可。平时扫描新机会,找到新机会又能聚焦,这才是最理想的状态。
-
要想培养出创新型人才,需要家庭和社会两方面提供条件。家庭最好是富足的——至少让孩子感觉不缺什么东西, 日常情绪都比较积极正面;社会则必须是宽容的,这意味着如果一个人上头了,认准一件事非得干,你先别管好坏,尽量允许他折腾。
-
对 AI 可以管,对人才只能“惯”。其实让孩子自己折腾,他也翻不了天,还会慢慢成熟起来。只有这样你才能得到一个完整的人。你必须遏制自己的控制欲。你只能等待。
专业:代议制民主和生成式 AI
-
你提出 prompt 和做选择也是一种创造,因为这个过程体现了你的见识和品位——一个专业科幻画家肯定比我做得好。我们大概也可以说“念咒即创造”,“选择即创造”。
-
模糊,这个事才能办好。日常管理也是这样,领导交代下属任务时,最好不要采取事无巨细什么都吩咐的那种“微管理”,只在任务结束后谈谈感受就好。交代任务就是prompt,谈感受就是做选择。
-
政治学家的一个关键认知是,老百姓对政府的各项政策本身确实比较无感——但是对政策变化很敏感。如果大家都支持一个政策,这个政策早就出台了;如果大家都不支持这个政策,这个政策就出不了台。这就意味着任何新政策差不多都是在这样一个时机下出台的——绝大多数人根本不关心,现在恰好明确支持的人比明确反对的人多了一点点。这些明确的支持者和反对者可能只占有效选民的 1%,但是他们起了大作用。这些人比较懂行,相当于理解 AGI 原理的专家和爱好者。因为别人都不在乎,所以这些人等于代表了民意。政客会小心地听取这些人的意见——不听不行,因为还有选举。
-
让专业的人做专业的事,而真正的老板可以提 prompt 和做选择,这不但是 AI 时代的新风尚,也是一种理想的做事模式。
领导技能:AI 时代的门槛领导力
-
你必须非常理解用户,才能提供最舒服的使用体验。这一点点,也许就是 AI 时代最值钱的技能。
-
你必须切实理解人的情感和人生的意义,才能处理好现代社会中的各种冲突和矛盾。
独特智能:人类的具身智能与自主思考
-
人相对 AI 有个绝对的优势,也是 AI 至少在短期内赶不上的,那就是人更理解人。
-
AI 时代的商业要求你认识自己、认识你的团队、认识你的客户,要求你有情感智能和存在智能。
存在智能:人类在 AI 时代刷存在感的方式
-
AGI 时代的门槛领导力要求你具备三种能力,它们涉及对复杂事物的处理。第一个是谦逊的能力。所谓谦逊,就是不那么关心自己的地位,但非常关心如何把事情做好。第二个是化解矛盾的能力。第三个是游戏力,或者说互动力。
-
所谓增长意识,主要就是增长自己爱的意识。
用已知推理未知
演化:目前为止的 GPT 世界观
-
苏茨科弗说,GPT 的确只是一个神经网络语言模型,它被训练出来只是要预测下一个单词是什么。但是,如果你训练得足够好,它就能很好地掌握事物之间的各种统计相关性。而这就意味着神经网络真正学习的其实是“世界的一个投影”(a projection of the world)。
神经网络学习的越来越多是关于世界、人类境况的方方面面,包括人们的希望、梦想、动机,以及人类彼此之间的互动和所处的各种情境。神经网络学会了对这些信息进行压缩、抽象和实用的表示。这就是通过准确预测下一个词汇所学到的内容。而且,预测下一个词汇的准确性越高,这个过程中的保真度和分辨率就越高。换句话说,GPT 学的其实不是语言,而是语言背后的那个真实世界!
-
禅宗有本书叫《指月录》,这个书名中的“指月”是用的当初六祖慧能的一段典故。慧能说真理就如同月亮,而佛经那些文本就如同指向月亮的手指——你可以顺着手指去找月亮,但你想要的不是手指而是月亮。训练 GPT 用的那些语料就是手指,而 GPT 抓住了月亮。这就是为什么 GPT 有了常识。那是它自己从无数语料中摸索出来的。难道单凭读文本就能抓住月亮吗?也许可以,或者至少在相当程度上可以。不然呢?我们人类读书不也是如此吗?也许你需要更有悟性,也许你只需要读得更多。多了,就不一样。多会导致“涌现”。
-
GPT 从“预测下一个词”中自动涌现出语义理解来,这是通往 AGI 的最关键一步,这大概是 21 世纪以来人类最重要的发现,是革命!我看只有 100 年前量子力学的革命能与之媲美。这是我们这一代人的幸运——你要知道,大自然原本没必要给我们这些。
拟人:伊丽莎效应
-
“ 伊丽莎效应”(The ELIZA Effect),意思是人们会无意识地把计算机给拟人化。
-
我们天生就爱把非人的东西拟人化。根本不需要是 AI,生活中的小猫、小狗,甚至是一个玩具、一辆汽车,都有人当它是人,有意无意地觉得它有情感,有性格,有动机,有意图。
-
我们总想为自己的麻烦找一个怪罪的对象,而把一些东西给拟人化就是特别方便的找替罪羊之法。
-
有个理论叫“汉隆剃刀”(Hanlon’s razor), 意思是能用愚蠢解释的,就不要用恶意。我们可以把这个道理推广一下:能用局面和系统解释的,就不要拟人化。
-
拟人化给我们平添了不少烦恼,那么借着 AI 这个热度,我们也许可以稍微做点反思。我们能不能在生活中搞搞“反拟人化”呢?核心思想是“不是针对你”,英文叫“nothing personal”或者“don’t take it personal”。这个事只是事赶事赶到了这里,不是针对你,不是出于个人恩怨,没有别的意思!
共存:道可道,非常道
-
你要知道,康德讲道理,比如谈论道德,从来不是说“我希望你做个好人”或者“我理想中的社会应该如何如何”,他都是用逻辑推演得出的结论——只要你是个充分理性的人,你就只能同意这么干,否则你就是不讲理。我们需要这种水平的论证。
-
有了约化,你就有了思维快捷方式,可以对事物的发展做出预测。你可能希望科技进步能约化一切现象,但现实恰恰相反。数学家早已证明,真正可约化的,要么是简单系统,要么是真实世界的一个简单的近似模型。一切足够复杂的系统都是不可约化的。
-
对于计算不可约的事物,本质上没有任何理论能提前做出预测,你只能老老实实等着它演化到那一步,才能知道结果。这就是为什么没有人能在长时间尺度上精确预测天气、股市、国家兴亡或者人类社会的演变。不是能力不足,而是数学不允许。计算不可约性告诉我们,任何复杂系统本质上都是没有公式、没有理论、没有捷径、不可概括、不可预测的。这看起来像是个坏消息,实则是个好消息。因为计算不可约性,人类对世间万物的理解是不可穷尽的。这意味着不管科技多么进步、AI 多么发达,世界上总会有对你和 AI 来说都是全新的事物出现,你们总会有意外和惊喜。计算不可约性规定,人活着总有奔头。
伴随计算不可约性的一个特点是,在任何一个不可约化的系统之中, 总有无限多个“ 可约化的口袋”(pockets of computational reducibility)。也就是说, 虽然你不能总结这个系统的完整规律,但是你永远都可以找到一些局部规律。
-
现在 AI 模型则告诉我们,人的智力也没有什么特殊之处。任何一个足够复杂的神经网络都是跟人的大脑同等复杂的。不能认定人能理解的科学理论就高级,AI 识别药物分子的过程就低级。
-
现在 AI 几乎已经拥有了人的各种能力:要说创造,GPT 可以写小说和诗歌;要说情感,GPT 可以根据你设定的情感生成内容;GPT 还有远超普通人的判断力和推理能力,还有相当水平的常识……但是,AI 没有历史。AI 的代码是我们临时编写的,而不是亿万年演化出来的;AI 的记忆是我们用语料喂出来的,而不是一代代“硅基祖先”传给它的。AI 至少在短期内没有办法形成自己的价值观。它只能参照——或者说“对齐”(align with)——我们的价值观。这就是人类相对于 AI 最后的优势。
-
计算不可约性说明,凡是能写下来的规则都不可能完全限制 AI,凡是能发明的操作都不可能穷尽社会的进步,凡是能总结的规律都不是世界的终极真相。这就叫“道可道,非常道”。
价值:人有人的用处
-
人的最根本作用,是选择未来发展的方向。如果让我补充一句,那就是:人必须确保自己有足够多的选项和足够大的选择权。
-
我们必须确保人做的都是高端工作,把低端的留给 AI。要做到这一点,我们的教育就必须保证人始终是强势的——可是这恰恰不是目前大众教育的培养目标。根据沃尔夫勒姆的观点,最高级的工作是发现新的可能性。搞科学也好,搞艺术也好,能给人类创造新的可能性,就是最先进的。
-
沃尔夫勒姆有个观点,人最核心的一个能力,是自己决定自己关心什么、想要什么。这是只有你才能决定的,因为这些决定的答案来自你的历史和你的生物结构。这也是至关重要的战略选择,因为如果选不好,你的路可就走岔了。
-
这些人如果不“开悟”,几乎肯定会输给 AI。你是历史的产物,你是现代教育系统的牺牲品,但你还可以独立学习和思考,你能做出更好的选择。
-
我们要学的不是干活的技能,而是处理复杂事物的艺术,是给不确定的世界提供秩序的智慧。
-
将来的社会必定是个人人如龙的社会。孔子、苏格拉底他们那个轴心时代之所以是轴心时代,就是因为农业技术的进步把一部分人解放出来,让他们可以不用干活,而是整天想事,让社会有了阶层,生活变得复杂。现在 AI 来得太好了,我们正好回归轴心时代,个个学做圣贤。
智能:直觉高于逻辑
-
到底什么是 AI?以我之见:AI = 基于经验 + 使用直觉 + 进行预测。假设你用以往的经验数据训练一个模型,这个模型只关心输入和输出。训练完成之后,你再给它新的输入,它将给你提供相当不错的输出,你可以把这个动作视为预测。这就是 AI。你要问模型是怎么从这个输入算出来那个输出的,回答就是说不清,是直觉。
-
因为这个世界是有秩序的,它讲理,什么事情都不会无缘无故发生,所以我们可以采纳沃尔夫勒姆的哲学,认为世间的一切演化和运动——不论是行星绕着恒星转、一草一木的生长,还是一块石头从高处掉下来——都是计算。而人类为了认识世界和预测世界,就必须通过某种更简化、更快捷的计算,提前知道真实世界的计算结果。为此我们使用了两种计算方法,一种是神经网络,一种是形式逻辑。
所谓形式逻辑,就是把问题变成数学问题进行推导。你写下方程,其中每个参数都有特定的意义,每一步推演都有明确的因果关系,你非常清楚每个中间步骤为什么要这样做,你有一个清晰的理论。形式逻辑是人类智慧的伟大发明,也是启蒙运动以来唯一正统的分析问题的方法。我们所有的科学理论都是基于形式逻辑的。对任何问题、任何操作, 能用形式逻辑表述清楚,你才算是真“懂”。形式逻辑代表“理性”。
-
神经计算没有可言说的规则,你无法把它分解成若干个中间步骤,也说不清都有哪些参数——但你就是能感觉到,而且是快速感觉。这是跟形式逻辑截然不同的计算路线,以至于我们平时都不会把它称为计算。
神经计算和形式逻辑之间有个交集,这是因为人脑也会算些简单的数学题,但算数学题不是我们最擅长的。我们更擅长的是用神经网络直接感知一个复杂的东西。
-
这种说不清的神经感知,正是 AI 做的事情。AI 的本质,就是跟人脑一样的神经计算。
-
我们意识到,形式逻辑只能用于解决简单的、参数少的、最好是线性的问题;对于真实世界中充斥的像如何控制磁场线圈才能得到特定形状的等离子体这种复杂的、参数多的、非线性的问题,终究只能依靠神经计算。
-
世界上将会有相对少数的若干个通用 AI 和无数个专用 AI。专用 AI 为具体的任务而生,通用 AI 是具体的语料训练出来的,它们都有不同的特性,就好像一个个生命体一样。它们不是千篇一律的工人,它们是各有性格的工匠。
-
世界将从工业复制时代重归匠人定制时代。AI 会像传说中的神奇中医大夫一样,给每个病人提供不同的治疗方案,而且各有各的风格。而那样一个直觉而非逻辑的世界,原本就是我们熟悉的。
力量:算力就是王道
-
现在有一种力量是无上限的,它的增长速度远远超过了任何领域中知识积累的速度。这个力量就是计算机算力。这跟审美、道德都没关系,纯粹是力量的对比。在这个局面下,你指望知识,就不如指望算力。
-
在无穷的算力面前,人类的知识只不过是一些小聪明。算力才是王道,知识只是干扰。
-
在算力的加持之下,2022 年底以来 GPT 的表现,给了我们第三个教训:人是简单的。
-
世间几乎所有力量的增长都会迅速陷入边际效益递减,从而变慢乃至停下来,于是都有上限。唯独计算机算力的增长,目前似乎还没有衰减的迹象,摩尔定律依然强劲。如果这个世界真有神,算力就是神。你要理解这个力量,拥抱这个力量,成为这个力量。
实战,让 AI 为你所用
咒语:如何让 ChatGPT 发挥最大价值
- 现实是,GPT 已经非常智能,你几乎没必要担心它听不懂。你应该只在自己用直接语言无法表达清楚的情况下举例。按照那篇论文和后来沃尔夫勒姆的观点,所谓小样本学习其实根本不是学习,只是唤醒了 GPT 原本就会的技能。
重塑:怎样用 ChatGPT 对话式学习
- 如果你使用微调的办法继续训练 GPT,而不是临时输入,那么语料长度就不受限制。
生成:怎样用 GPT-4 编程
- 事实上,GPT 不但让编程更容易,而且让编程更值得了。因为你现在可以在程序里调用 AI!程序里有了 AI,那绝对是画龙点睛,它就活了,它可以做各种各样神奇的事情。
解放:如何拥有你的 AI 助理
- AI 助理让所有界面回归到自然语言。你只要懂得事情的本质,然后会说话就行。它负责把你的意思翻译成各个应用能理解的语言, 你无须看见那些应用,你甚至无须知道那些应用都是什么……AI助理把我们从界面背后解放了出来。
场景:用 AI 于无形
- 能工摹其形,巧匠摄其魂。我用了 AI 没有?用了。我的文章里有 AI 生成的内容没有?没有。这就叫“用 AI 于无形”。
更大的大局观
炼丹:大语言模型是怎样炼制的
-
炼制大模型主要分四步:架构、预训练、微调和对齐。
-
孩子头脑生得再好,不学习知识也没用。而 AI 比人强的一个重要特点就是,你给它学习材料,它真学。
-
大模型并不是用中文语料回答中文问题,它可以随便切换语言,语言只是界面,它是用语义向量而不是任何一种特定语言进行推理,它思考的是知识本身。
-
你感觉到没有,微调和对齐很像是人在社会中的成长。可能你在学校里已经学到了足够的知识,但是一参加工作还是做不好,因为你不知道怎么跟同事对接,怎么和各种人交流,怎么表现得体乃至游刃有余。我们都是被现实教育,不断获得反馈,慢慢积累经验,逐渐自我调整和优化的。微调和对齐步骤告诉我们,就连 AGI 也不能一下子就能什么都会:就算知识可以快速灌输,恰到好处的行事风格也只能慢慢打磨。
-
“检索增强生成”(Retrieval-Augmented Generation, RAG)给大模型提供了巨大的知识扩展能力,但它毕竟仍然是基于检索的,对知识的理解效果还是不如预训练那样自洽。
惯性:如何控制和改写你自己的神经网络
-
标准是训练神经网络的素材库。垃圾进就会垃圾出,你要想训练一个高水平神经网络,就得确保只使用高水平素材。
-
如果你做的和别人一样,你只能期望得到和别人一样的结果。想要不同的结果就必须提高标准。平庸的人会因为各种原因降低标准。上一场演出观众爆满,就全力以赴;这一场没几个观众,再加上已经很累了,那尽力就好——你这不仅仅是对不起观众,你更是对不起自己。你的神经网络被污染了。你必须确保自己交付的每一个作品都是你所能做到最好的。
-
真正的自信必须是从把一件件事情做成中得来的。如果你曾经做成过很多事,那么哪怕今天在场的人都轻视你,你也无所谓。如果你经常能把事情做成,你会相信下一次这个事虽然很难,但你也能做成。
因为自信是从成事中得来的,自信的人会乐于改变自己的观点,而不是整天就想在某个细枝末节上证明自己是对的。自信能让你专注于做正确的事,而不是做正确的人。自信是面对现实的力量。
-
凯文·凯利(Kevin Kelly)讲过一句话: “成熟的基础是,即使事情不是你的错,也不意味着不是你的责任。”
-
当你抱怨的时候,你就是一个受害者。事情没做好就抱怨客观环境、指责队友、给自己找借口、迁怒于别人……哪怕你说的都是对的,你也是受害者。朋友会帮你开脱,家人会安慰你,但你还是受害者。
-
官僚主义的步骤能减缓决策速度,但是也能减少出错。这就如同医生做手术和飞行员起飞之前都要过一遍清单一样。
狂人:山姆·阿尔特曼的系统性野心
-
大多数人做事再尽心尽力,也只不过是在做别人认为正确的事:大家都崇尚考研、考公,你也去考研、考公。那其实是一条通往平庸之路:你做的不是真正有意义的事情,而且你会算错风险。你以为跟别人做同样的事情就是低风险的,自己做不一样的事情就是高风险的,其实这根本没道理。阿尔特曼说,有了一定的社会地位和财富之后,如果你没有一种纯粹让自己满意的驱动力,就不可能再达到更高的水平。
-
为什么非得出来冒险呢?因为你要做一件了不起的事情。阿尔特曼认为,“做难的事情其实比做容易的事情更容易”, 因为难的事情会吸引别人的兴趣,人们会愿意帮你。同样是创业,你要说你们公司是做基因编辑的,大家会觉得这很有意思,会很愿意支持你;你要说我要再搞一个做笔记的 App,那没人在乎。为了做难的事情,你需要有“绝对的竞争力”。这意味着你能做一些别人想模仿也模仿不好的事情,这也意味着你会非常反感平庸的东西。
-
建立社交网络的最好办法就是识别出一个人真正的特长,并且把他安排到最适合的位置上去——阿尔特曼说这会带来 10 倍的回报。
-
世间的道理好讲,行动力才是最宝贵的。阿尔特曼推崇一句名言, “归根结底,人们评价你的一生不是看你有多少知识,而是看你有多少行动。”(The great end of life is not knowledge, but action.)
问答
-
人工智能行业选人很看重大学专业。一般需要计算机科学、统计学、数据处理、计算机图形等方面的人才,有的大学直接就有 AI 专业。对大学生来说,最好是以其中的一门为主专业,再辅修一个像认知科学、脑科学、心理学、哲学之类的专业,那简直就是定制的 AI 人才。
-
学习外语和编程并不仅仅是为了这些技能本身,也是对大脑的开拓。但好消息是,AI 让外语和编程学习都变容易了,现在是事半功倍,那何乐不为呢?
-
很多智者都说人生的意义不是在于证明对错,而是在于体验。喜怒哀乐也好,恐惧忧患也好,我们不是站着说话不腰疼,我们在这里亲身体验,我们承担一切后果,我们玩的是真的。
-
新物理学,恰恰是语言空间之外,客观世界送给我们的礼物。物理学家不是坐在办公室里聊天聊出新物理学,而是用望远镜观测、用粒子对撞机做实验发现新物理学。你必须跟真实世界打交道才能知道那些东西。所以 AI 必须有观测实验的新输入,才有可能发明新物理理论。但是,再次请注意,AI 虽然不能知道新物理学,但是它完全可以猜测新物理学。也许它会编造一些理论,你用实验一验证,发现居然是对的。
-
几年前有些互联网大佬说,现在 AI 预测这么厉害,我们可以回到计划经济——这完全是错误的认识。计划经济的本质不是预测,而是指令和控制。AI 预测是更好地面对市场的不确定性;计划经济却是要消除不确定性。经济一定是一管就死,只有市场经济才能让人们的日子多姿多彩。AI 也不能改变这个道理。
-
“赌”一门过于狭窄的技术是危险的。回到问题上来,数据科学的应用范围更广,不仅限于 AI。就算将来 AI 接管数据分析,你还可以用相关的知识帮助别人理解数据和根据数据做决策,所以也许相对更安全。
-
动机本身就是一个生理需求。如果一个人太过“佛系”,对什么都无所谓,没有动机,你会觉得他的生命力有问题。如果AI突然有了动机,你会觉得它是不是要活了,你可能会感到威胁。
-
可能因为千年科举文化的影响,很多人认为什么好事都是“考”出来的——考完大学考研,考完研考公,当上公务员也仍然时刻准备下一次考核……这是活在了扭曲的现实之中。真正的好东西应该是交换回来的:不要问社会能给自己什么,要问自己能给社会什么。建立藐视考试、重视真本领的心态,不但有利于成长,而且有利于考试。
-
任何时候都做个通才而不是专才,AI 时代更是如此。
-
现在唯一能判断 AI 可能有意识的做法,似乎是你去调查那些设计 AI 神经网络的工程师们写的代码:如果代码中没有包括这种行为,可是 AI 偏偏做出了这种行为,而且这种行为又比较高级,很像人类意识的表现,我们大概就可以说这个 AI 好像活了,有意识了。
-
当然,其中的每一步都有很多细节需要动手时才能搞清楚,你必须多搜索、多问。但是那些问题往往都有现成的答案,因为你不是一个人在战斗,你是加入了一个社区——世界上有很多很多人都在做这件事。而这也说明一定的英语能力和一定的编程基础的重要性。你不需要精通,只需达到能用的水平,这没有很高的门槛,但是无数的聪明人恰恰就被这两道简单的门槛挡在了门外。
-
有些人是把 AI 当事业做,有些人是把 AI 当学科做,后者更在意自己评职称的问题。如果一个人按照寻常路线本科、硕士、博士一路读下来,恐怕刚出炉他就是落伍的。
-
学编程必须从“课程思维”转向“项目思维”。不要问你学的是哪门语言,掌握多少知识点,考试考多少分,要问你会做什么,你做过哪些项目。
-
如果你把学问当成一门“课”,那都是下乘功夫;把学问当成本领才是真功夫。有积极主动性的人根本不会问这该不该学、那该不该学,他们总是在别人还在犹豫的时候已经学完了。
-
世界上哪有“不该学”的东西?只要你喜欢一个领域又觉得自己在这个领域很愚笨,还想在其中做事,你就得学。GPT 只会帮你学得更快更好,而不是让你不学。