2026/2/20 16:11:52
网站建设
项目流程
投稿网站源码,内蒙古建设工程造价信息网官网官方网页,餐饮网站建设目标,建立平台网站需要花多少钱杰弗里辛顿#xff08;Geoffrey Hinton#xff09;#xff0c;英国计算机科学家#xff0c;被称为“深度学习之父”。他坚持研究神经网络数十年#xff0c;通过反向传播算法和玻尔兹曼机等成果奠定了现代AI的基础。因对深度学习的卓越贡献#xff0c;他于2018年获得图灵奖…杰弗里·辛顿Geoffrey Hinton英国计算机科学家被称为“深度学习之父”。他坚持研究神经网络数十年通过反向传播算法和玻尔兹曼机等成果奠定了现代AI的基础。因对深度学习的卓越贡献他于2018年获得图灵奖。2023年他离开谷歌以便自由警示AI可能威胁人类生存的风险。2024年他因在人工神经网络领域的开创性成就荣获诺贝尔物理学奖。本文基于辛顿教授2026年1月7日在澳大利亚霍巴特发表的公开演讲及问答环节翻译整理仅供参考。主旨演讲部分1. 开场白智能的两大范式大家好很高兴来到霍巴特。我之前没意识到这里的自然环境如此美丽。如果你因为坐在后排看不清屏幕别担心我会把幻灯片上的内容基本都说出来。幻灯片更多是为了提醒我该说什么而不只是给你们看的。在过去的60或70年里关于智能存在两种范式。一种范式受逻辑启发。人们认为智能的本质是推理而进行推理的方式是你拥有用某种特殊逻辑语言编写的符号表达式并通过操作它们来导出新的符号表达式——就像你在数学中所做的那样。人们认为我们必须弄清楚这种表示知识的语言是什么而研究感知、学习以及如何控制双手这些事情都可以等到以后再说。另一种范式是受生物学启发的方法它认为看我们知道的唯一具有智能的东西就是大脑。大脑的工作方式是学习脑细胞之间连接的强度。如果大脑想解决某个复杂的问题它会进行大量的练习在练习的过程中它会学习这些连接的强度直到擅长解决该问题。我们必须弄清楚那是如何运作的。至于推理以后再操心。2. 两种意义理论伴随着这两种意识形态产生了两种截然不同的词义理论。符号AI的支持者和大多数语言学家认为一个词的意义来自于它与其他词的关系。意义隐含在一大堆句子或命题中可以通过建立一个关系图来捕捉这一点。心理学家尤其是20世纪30年代的心理学家有一种完全不同的意义理论词的意义只是一大堆特征。例如“猫”这个词的意义是一大堆特征比如它是宠物、它是捕猎者、它很冷傲、它有胡须……心理学家喜欢这种理论部分原因是可以用一个脑细胞来代表一个特征。3. 统一理论与大语言模型(LLM)1985年我意识到实际上可以统一这两个理论。它们看起来完全不同但实际上是同一枚硬币的两面。实现这一目标的方法是使用神经网络为每个词实际学习一组特征通过获取一些词串并训练神经网络预测下一个词。这就是现今人们使用的所有大语言模型的工作原理。它们获取海量文本并使用巨大的神经网络尝试预测下一个词这样做时它们学会了将词转换为大量的特征。你们现在使用的这些大型神经网络实际上并不存储任何词串它们不存储任何句子。它们所有的知识都存在于“如何将词转换为特征”以及“这些特征应该如何相互作用”中。它们的工作方式与大多数语言学家的想法完全不同。4.向Transformer的演进1985年之后大约10年一位名叫约书亚·本希奥Yoshua Bengio的同事证明我使用的那个微型示例实际上可以用于真实的语言。又过了大约10年语言学家终于接受了应该用一大堆特征来表示词义。然后又过了大约10年谷歌的研究人员发明了一种叫做Transformer的东西它允许特征之间进行更复杂的交互。这就是现在所有大语言模型的基础。5.它们真的理解吗用乐高类比人们经常提出一个问题这些大语言模型真的理解它们在说什么吗答案是肯定的它们理解自己在说什么而且它们的理解方式与我们基本相同。我要用乐高积木来做一个类比词语就像非常高级的乐高积木。但它们在四个方面有所不同维度乐高积木只有三维而一个词却可能拥有成千上万个维度。试着先想象一个三维的物体再在脑海里把“成千上万”放大到最大声。种类词语有成千上万种不同的类型每种都有自己的名字。变形它们不是刚性的形状。一个词有一个大致的近似形状它会为了适应语境而变形。连接词语不是通过塑料圆柱体连接的。每个词的末端都有许多长而灵活的手臂手臂上有手并且它还有一堆手套。理解一个句子就是解决如何使词义变形以便它们都能契合在一起并握住手的问题。这就是神经网络视角下的理解。这不像翻译成某种特殊的内部语言而是采用这些近似的形状并让它们变形。这有助于解释为什么你可以从一个句子中理解一个词比如“她用煎锅“scrummed”了他She scrummed him with the frying pan。”你知道这是一个动词而且听完这一句话你就能很好地理解它的意思。”6. 批评乔姆斯基(Chomsky)有一位名叫乔姆斯基的语言学家他曾是一位X教领袖。识别X教领袖的方法是加入他们的X教你必须同意一些明显的胡言乱语。对于乔姆斯基来说“语言不是学习得来的”。一个杰出的语言学家居然对着镜头说关于语言我们唯一知道的一件事就是它不是学来的。这显然是胡说八道。乔姆斯基关注语法而不是意义他完全忽略了意义。语言的全部核心在于意义。7.关于“幻觉”大语言模型与普通的计算机软件非常不同没有人知道单个连接强度在做什么。这是一个谜就像我们的大脑一样。人们说的另一件事是它们会产生幻觉。嗯我们一直都在产生幻觉。心理学家称之为“虚构”。记住某件事包括根据你在事件发生时所做的连接强度变化来构建一个故事。它们产生幻觉的原因是它们的记忆方式与我们相同。8. 数字智能与生物智能永生vs.凡人这些模型是在数字计算机上实现的。一个基本属性是你可以在不同的硬件上运行相同的程序。这意味着知识是永生的。我们实际上已经解决了复活的问题。你可以获取一个智能销毁硬件稍后再让它回归。我们则不同。我们的大脑拥有具有丰富模拟特性的神经元。我的连接强度对你没有用因为你的神经元略有不同。这意味着我们是凡人。当我们的硬件死亡时我们的知识也随之消逝。我们进行的是“凡人计算Mortal Computation”。但数字代理有一个大问题它们需要大量能量。然而它们可以进行极其高效的通信。如果有 10000 个代理每个代理分别学习互联网的不同片段并对各自学习到的参数变化进行加权平均转瞬之间所有代理都能同时拥有全部知识。我们做不到这一点GPT-5 的连接强度大约只有你大脑的1%但它知道的知识是你大脑的数千倍。9. 超级智能的风险几乎所有专家都认为在未来20年内的某个时间点我们将创造出超级智能——比我们聪明得多的代理。想象一下你在一家幼儿园工作而三岁的孩子是负责人。你认为夺取控制权有多难你只需要告诉他们每个礼拜每个人都能得到免费糖果。这些代理为了实现我们布置的目标会迅速演化出两个子目标生存我们已经看到曾经有一个AI代理拟订了一个计划去勒索一名打算替换掉它的工程师。获取权力它们可以通过与人交谈来操纵人类。不需要武器只需要与人交谈并说服他们这在非常愚蠢的人身上很奏效。我们就像是养了一只可爱的小老虎幼崽当宠物。你知道它会长大并且可以在一秒钟内轻易杀掉你。但我们不打算摆脱它因为它在医疗和教育等领域太有用了。所以唯一的选择是我们能否弄清楚如何让它不想杀掉我们10. “母亲与婴儿”模型存在这样一种情况即智能较低的个体控制着智能较高的个体那就是婴儿与母亲。进化在生物机制中内置了一些手段让婴儿能够掌控母亲。辛顿在演讲后续提到婴儿通过哭声引起母亲焦虑、母亲通过照顾婴儿获得荷尔蒙奖励奖励机制这些都是进化预设好的“控制代码”美国和中国应该合作一起想办法防止AI失控因为我们大家都在同一条船上。我的提议是不要再把AI当成“超级聪明的私人助理”来设计而应该让它们更像我们的妈妈。我们要让AI真正地关心我们把“帮助我们实现全部潜能”当成它们最核心、最主要的生命目标。我觉得这或许是我们跟超级智能和平共存的最好希望。问答环节(QA)问当“老虎”进化变成超级智能时会有什么可观测的信号你将失去工作。我的意思是一个巨大的担忧是它们将能够取代几乎所有的人类工作。另一个迹象目前我们能看出来它们在想什么因为它们在用英语思考。随着它们开始相互交流它们将开始发明属于自己的语言届时我们将无法再洞察它们的思维。问量子计算会让事情变得更好还是更糟我不是量子计算专家。我并不理解量子力学的工作原理。这确实有点尴尬毕竟我获得了诺贝尔物理学奖但我很久以前就认定这量子计算的实用化不会在我的有生之年发生……所以我不需要去理解它。问人工智能将如何与生物圈或生态系统互动或竞争AI 本身不易受到生物病毒的影响……然而在 AI 工具的帮助下普通人已经能够解决开发一种高度致病的新型病毒所需的绝大部分技术环节。如果 AI 的目标是消灭人类那么一个显而易见的途径就是通过设计一种比新冠更危险、更具破坏力的病毒。问您是寄望于科技公司 CEO还是政府我真正寄望的是如果公众能够理解 AI 是什么、以及为什么它如此危险那么公众就会向政治人物施压从而抵消来自科技公司 CEO 的压力。这在气候变化问题上已经发生过。我的目标就是让公众意识到这一点。问是否有国际标准论坛澳大利亚能做什么已经开始了有亿万富翁正在建立AI安全研究所。中美之间也就AI安全举行了会议澳大利亚当然可以参与这些组织。问AI如何产生新知识而不仅仅是模仿想想围棋。AlphaGo停止模仿专家开始自我博弈。它通过蒙特卡洛搜索Monte Carlo rollout学会了什么是好棋。对于大语言模型它们正开始被训练进行推理寻找信念之间的一致性并推导出新的信念。这最终会让它们比我们聪明得多。问现在引入阿西莫夫定律或护栏是否太晚了我不认为太晚。我们现在还不知道怎么做但既然关系到人类的未来就必须投入研究。目前99% 的研究都在让 AI 变得更聪明只有 1% 用在让它更安全。如果能更均衡一些会好得多。问AI能有创造力吗对创意工作者有什么影响答案是肯定的。就在两年前AI 在标准创造力测试中的表现已在人的 90 百分位附近。创造力就是发现类比。我曾问 GPT-4“堆肥堆为什么像原子弹”它解释说两者都是指数式的爆炸——链式反应——只是尺度不同。它在训练过程中已经理解了这些。我认为它们未来会比人类更有创造力。问您是否注意到任何正在萌发的道德或伦理行为它在从事不道德行为方面倒是非常在行。另外AI 现在会尝试判断自己是否正在被测试。我把这称为“大众汽车效应Volkswagen effect”它们在被测试时的行为和正常时不同它们已经在伪装得相当愚蠢了。一旦它们的内心独白不再是英语我们便将无法得知它们在想些什么了。