在加入谷歌十年后,人工智能教父、图灵奖得主、深度学习先驱杰弗里·辛顿(Geoffrey Hinton)近日宣布从公司辞职,以便更自由地讨论人工智能(AI)带来的危害。 后来,在一次MITEmTech数字会议上,Geoffrey Hinton进一步表达了对AI的恐惧。发布会的内容被放到了YouTube上,描述为:

这是我很长时间以来看到的最不可思议的讲座之一。 杰弗里·辛顿基本上是在告诉观众,人类的末日即将来临。 人工智能变得如此重要。 教父AI就是在陈述这一点,敲响警钟。 他的结论是“人类只是进化智能的一个过渡阶段

Geoffrey Hinton在一次采访中详细解释了他离开谷歌的原因。 第一,感觉自己的年龄(75)差不多到退休的时候了。

其次,他最近改变了对大脑和正在开发的数字智能之间关系的看法。 过去,他认为计算机模型不如大脑,其主要目的是改进模型以更多地了解大脑。 但现在ChatGPT-4和其他模型的性能让他惊讶,计算机模型的工作方式与大脑不同——它们使用反向传播,而大脑可能不会。 反向传播技术是一种允许机器自主学习的算法。从计算机视觉系统到大规模语言模型,它支持当今几乎所有的神经网络。

Hinton在会上表示,当今大规模语言模型的规模完全颠覆了他关于反向传播和机器学习的想法。 他指出,虽然GPT-4只有一万亿个连接,但人脑有100万亿个连接;但GPT-4的知识比人类多得多,这意味着计算机模型比人类更善于获取知识。 这就是他认为可怕的:反向传播可能比人类更擅长学习。

Hinton进一步指出,问题在于运行在成千上万台相互通信的计算机上的数字模型;这意味着模型可以立即访问所有数据,并以人类无法做到的方式分享知识。 他认为已经可以进行常识推理的ChatGTP很可怕;进一步发展后,可能会操纵人类做坏事。 辛顿把他的恐惧来源表述为:聪明的东西会比我们聪明。

此外,他还担心不受控制的数字智能(他认为它不同于人类智能)可能会设定与人类原有目标相冲突的目标,从而让非人类占上风。

详情见完整视频。

全网首发|“AI教父”最新万字访谈:人类或是AI演化过程中的过渡阶段

new.qq.com/rain/a/20230506A086D000

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。