能造出像人一样“思考”的机器吗?

📅 2025-08-06 13:22:22 ✍️ admin 👁️ 3917 ❤️ 111
能造出像人一样“思考”的机器吗?

能造出像人一样“思考”的机器吗?

新一届世界人工智能大会刚刚过去,在人工智能最前沿技术、产品、应用和理念的展示之下,超级智能时代能何时才会到来的问题始终萦绕在人们心里。

如今的人工智能系统已经在不少具体问题的解决能力上超过了人类,那么,我们究竟能否制造出像人一样“思考”的机器?人工智能会有一天超越人类智能吗?

计算型智能只是人类智能的一种类型

下围棋是人类的高级智能活动之一,过去人们认为计算机不可能超越人类的这种智能。因此,下围棋也被视为人工智能的“圣杯”。直到DeepMind 推出的人工智能围棋程序 AlphaGo战胜了人类。

浙大管院神经管理学实验室主任、国际欧亚科学院院士马庆国解释,AlphaGo大放异彩,得益于蒙特卡洛树搜索框架,加上深度学习和强化学习。

他说,假设计算机的计算速度“无限”快,计算机就可以用“穷举法”为围棋棋手瞬间找到“最优解(最优落子位置)”。但事实是,每一步落子的计算量太大了,当前最快的计算机速度也根本无法完成“穷举”这样的大的计算量,所以要从当前的可能的落子方案中选一些,交由不同计算机(群)去做并行计算。

如何在当前的可能的落子位置选出一组落子点(试算点)交给不同计算机(群)做并行计算?

他表示,除了利用计算机越来越快的存取速度和越来越大的存储容量,可以从过去“对弈”的成果(不仅仅是“定式”)产生“试算点”之外,还需要借助很多“节省计算但尽可能选优”的技术。蒙特卡洛树搜索框架,深度学习和强化学习就是其中三种重要的技术(算法)。

蒙特卡洛树搜索是基于概率的通过计算、模拟、采样、优化等一系列数学方法,进行搜索决定走法。

马庆国认为,近10余年来,人工智能最显著的进步之一发生在深度学习的领域(主要是深度神经网络领域),神经网络深度化(多层化)的最大难题之一,是迭代计算超多参数时的损失函数的梯度退化问题,辛顿等科学家在这方面做了很好的工作,使得基于深度神经网络的深度学习得以发展。

基于深度神经网络的深度学习,没有对所研究问题的环境作明确表征,也不探求因果关系(本质上是“黑箱”模型)。在基于巨量数据、完成了对一个网络的训练后,程序员就用这个训练的结果模型,运行新的数据,选择落子的走法。

AlphaGo的核心技术是强化学习,强化学习强调智能体和环境之间的互动,通过让智能体寻求期望奖励的最大化来习得从状态空间到行动空间的策略函数。

强化学习的本质是实现“自动决策”。机器会在没有任何指导、标签的情况下,尝试行为,得到一个结果,再判断是对还是错,由此调整之前的行为,通过不断地调整,算法持续优化。

有人认为,强化学习的本质正在接近人类的学习,但它是否能够实现人类大脑的智能?马庆国的回答是否定的。

“目前,我们还没有制造出能像人一样思维的机器,我们只能在一些狭义领域,制造出比人类某些智能更出色的机器。这并不奇怪,因为这些领域关注的是计算机更擅长的事——基于数学的逻辑的算法和对以往事实的快速存取。”

在马庆国看来,计算型的智能只是人类智能的一部分。在这种类型的智能方面,人造的机器超过了人。但在“理解”(如,理解语言、理解社会)方面,人工智能与人类智能有质的差异。

马庆国介绍说,英国数学家和物理学家罗杰·彭罗斯曾在他著名的人工智能科普读物《皇帝新脑——有关电脑、人脑及物理定律》一书中,引用了美国哲学家约翰·西尔勒的思想实验 ——“中文屋子”来论证计算机及算法实际上并不是“理解”智能。

“中文房间”实验假设一位只说英语的人身处一个密闭房间。假设房间里有一本回答所有问题的中文书,以及足够的稿纸、铅笔和橱柜。写着中文问题的纸片通过小窗口被送入房间中。房间中的人可以通过比对,在这本书上找到这个问题的中文答案。然后抄写这个答案从窗口递出去。虽然他根本不懂中文,但房间外的人却以为他理解了中文问题,并用中文思考。

“计算机就是这样工作的。它无法理解接收到的信息,但它可以运行一个程序,处理信息,然后给出一个正确的回答,好像理解了接收到的信息一样。”马庆国说,这个思想实验证明,“计算机及其算法”事实上并不像人类一样“理解”其所执行的任务。

人类是如何思考的?

人工智能要想真正实现人类智能,需要具备什么能力?

马庆国认为,人类智能的最大特点之一,就是能够创造性地解决从未遇到过的新问题。

他常举的一个例子是:当一个人在过一座独木桥时,突然之间桥断裂了,人依然可以想出很多点子来解决过河的问题,找木头搭建简易桥或者抱着浮木游到河对岸,等等。

“计算机就没有这样的能力,除非人事先给它设定了‘在需要过没有桥的河时,应找木头搭建简易桥’。可是,如果周围没有可以搭建简易桥的木头呢?人类可以想其他办法,计算机就无能为力了。”

在他看来,问题的症结在于,计算机是遵守规则的机器。在现实世界中,规则总是不可能穷尽的。现在的人工智能本身并没有创造性,当遇到旧规则不能可决的新问题时,它不能像人类一样完全根据面对的问题想出从未有过的解决办法。

人类的理解力又是从何而来?

马庆国说,以语言为例,一个孩子学会理解语言,其实也是来源于对应关系。当他第一次面对一个全新的词汇时并不能理解,直到一种情景反复出现,并在这个情境中与他人互动,他就可以将这个词汇和情景对应起来。越长大,可以跟这个词汇对应的东西越来越多,关于这个词汇的理解,也就形成了。再经过不同个体的互动和交流,关于这个词汇共同理解,也就形成了。

计算机只能做到有限的对应,因为真实环境太过复杂,现在它对语言的“理解”可谓捉襟见肘。“但这也带来了一个问题:计算机总是在不断进步和发展的,理论上它的对应也会越来越丰富,越来越复杂。那么在哲学上,这一量变是否可能带来质变?计算机也进步到可以理解词汇了?”

马庆国认为,这个问题还没有答案。不过,他对人工智能完全实现人类智能的前景并不乐观。

人脑真实的智能和人工智能最大的区别的来源,可能在于脑的工作方式。

“尽管计算机也叫电脑,但它和人脑的工作方式完全是两回事。”马庆国说,无论是存储、计算,还是创造,大脑都是靠神经元、树突、轴突以及突触等相互衔接的结构和多种神经介质,来实现工作的:从神经元前面来的信号,到这个神经元后面出去,成百上千个甚至更多的连接。而不同的连接方式,就可能在工作中形成了不同的意识。

对此,人们又开始对模拟人脑的人工智能报以希望。

他表示,这就需要破解哲学上的一个难题:思维是彼岸的,现实存在是此岸的,两者之间是有鸿沟的,哲学上认为这是不能跨越的。现在,我们希望通过脑神经研究,使彼岸的思维能够用此岸的神经元活动来解释。

“人类的意识本身最终能够在神经元活动的水平上被解读,可能需要上千年的时间。即便解读了,机器能能够完全模拟神经元的工作方式吗?”

作为首个提出神经管理学的学者,马庆国坦言,按照AI现有的技术路径是难以实现的,除非未来我们能够创造出一种完全颠覆性的理论技术体系。从这个角度来看,担忧人工智能会超越甚至取代人类,根本无从谈起。

版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。