您的位置 首页 行业资讯

为AI注入一缕意识:构建更智能、更强大的神经网络

全文共2848字,预计学习时长8分钟1998年,日本索尼计算机科学实验室的一名工程师拍摄了一台机器人在围栏里不知所措地到处跑的情景。机器人有两个任务:避开障碍并在围栏中找到特定物品,它通过了解场地布局和目标物体的位置来完成任务。但是,每当机器人遇到超预期的障碍时,有趣的现象就出现了:它的认知过程一时变得混乱起来。机器人努力应付和它对围栏的预测不一致的新数据。

全文2848字,预计学习时间8分钟。

1998年,日本索尼计算机科学实验室的一名工程师拍摄到一个机器人在围栏里不知所措地跑来跑去。机器人有两个任务:躲避障碍物和在栅栏中寻找特定的物体。它可以通过知道站点的布局和目标对象的位置来完成任务。然而,每当机器人遇到意想不到的障碍时,就会出现一个有趣的现象:它的认知过程会暂时变得混乱。机器人试图处理与它对栅栏的预测不一致的新数据。

设置实验的研究员解释说,在不一致的情况下,机器人出现了“自我意识”。与照常跑步相比,机器人必须把注意力转向内部。可以说是在决定如何处理冲突。

的假肢专家迈克·汉弗莱正在检查弗雷德。弗雷德是用Penryn处理器制造的生物力学“mesmer”机器人,于2018年5月9日在英国康沃尔的公司总部制造。|来源:Getty Images)

自我认知的思想由来已久,最早出现在20世纪初德国哲学家马丁·海德格尔的著作中。现在越来越多的AI研究专家受到神经科学的影响,在琢磨神经网络能否也应该达到与人脑相当的高认知水平。

目前,我们早就不关注那些“笨”机器人了。他们不知道自己在哪里或在做什么。我们希望未来类似人脑认知水平的意识能让AI更智能。这样的AI可以自己学习,比如如何选择和关注数据,以获得可以掌握和容易使用的新技能。然而,赋予机器这种思维能力也带来了风险和道德上的不确定性。

顾春是1998年实验的共同设计者和博士,现在是冲绳工业大学认知神经机器人研究室的教授。他说“我不设计认知”,他认为机器人的“认知”行为可以用隐喻来描述,即机器人实际上并没有人类认可的认知方式,只是表现出结构相似的行为。而且他对机器思维和人类思维的相似性极其感兴趣,甚至试图用机器人来模拟与自闭症相关的神经反应。

世界最著名的AI专家、魁北克人工智能机构Mila的创始人约书亚·本吉奥也痴迷于AI认知的研究。他用驾驶类比改变认知和非认知行为。

他在邮件中解释道:“一开始你只是学会了开车,然后就是认知控制。经过一些驾驶经验,大部分驾驶行为都是在无意识的层面上进行的,可以边开车边聊天。”

更高级别的专用处理并不总是必要的,甚至并不理想。但是对于人类来说,学习新的技能或者适应突如其来的挑战似乎很重要。只有当我们能够获得和人类一样的区分优先次序、集中注意力和解决问题的能力时,人工智能系统和机器人才能避免目前困扰他们的愚蠢行为。

Bengio和他的同事们在一定程度上受到了我们对人类意识理解的启发,花了好几年时间研究AI系统的“注意机制”原理。这些系统可以了解哪些数据是相关的,从而知道为了完成给定的任务应该注意什么。

Bengio补充道:“在AI领域,研究认知还是禁忌。”在他看来,认知是一个非常困难的理论,即使对神经科学家来说,讨论认知形式的主力军仍然是哲学家。

关于人脑和人类认知经验的知识越来越与追求更高级的系统相关,带来了一些有趣的交叉研究。以牛津大学计算神经科学和神经外科教授牛顿·霍华德为例。受人脑启发,他和同事设计了一个受人脑启发的操作系统。

与用一种方式解决问题相比,系统可以选择最好的数据处理方式来完成任务——,有点像人脑不同部位处理各种信息。

Howard还实验了一个系统,可以收集各种传感器和资源的数据,自动储备各种话题的知识。他说,“部署完系统,就像个孩子,对一切都充满了好奇。”

所有的工作都是由目前对大脑的理解所启发的,这有望进一步推动今天的人工智能。但也有人质疑,这未必有助于我们进一步实现真正有意识的机器思维:机身里有一个独立的“灵魂”,可以独立启动意识。

哲学家丹尼尔·丹尼特大半辈子都在思考什么是认知。在他看来,机器不会迅速发展到人类认知的程度,50年也不会。他和其他专家已经指出,今天能做出的AI,似乎没有类似于反思或反思意识的行为,而反思或反思意识是认知不可或缺的。

我们仍在寻找具有这些特征的系统,但这只能通过神经科学和AI研究的巨大重叠来实现。目前,认知仍然是科学的一大谜团。尽管科学家们逐渐发现一些神经连接与大脑有关,但没有人知道它们与大脑中的哪些活动有关。一些研究人员发现,脑电波似乎与特定的认知状态有关。

牛津大学计算机科学研究助理卡米洛·米格尔·西诺雷利(Camilo Miguel Sinorelli)认为,通过在机器中重复这样的活动,我们也许能够让机器体验认知思维。

他提到了电影《机械姬》中机器人流动的“湿身”大脑,是基于凝胶的神经活动的容器。在电影中,奥斯卡.艾萨克扮演的角色创造了一个认知机器人。他解释道:“我必须摆脱电路。我需要能在分子水平上进行排列重排的东西。

Sinorelli说,“这将是一个理想的实验模型”,因为液体的高度塑化大脑可能被配置成体验认知活动引起的神经振荡,类似于我们看到的脑电波。必须说明,这几乎是假设。但也提出了一个问题:完全不同的硬件有必要引起机器的认知吗?

Sinorelli说,即使在未来的某一天,我们也会成功证明计算机确实有认知,而且不一定能控制。他补充道,“我们可能创造了一种具有人类认知能力的动物,但我们无法控制这种认知。“

就像有些人争论的那样,这种行为会产生一个非常危险,不可预测的AI。但是,即使是一个可以被证明无害的认知机器,仍然会产生道德问题:当机器感到痛苦、绝望、混乱时,该怎么办?

Andra Lupi是剑桥大学的博士生,研究人脑活动和认知。他说:“我们必须避免错误地给认知机器造成痛苦的风险。“

可能很多年后我们才需要解决这样的问题。然而,为了构建更强大的系统,人工智能研究越来越重视神经科学和认知研究。这些都在发生,就像认知本身一样,很难预测未来它会帮助我们创造什么。

留言如关注

分享AI学习发展干货

如转载请在后台留言遵守转载规范

更多AI智能建筑安防科技-为AI注入一缕意识:构建更智能、更强大的神经网络,欢迎订阅本站,马鞍山智能门禁考勤系统、门禁安装多少钱、id卡门禁机、人脸识别门禁一体机、摆闸门禁系统玩转智能建筑安防科技社群最新新闻。

本文来自网络,不代表红雨智能安防资讯网立场,转载请注明出处:http://www.zdm365.cn/zx/4751.html
返回顶部