您的当前位置:主页 > W蹭生活 >DeepMind 想透过认知心理学,来弄清楚人工智慧的思考模式

DeepMind 想透过认知心理学,来弄清楚人工智慧的思考模式

分类:W蹭生活  / 时间:2020-06-06 / 作者:
DeepMind 想透过认知心理学,来弄清楚人工智慧的思考模式

随着技术发展,人工智慧(AI)已应用在做一些简单决定,应用领域与複杂度也在持续拓展中,未来 AI 可能会在自驾车上做出攸关生命的抉择,但 AI 工程师面临一个问题:他们通常不知道自己的创作在想什幺。

机器的神经网路

华尔街日报报导,AI 难以被定义,之所以会有这样的现象,和神经网路的使用有关。

当研究人员开始透过「学习」训练机器,将经验转化为模拟神经网路的系统,产生出的结果不是代码,而是由不可读、数百万甚至数十亿的人造神经元,给出 AI 工程师赋予任务的答案。

多数研究人员都同意,认识 AI 是一项迫切的挑战。如果我们不知道人造思维如何运作,又该如何确定它抱持偏见或预测错误的结果?

我们不会知道 AI 是否有「种族歧视」,或是无法预期的思维让自驾车可能发生事故,或许有机会能辨别 AI 对事物是否抱持着偏见,那可能会是 AI 做出无数个决定之后的事了。

去理解 AI 什幺时候可能会失败或出现意外行为,是非常重要的,毕竟我们都不希望关键时刻出现任何意外,或是听到「很抱歉,但我恐怕不能这幺做」。

AI 不带偏见?

Pinterest 的软体工程师 Tracy Chou,在公司内专门负责机器学习项目,他认为 AI 发展中很大的问题在于,多数人都把 AI 或机器学习想得过于「中立」。

「多数人都不了解的是,是人类设计了这些 AI 模型,也是人类选择要用什幺数据来训练机器。」

华尔街日报试着用一个最简单的例子来解释:Google 翻译。当你在 Google 翻译上输入「医生」,要求翻译成葡萄牙语时,总是会得到阳性名词 médico,而非阴性名词的 médica;输入「护士」时,则会得到阴性的 enfermeira,而非阳性的 enfermeiro。

听起来有些阴谋论,但这其实只是用来训练翻译系统的文学体系,旧有的偏见所导致的自然结果。类似的事情其实经常发生,在研究人员并未注意到的情况下,AI 很有可能在无意中成为偏见的代理人。

和人类不同的是,我们不能直接询问机器「为什幺这幺做?」儘管 AI 在限定的环境条件下能表现十分出色,但谈到内省(introspection)的能力,AI 的程度可能与蟑螂差不多。

如何解读 AI 的思考DeepMind 想透过认知心理学,来弄清楚人工智慧的思考模式

研究人员还未完全弄懂 AI 的思考模式。

应该如何解读人工智慧?这是一个困难的问题,就连美国国防高级研究计画署(DARPA)都在提供资金给相关研究人员,希望能够解决这个问题。

在机器学习中,工程师先是编写了类似原始大脑的神经网路,再透过给予大量数据来进行训练,机器则从中学习辨别与理解,就像大脑运作的方式一样,也因为如此,AI「思考」的方式人无法理解。

这个困境工程师称之为「可解释性」问题,而神经网路则称为「黑盒子」──你可以刺激并观察,但无法理解内在。

身为现今最知名 AI「AlphaGo」的开发者,Alphabet 的子公司 DeepMind 研究团队也希望解决这个问题,因此决定用一个全新方式来了解 AI:就像对待人类的孩子。

这并不是一个比喻,DeepMind 的研究科学家 David Barrett 表示,团队正在使用和心理学家用在孩子身上的认知心理学技术及测试,来试图了解 AI 的想法。

Barrett 认为,认知科学对人脑的研究已有数十年,如果应用到机器的过程顺利,将能理解 AI 的思考模式,并为它的决定负责。

在研究中,DeepMind 至少已理解了 AI 的一种学习模式:一次性学习思考。这个设计原先是用来让 AI 看过一次项目后,就学习单字的意思,DeepMind 意外发现,AI 解决这项问题的方式和人类相同,是透过形状来辨别物体。

研究人员发现,即使没有着指导,也存在着许多方法来识别随机对象,像是颜色、质感及行为模式,AI 却是选择像人类一样用形状来识别物体,这样的行为模式是以前未曾察觉的。

机器人心理学

类似这样对 AI 思考的理解只是开始,就像人类心理学一样,机器人心理学未来也可能发展出一种「治疗」行为──也就是去改变 AI 的心态。

工程师在创造 AI 时,经常会选择创造多种版本,以便于从中找出最好的来使用,Barrett 认为,透过认知心理学的应用,工程师可能会更容易创造出「想法」符合人类需求的 AI。

又或者,我们也可能从中发现,AI 的思考模式与人类有所不同,人们或许能从中学习到一些新的东西,像是该如何解决一些问题。

在用人工智慧取代人类决策者时,我们总是希望机器做得更好,犯更少错误并承担责任。当 AI 的产出能被衡量,人们或许就能够追蹤它们做决定背后的过程。

在现今法庭中,我们总是由人来解决商业问题上的争执,如果改由机器取代人力,我们或许就能够观察到「决策者」在过程中的心态转变,与所有可能出现的偏见。

申博138体育真人荷官|全面的消费资讯|提供生活便利|最新时尚信息|网站地图 银河金沙1331易记 申博官网手机版