【中國(guó)安防展覽網(wǎng) 媒體導(dǎo)讀】人工智能(AI)在 AlphaGo 打敗人類之后成了顯學(xué)。本文希望能從 AI 的定義開始,談及 AI 能成就的事情與不能成就的事情,并提出 AI 目前碰到的困境,與接下來(lái)希望解決的難題。
人工智能從 1950 年代提出迄今已超過 60 年了,這 60 年來(lái)人工智能經(jīng)過數(shù)次大起大落。從一開始很高的期待,到后來(lái)令人失望的發(fā)展、經(jīng)歷兩次“AI 冬天”讓研究者與投資人望而卻步,又至于今天第三波 AI 的崛起。算是歷*僅見能大起大落數(shù)次的學(xué)科。
人工智能可有三層次定義:層次是“弱人工智能”或“狹隘人工智能”,基本上就是希望電腦能解決某個(gè)需要高度智力才能解決的問題,而不要求它跟人類一樣有全面智慧解決各式各樣不同的問題。例如 Google AlphaGo、IBM Watson 或自動(dòng)駕駛,就是弱人工智能的例子。它們可在單一領(lǐng)域(如圍棋、益智問答)達(dá)到媲美人類的成就,但卻不能解決其他對(duì)人類而言相對(duì)容易的問題(如 AlphaGo 不會(huì)開車,Watson 不會(huì)下棋)。目前弱人工智能主流的方法算是以機(jī)器學(xué)習(xí)為本,尤其以“深度學(xué)習(xí)”技術(shù)熱門。機(jī)器學(xué)習(xí)的架構(gòu)是在統(tǒng)計(jì)與計(jì)算的方法下運(yùn)用巨量資料來(lái)做預(yù)測(cè)與決定,較擅長(zhǎng)解選擇與是非題,而非申論與論述的問題。
第二個(gè)層次是“強(qiáng)人工智能”或“泛人工智能”:強(qiáng)人工智能要求電腦的智慧需要更全面廣泛,需要有推理、學(xué)習(xí)、規(guī)劃、語(yǔ)言溝通、知覺等能力,擁有這些能力的電腦才有可能展現(xiàn)出全面性的智慧、跟人類并駕齊驅(qū)。在這個(gè)方向過去學(xué)者提出一些并非基于機(jī)器學(xué)習(xí)的方法,通稱為“知識(shí)為本”(knowledge driven)法。這個(gè)方法強(qiáng)調(diào)如果能將所有知識(shí)輸入電腦,電腦就能從這些知識(shí)去推論(如知識(shí)本體論與一次邏輯推論等技術(shù))。但這類方法并沒有達(dá)到全面性的成功,主要是世界的知識(shí)太多,也沒有很有效率表述的方式讓電腦推論。近年來(lái)深度學(xué)習(xí)為本的技術(shù)(如記憶增強(qiáng)神經(jīng)網(wǎng)絡(luò))在賦予電腦推論能力的方向雖有進(jìn)展,但泛人工智能能力還離人類智慧有一段距離。
第三個(gè)層次是 John Searle 提出的“強(qiáng)人工智能假說(shuō)”(strong AI hypothesis)。在這個(gè)層次,電腦需要擁有跟人類一樣的“心靈”,需要認(rèn)知自我并可以跟人類一樣思考。我們?cè)陔娪靶≌f(shuō)中看到的一些有自我意識(shí)的 AI 大致都屬于這個(gè)層次。然而,這個(gè)層次普遍認(rèn)為在透徹人腦的智慧及自我意識(shí)產(chǎn)生的機(jī)制前,不大可能達(dá)成的任務(wù)。
不同的人談到的 AI 可能是指不同層次的定義。例如阿里巴巴的馬云曾說(shuō):“我們討厭談?wù)?AI,沒有數(shù)據(jù)的公司才會(huì)討論 AI”,這句話的 AI 應(yīng)該是指希望利用“知識(shí)為本”的方法來(lái)解決強(qiáng)人工智能問題的 AI;其對(duì)應(yīng)就是以“數(shù)據(jù)為本”的機(jī)器學(xué)習(xí)方法產(chǎn)生的“弱人工智能”。
目前的 AI 技術(shù)在弱人工智能有很好的進(jìn)展,研究方針漸漸移往強(qiáng)人工智能,但對(duì)賦予 AI 自我意識(shí)的第三層次仍距離遙遠(yuǎn)。
談到第三波人工智能應(yīng)該要研發(fā)的技術(shù),我們要先理解前兩波的人工智能方法。波人工智能大約是在 1990 年代前電腦的計(jì)算與儲(chǔ)存能力還有限的時(shí)候,人工智能多是以“專家系統(tǒng)”的方式實(shí)現(xiàn)。也就是人類將一些專家才懂的知識(shí)(如醫(yī)學(xué)、法律)變成一條條“規(guī)則”(如吃多喝多尿多可能是糖尿病)并輸入電腦,電腦就可以借由這些規(guī)則判斷。1980 年代利用這些規(guī)則產(chǎn)生的“人工智能專家系統(tǒng)”的確造成一股風(fēng)潮,例如有一個(gè)專門幫客戶從事電腦組裝的公司 XCON 就利用這樣的技術(shù)省下數(shù)千萬(wàn)美元成本。然而,專家系統(tǒng)在 1980 年代末期逐漸淡出,主要是因?yàn)槠腹蛯<页杀靖?,且系統(tǒng)無(wú)法普遍化(例如醫(yī)師系統(tǒng)法律事務(wù))。
第二波人工智能是在 1990 年代中期開始受到重視。主要是因?yàn)殡娔X的記憶空間跟速度突飛猛進(jìn),再加上網(wǎng)際網(wǎng)絡(luò)蓬勃發(fā)展,資料的取得與搜集越來(lái)越容易。第二波人工智能主要是以機(jī)器學(xué)習(xí)運(yùn)用在巨量資料探勘為本,以大量的資料配合統(tǒng)計(jì)及計(jì)算科學(xué)的方法讓電腦能從事決策。機(jī)器學(xué)習(xí)是一個(gè)很廣的領(lǐng)域,大致上可分成指導(dǎo)式、非指導(dǎo)式、強(qiáng)化式學(xué)習(xí)三大類。指導(dǎo)式的學(xué)習(xí)乃機(jī)器學(xué)習(xí)中常見的方法,主要是希望從大量(輸入、輸出)資料配對(duì)中學(xué)到輸出與輸入的關(guān)系,這樣對(duì)將來(lái)未曾看過的輸入資料,仍能猜出對(duì)應(yīng)的輸出。例如輸入資料可能是某個(gè)人的體檢資料(如 X 光照片),輸出就是這個(gè)人是否罹患某種疾病。指導(dǎo)式學(xué)習(xí)擅長(zhǎng)分類以及預(yù)測(cè)數(shù)值,只要讓電腦看過夠多例子,就會(huì)自動(dòng)預(yù)測(cè)。非指導(dǎo)式學(xué)習(xí)的使用情境就比較不同,并沒有明確的輸出,而是希望從輸入的資料里學(xué)習(xí)一些因子的相關(guān)性,以及資料的分布狀況。至于強(qiáng)化式學(xué)習(xí),是在學(xué)習(xí) AI 跟環(huán)境如何互動(dòng),這個(gè)方法可從資料去學(xué)習(xí)某個(gè)行為會(huì)對(duì)周遭產(chǎn)生什么影響,獲得什么樣的報(bào)酬。例如圍棋 AI AlphaGo 就是利用強(qiáng)化式學(xué)習(xí),在自我對(duì)戰(zhàn)的過程中增強(qiáng)自己的能力。
機(jī)器學(xué)習(xí)相關(guān)技術(shù)在近兩年達(dá)成未有的成就,主要的原因是“神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)”技術(shù)的成熟。神經(jīng)網(wǎng)絡(luò)是已研究數(shù)十年的技術(shù),而深度學(xué)習(xí),一言以蔽之,就是將神經(jīng)網(wǎng)絡(luò)疊合成多層,以產(chǎn)生一個(gè)復(fù)雜的非線性模型來(lái)學(xué)習(xí)。深度學(xué)習(xí)之所以成功,就是因?yàn)榭蓪?duì)資料(尤其是語(yǔ)音或圖像這種由基本要素如音波或像素組成的資料)從事多層次表達(dá),這些表達(dá)更適合讓機(jī)器分類或預(yù)測(cè)。所以深度學(xué)習(xí)可看成一種“資料表達(dá)”或是“訊息前處理”方式,這種資料表達(dá)的方式用在指導(dǎo)式、非指導(dǎo)式、強(qiáng)化式學(xué)習(xí)都有很大的成功。然而,深度學(xué)習(xí)是不是 AI 的終萬(wàn)靈丹,大部分學(xué)者表示并不樂觀。如果把強(qiáng)人工智能看成登陸月球這樣困難的問題,深度學(xué)習(xí)的技術(shù)就像我們目前找到一棵可以長(zhǎng)很高的樹,但不表示我們只要繼續(xù)種出高的樹,就可以到達(dá)月球。
第二波人工智能在 AlphaGo 打敗人類棋王達(dá)到高峰,AI 也成為矚目的焦點(diǎn)。然而,AI 并不是完全沒有缺點(diǎn),在 AlphaGo 之后,下一波人工智能技術(shù)相關(guān)的討論應(yīng)運(yùn)而生。這第三波人工智能應(yīng)該要解決的問題其實(shí)專家學(xué)者各有分歧,以下是我個(gè)人的觀點(diǎn):
一、首先我們還是希望能解決 AI 還不夠聰明的問題。目前第二波人工智能的成就都在于“弱人工智能”方面,也就是電腦可以成為單一領(lǐng)域的專家,卻沒有更全面的智慧。因?yàn)闄C(jī)器學(xué)習(xí)的方法主要是基于統(tǒng)計(jì)以及經(jīng)驗(yàn),需要大量的資料來(lái)訓(xùn)練,對(duì)于更廣泛且深層的理解就顯得能力不足。例如遞移律(A>B>C 則 A>C)這樣對(duì)小學(xué)生而言很容易理解的觀念,機(jī)器學(xué)習(xí)反而不容易學(xué)。過去兩年許多深度學(xué)習(xí)的進(jìn)階版就是希望解決這樣的問題,從弱人工智能往強(qiáng)人工智能的方向發(fā)展。
此外,機(jī)器學(xué)習(xí)是資料為本的方法,所以能從資料中學(xué)習(xí)。但是相對(duì)創(chuàng)造發(fā)明的能力就比較弱,因?yàn)橘Y料里不會(huì)有太多創(chuàng)造發(fā)明的例子。所以,如何把機(jī)器從“學(xué)習(xí)”提升到“發(fā)明”的境界,也是大家關(guān)心的。
二、人工智能如何與“人”合作。人工智能目前看到的成就(如 AlphaGo、Watson)都屬于 AI 獨(dú)自的成就。然而,一個(gè)有智慧的系統(tǒng),如果能跟人一起合作,應(yīng)能產(chǎn)生更大的效用,也可稍微緩和“人工智能搶走人類工作”的疑慮。然而,與人類合作不是件簡(jiǎn)單的任務(wù)。因?yàn)榫退闳伺c人成功合作也并非天生水到渠成,除了需要技能互補(bǔ),也要在情感、合作倫理、互信與溝通上都找到平衡點(diǎn)。所以,要能與人類合作的 AI,不僅要展現(xiàn)出跟人類互補(bǔ)的智慧,更要在合作中展現(xiàn)同理心、信任感與溝通技巧,這些都是目前 AI 還需要加強(qiáng)的部分。
三、提升人工智能的“安全性”與“可信度”。當(dāng)越來(lái)越多服務(wù)依賴人工智能幫忙做決定,這個(gè)人工智能決定的可信度與安全性就很重要。如果人工智能被惡意人士誤導(dǎo)或利用,對(duì)人類可能產(chǎn)生無(wú)可逆轉(zhuǎn)的災(zāi)害。例如,近年來(lái)有許多研究發(fā)現(xiàn),機(jī)器學(xué)習(xí)的判斷有可能被誤導(dǎo)。只要在輸入的地方加上一些擾動(dòng),就會(huì)讓電腦學(xué)到錯(cuò)誤的模型,輸出完全相反的答案,造成安全上的漏洞。例如人工智能目前已用在小額信貸或高速交易的判斷。這樣的漏洞可能會(huì)讓 AI 對(duì)是否貸款或交易判斷錯(cuò)誤,導(dǎo)致公司損失。
四、人工智能的“道德”觀。許多名人如物理學(xué)家霍金都公開表達(dá)對(duì)人工智能的疑慮,擔(dān)心它會(huì)毀滅人類,就如許多電影小說(shuō)的情節(jié)。的確,人工智能有可能對(duì)人類造成危害,但并非因 AI 產(chǎn)生“自我意識(shí)”希望脫離人類的控制;而是 AI 在執(zhí)行人類命令的時(shí)候因誤判或“不夠智慧”傷害到人類。例如:人類可能會(huì)要求機(jī)器人去冰箱拿東西,一個(gè)使命必達(dá)的 AI,可能會(huì)把途中遇到本地上爬的嬰兒踢到旁邊。因?yàn)檫@樣的 AI 并沒有受“倫理道德”訓(xùn)練,只唯命是從。所以第三波 AI,在我看來(lái),應(yīng)該要把道德與倫理觀念納入“智慧”里,想辦法在現(xiàn)有架構(gòu)上實(shí)現(xiàn)。這個(gè)目標(biāo)的挑戰(zhàn)性很高,因?yàn)槌35赖聜惱砀械哪康臅?huì)有沖突,即使對(duì)人類都不是容易的問題。
五、透明的人工智能方法。人工智能直到目前還沒有完全普及,有一個(gè)很大的原因是人類對(duì)其背后的機(jī)制與判斷方式不了解。心理學(xué)家的研究曾顯示,人類對(duì)不了解的事物接受度相對(duì)較低。 所以如何創(chuàng)造出更透明、更容易接受的 AI,也是學(xué)者重視的課題。
“讓電腦擁有人類的智慧”就像潘朵拉的盒子,讓人又期待又怕受傷害。人工智能雖然近年來(lái)有極大的進(jìn)步,然而,我們距離一個(gè)安全、透明、有倫理觀念、能與人類協(xié)作的“強(qiáng)人工智能”仍有一段很長(zhǎng)的距離要走。第三波的人工智能,一言以蔽之,將讓 AI 更像人類。接下來(lái),從研發(fā)的角度讓 AI 更進(jìn)化;從產(chǎn)業(yè)的角度能預(yù)知 AI 的弱點(diǎn),并以研發(fā)為基礎(chǔ)來(lái)布局未來(lái)“人工智能普及化”的產(chǎn)業(yè)需求,是未來(lái)在第三波人工智能革命里取得地位的關(guān)鍵。