2023成都積分入學(xué)什么時(shí)候開始申請
2023-01-31
更新時(shí)間:2022-08-15 16:11:11作者:佚名
參會(huì)者在第六屆世界智能大會(huì)上參觀(2022年6月24日攝) 趙子碩攝/本刊
大模型、大數(shù)據(jù)的驅(qū)動(dòng)讓人工智能在對話的自然度、趣味性上有了很大突破,但距離具備自主意識還很遠(yuǎn)。換言之,即便人工智能可以對人類的語言、表情所傳遞的情緒作出判斷,但這主要應(yīng)用的是自然語言處理、計(jì)算機(jī)視覺等技術(shù)
不同于當(dāng)前依賴數(shù)據(jù)學(xué)習(xí)的技術(shù)路線,新一代人工智能強(qiáng)調(diào)在沒有經(jīng)過數(shù)據(jù)學(xué)習(xí)的情況下,可以通過推理作出合理反應(yīng),從而與沒有見過、沒有學(xué)過的事物展開交互
當(dāng)前人工智能治理面臨的最大挑戰(zhàn),是我們沒有一套比較成熟的體系來規(guī)制其潛在的風(fēng)險(xiǎn)。在發(fā)展科技的同時(shí),必須同步發(fā)展我們的規(guī)制體系
“技術(shù)歸根結(jié)底是由人類來發(fā)展和把控的。人類和人工智能的未來,是由人類選擇的?!?/p>
文 |《瞭望》新聞周刊記者 于雪 魏雨虹
今年6月,美國谷歌公司軟件工程師布萊克·勒莫因稱語言模型LaMDA出現(xiàn)自我意識。他認(rèn)為,LaMDA擁有七八歲孩童的智力,并相信LaMDA正在爭取自己作為一個(gè)人的權(quán)利。
LaMDA是谷歌去年發(fā)布的一款專門用于對話的語言模型,主要功能是可以與人類交談。
為佐證觀點(diǎn),勒莫因把自己和LaMDA的聊天記錄上傳至互聯(lián)網(wǎng)。隨后,谷歌以違反保密協(xié)議為由對其停職。谷歌表示,沒有任何證據(jù)支持勒莫因的觀點(diǎn)。
事實(shí)上,“AI(人工智能)是否擁有自主意識”一直爭議不休。此次谷歌工程師和LaMDA的故事,再次引發(fā)討論。人們想知道:人工智能技術(shù)究竟發(fā)展到了怎樣的階段?是否真的具備自主意識?其判定依據(jù)是什么?未來我們又該以怎樣的能力和心態(tài)與人工智能和諧共處?
人工智能自主意識之辨
勒莫因認(rèn)為LaMDA具有意識的原因有三:一是LaMDA以前所未有的方式高效、創(chuàng)造性地使用語言;二是它以與人類相似的方式分享感覺;三是它會(huì)表達(dá)內(nèi)省和想象,既會(huì)擔(dān)憂未來,也會(huì)追憶過去。
受訪專家告訴《瞭望》新聞周刊記者,上述現(xiàn)象僅僅是因?yàn)長aMDA所基于的Transformer架構(gòu)能夠聯(lián)系上下文,進(jìn)行高精度的人類對話模擬,故能應(yīng)對人類開放、發(fā)散的交談。
至于人工智能是否已經(jīng)具備自主意識,判定標(biāo)準(zhǔn)如何,受訪專家表示,對人類意識的探索目前仍屬于科技前沿,尚未形成統(tǒng)一定義。
清華大學(xué)北京信息科學(xué)與技術(shù)國家研究中心助理研究員郭雨晨說:“我們說人有自主意識,是因?yàn)槿酥雷约涸诟墒裁础C(jī)器則不一樣,你對它輸入內(nèi)容,它只是依照程序設(shè)定進(jìn)行反饋?!?/p>
中國社會(huì)科學(xué)院科學(xué)技術(shù)哲學(xué)研究室主任段偉文認(rèn)為,一般意義上,人的自我意識是指對自我具備覺知,但如何認(rèn)識和理解人類意識更多還是一個(gè)哲學(xué)問題而不是科學(xué)問題,這也是很難明確定義人工智能是否具備意識的原因。
被譽(yù)為“計(jì)算機(jī)科學(xué)與人工智能之父”的艾倫·圖靈,早在1950年就曾提出圖靈測試——如果一臺機(jī)器能夠與人類展開對話而不能被辨別出其機(jī)器身份,那么可以稱這臺機(jī)器具有智能。
這一設(shè)想隨后被具化為,如果有超過30%參與測試的人以為自己在和人說話而非計(jì)算機(jī),就可以認(rèn)為“機(jī)器會(huì)思考”。
當(dāng)前隨著技術(shù)的發(fā)展,已經(jīng)有越來越多的機(jī)器能夠通過圖靈測試。
但清華大學(xué)人工智能國際治理研究院副院長梁正告訴《瞭望》新聞周刊記者,圖靈測試只能證明機(jī)器在表象上可以做到讓人無法分辨它與人類的不同,卻不能證明機(jī)器能夠思考,更不能證明機(jī)器具備自主意識。
段偉文表示,目前大體有兩種方式判定人工智能是否具有自主意識,一種以人類意識為參照,另一種則試圖對機(jī)器意識進(jìn)行全新定義。
若以人類意識為參照,要觀察機(jī)器能否像人一樣整合信息。“比如你在陽光下,坐在河邊的椅子上看書,有樹影落在臉上,有風(fēng)吹來,它們會(huì)帶給你一種整體的愉悅感。而對機(jī)器來說,陽光、河流、椅子等,是分散的單一元素?!倍蝹ノ恼f。
不僅如此,段偉文說,還要觀察機(jī)器能否像人一樣將單一事件放在全局中思考,作出符合全局利益的決策。
若跳出人類構(gòu)建自主意識的范式,對機(jī)器意識進(jìn)行重新定義,則需要明白意識的本質(zhì)是什么。
段偉文告訴記者,有理論認(rèn)為如果機(jī)器與機(jī)器之間形成了靈活、獨(dú)立的交互,則可以稱機(jī)器具備意識。也有理論認(rèn)為,可以不追究機(jī)器的內(nèi)心,僅僅把機(jī)器當(dāng)作行為體,從機(jī)器的行為表現(xiàn)判斷它是否理解所做事情的意義?!氨热鐧C(jī)器人看到人類喝咖啡后很精神,下次當(dāng)它觀察到人類的疲憊,能不能想到要為人類煮一杯咖啡?”段偉文說。
但在段偉文看來,這些對機(jī)器意識進(jìn)行重新定義的理論,其問題出在,即便能夠證明機(jī)器可以交互對話、深度理解,但是否等同于具備自主意識尚未有定論?!耙訪aMDA為例,雖然能夠生成在人類看來更具意義的對話,甚至人可以與機(jī)器在對話中產(chǎn)生共情,但其本質(zhì)仍然是在數(shù)據(jù)采集、配對、篩選機(jī)制下形成的反饋,并不代表模型能夠理解對話的意義?!?/p>
換言之,即便人工智能可以對人類的語言、表情所傳遞的情緒作出判斷,但這主要應(yīng)用的是自然語言處理、計(jì)算機(jī)視覺等技術(shù)。
郭雨晨直言,盡管在情感計(jì)算方面,通過深度學(xué)習(xí)的推動(dòng)已經(jīng)發(fā)展得比較好,但如果就此說人工智能具備意識還有些一廂情愿。“把‘意識’這個(gè)詞換成‘功能’,我會(huì)覺得更加準(zhǔn)確?!?/p>
技術(shù)換道
有專家提出,若要機(jī)器能思考,先要解決人工智能發(fā)展的換道問題。
據(jù)了解,目前基于深度學(xué)習(xí)、由數(shù)據(jù)驅(qū)動(dòng)的人工智能在技術(shù)上已經(jīng)觸及天花板。一個(gè)突出例證是,阿爾法圍棋(AlphaGo)在擊敗人類圍棋世界冠軍后,雖然財(cái)力和算力不斷投入,但深度學(xué)習(xí)的回報(bào)率卻沒有相應(yīng)增長。
一般認(rèn)為,人工智能可被分為弱人工智能、通用人工智能和超級人工智能。弱人工智能也被稱為狹義人工智能,專攻某一領(lǐng)域;通用人工智能也叫強(qiáng)人工智能,主要目標(biāo)是制造出一臺像人類一樣擁有全面智能的計(jì)算機(jī);超級人工智能類似于科幻作品中擁有超能力的智能機(jī)器人。
從產(chǎn)業(yè)發(fā)展角度看,人工智能在弱人工智能階段停留了相當(dāng)長時(shí)間,正在向通用人工智能階段邁進(jìn)。受訪專家表示,目前尚未有成功創(chuàng)建通用人工智能的成熟案例,而具備自主意識,至少需要發(fā)展到通用人工智能階段。
梁正說,大模型、大數(shù)據(jù)的驅(qū)動(dòng)讓人工智能在對話的自然度、趣味性上有了很大突破,但距離具備自主意識還很遠(yuǎn)?!叭绻憬o這類語言模型喂養(yǎng)大量關(guān)于內(nèi)省、想象等與意識有關(guān)的數(shù)據(jù),它便更容易反饋與意識有關(guān)的回應(yīng)?!?/p>
不僅如此,現(xiàn)階段的人工智能在一個(gè)復(fù)雜、專門的領(lǐng)域可以做到極致,卻很難完成一件在人類看來非常簡單的事情?!氨热缛斯ぶ悄芸梢猿蔀閲甯呤?,卻不具備三歲小孩對陌生環(huán)境的感知能力?!倍蝹ノ恼f。
談及背后原因,受訪專家表示,第一是當(dāng)前人工智能主要與符號世界進(jìn)行交互,在對物理世界的感知與反應(yīng)上發(fā)展緩慢。第二是數(shù)據(jù)學(xué)習(xí)讓機(jī)器只能對見過的內(nèi)容有合理反饋,無法處理陌生內(nèi)容。第三是在數(shù)據(jù)驅(qū)動(dòng)技術(shù)路線下,人們通過不斷調(diào)整、優(yōu)化參數(shù)來強(qiáng)化機(jī)器反饋的精準(zhǔn)度,但這種調(diào)適終究有限。
郭雨晨說,人類在特定任務(wù)的學(xué)習(xí)過程中接觸的數(shù)據(jù)量并不大,卻可以很快學(xué)習(xí)新技能、完成新任務(wù),這是目前基于數(shù)據(jù)驅(qū)動(dòng)的人工智能所不具備的能力。
梁正強(qiáng)調(diào),不同于當(dāng)前主要依賴大規(guī)模數(shù)據(jù)訓(xùn)練的技術(shù)路線,新一代人工智能強(qiáng)調(diào)在沒有經(jīng)過數(shù)據(jù)訓(xùn)練的情況下,可以通過推理作出合理反應(yīng),從而與沒有見過、沒有學(xué)過的事物展開交互。
相比人類意識的自由開放,以往人工智能更多處在封閉空間。盡管這個(gè)空間可能足夠大,但若超出設(shè)定范疇便無法處理。而人類如果按照規(guī)則不能解決問題,就會(huì)修改規(guī)則,甚至發(fā)明新規(guī)則。
這意味著,如果人工智能能夠超越現(xiàn)有學(xué)習(xí)模式,擁有對自身意識系統(tǒng)進(jìn)行反思的能力,就會(huì)理解自身系統(tǒng)的基本性質(zhì),就有可能改造自身的意識系統(tǒng),創(chuàng)造新規(guī)則,從而成為自己的主人。
“人工智能覺醒”背后
有關(guān)“人工智能覺醒”的討論已不鮮見,但谷歌迅速否認(rèn)的態(tài)度耐人尋味。
梁正表示:“如果不迅速駁斥指認(rèn),會(huì)給谷歌帶來合規(guī)性方面的麻煩?!?/p>
據(jù)了解,關(guān)于人工智能是否有自主意識的爭論并非單純技術(shù)領(lǐng)域的學(xué)術(shù)探討,而關(guān)乎企業(yè)合規(guī)性的基本堅(jiān)守。一旦認(rèn)定公司研發(fā)的人工智能系統(tǒng)出現(xiàn)自主意識,很可能會(huì)被認(rèn)為違反第2版《人工智能設(shè)計(jì)的倫理準(zhǔn)則》白皮書的相關(guān)規(guī)范。
這一由美國電氣和電子工程師協(xié)會(huì)2017年發(fā)布的規(guī)范明確:“根據(jù)某些理論,當(dāng)系統(tǒng)接近并超過通用人工智能時(shí),無法預(yù)料的或無意的系統(tǒng)行為將變得越來越危險(xiǎn)且難以糾正。并不是所有通用人工智能級別的系統(tǒng)都能夠與人類利益保持一致,因此,當(dāng)這些系統(tǒng)的能力越來越強(qiáng)大時(shí),應(yīng)當(dāng)謹(jǐn)慎并確定不同系統(tǒng)的運(yùn)行機(jī)制。”
梁正認(rèn)為,為避免社會(huì)輿論可能的過度負(fù)面解讀,擔(dān)心大家認(rèn)為它培育出了英國作家瑪麗·雪萊筆下的弗蘭肯斯坦式的科技怪物,以“不作惡”為企業(yè)口號的谷歌自然會(huì)予以否認(rèn)?!安粌H如此,盡管這一原則對企業(yè)沒有強(qiáng)制約束力,但若被認(rèn)為突破了底線,并對個(gè)體和社會(huì)造成實(shí)質(zhì)性傷害,很有可能面臨高額的懲罰性賠償,因此企業(yè)在合規(guī)性方面會(huì)更為謹(jǐn)慎?!?/p>
我國也有類似管理規(guī)范。2019年,國家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出人工智能治理的框架和行動(dòng)指南。其中,“敏捷治理”原則主要針對技術(shù)可能帶來的新社會(huì)風(fēng)險(xiǎn)展開治理,強(qiáng)調(diào)治理的適應(yīng)性與靈活性。
中國信息化百人會(huì)成員、清華大學(xué)教授薛瀾在接受媒體采訪時(shí)表示,當(dāng)前人工智能治理面臨的最大挑戰(zhàn),是我們沒有一套比較成熟的體系來規(guī)制其潛在的風(fēng)險(xiǎn)。特別是在第四次工業(yè)革命背景下,我國的人工智能技術(shù)和其他國家一樣都處于發(fā)展期,沒有現(xiàn)成的規(guī)制體系,這樣就使得我們在發(fā)展科技的同時(shí),必須同步發(fā)展我們的規(guī)制體系。“這可能是人工智能發(fā)展面臨最大的挑戰(zhàn)。”
在梁正看來,目前很難斷言新興人工智能技術(shù)具有絕對風(fēng)險(xiǎn),但必須構(gòu)造合理的熔斷、叫停機(jī)制。在治理中既要具有一定的預(yù)見性,又不能扼殺創(chuàng)新的土壤,要在企業(yè)訴求和公共安全之間找到合適的平衡點(diǎn)。
畢竟,對人類來說,發(fā)展人工智能的目的不是把機(jī)器變成人,更不是把人變成機(jī)器,而是解決人類社會(huì)發(fā)展面臨的問題。
從這個(gè)角度來說,我們需要的或許只是幫助人類而不是代替人類的人工智能。
長沙華夏實(shí)驗(yàn)學(xué)校學(xué)生和機(jī)器狗互動(dòng)(2022年6月22日攝) 薛宇舸攝/本刊
為了人機(jī)友好的未來
確保通用人工智能技術(shù)有益于人類福祉,一直是人工智能倫理構(gòu)建的前沿。
薛瀾認(rèn)為,在科技領(lǐng)域,很多技術(shù)都像硬幣的兩面,在帶來正面效應(yīng)的同時(shí)也會(huì)存在風(fēng)險(xiǎn),人工智能就是其中一個(gè)比較突出的領(lǐng)域。如何在促進(jìn)技術(shù)創(chuàng)新和規(guī)制潛在風(fēng)險(xiǎn)之間尋求平衡,是科技倫理必須關(guān)注的問題。
梁正提出,有時(shí)技術(shù)的發(fā)展會(huì)超越人們預(yù)想的框架,在不自覺的情況下出現(xiàn)與人類利益不一致甚至相悖的情況。著名的“曲別針制造機(jī)”假說,即描述了通用人工智能在目標(biāo)和技術(shù)都無害的情況下,對人類造成威脅的情景。
“曲別針制造機(jī)”假說給定一種技術(shù)模型,假設(shè)某個(gè)人工智能機(jī)器的終極目標(biāo)是制造曲別針,盡管看上去這一目的對人類無害,但最終它卻使用人類無法比擬的能力,把世界上所有資源都做成了曲別針,進(jìn)而對人類社會(huì)產(chǎn)生不可逆的傷害。
因此有觀點(diǎn)認(rèn)為,創(chuàng)造出法力高超又殺不死的孫悟空本身就是一種不顧后果的冒險(xiǎn)行為。
與其對立的觀點(diǎn)則認(rèn)為,目前這一擔(dān)憂為時(shí)尚早。
“我們對到底什么樣的技術(shù)路線能夠發(fā)展出具備自主意識的人工智能尚無共識,現(xiàn)在談?wù)摗拱l(fā)展’,有種空中樓閣的意味?!绷赫f。
商湯科技智能產(chǎn)業(yè)研究院院長田豐告訴《瞭望》新聞周刊,現(xiàn)實(shí)中人工智能技術(shù)倫理風(fēng)險(xiǎn)治理的關(guān)鍵,是產(chǎn)業(yè)能夠在“預(yù)判防范-應(yīng)用場景-用戶反饋-產(chǎn)品改進(jìn)”中形成市場反饋機(jī)制,促成倫理風(fēng)險(xiǎn)識別與敏捷治理。同時(shí),企業(yè)內(nèi)部也需建立完整的科技倫理自律機(jī)制,通過倫理委員會(huì)、倫理風(fēng)控流程平臺將倫理風(fēng)險(xiǎn)把控落實(shí)到產(chǎn)品全生命周期中。
郭雨晨說,人工智能技術(shù)發(fā)展到目前,仍始終處于人類可控狀態(tài),而科技發(fā)展的過程本來就伴隨對衍生問題的預(yù)判、發(fā)現(xiàn)和解決?!霸谙胂笾械娜斯ぶ悄茏灾饕庾R出現(xiàn)以前,人工智能技術(shù)腳踏實(shí)地的發(fā)展,已經(jīng)造福人類社會(huì)很多年了。”
在梁正看來,人與人工智能在未來會(huì)是一種合作關(guān)系,各自具備對方無法達(dá)成的能力。“技術(shù)歸根結(jié)底是由人類來發(fā)展和把控的。人類和人工智能的未來,是由人類選擇的?!薄?/p>