中文字幕亚洲欧美日韩在线不卡,亚洲欧美日产综合在线网性色,思思久久精品6一本打道,综合视频中文字幕

    <sub id="dxmnt"><ol id="dxmnt"></ol></sub>

      1. ChatGPT被指不靠譜遭封殺,人類面臨新問題:AIGC的事實核查

        更新時間:2022-12-06 16:05:38作者:智慧百科

        ChatGPT被指不靠譜遭封殺,人類面臨新問題:AIGC的事實核查

        ·Stack Overflow認(rèn)為,ChatGPT很容易與用戶互動,且可以快速生成大量回答,這讓網(wǎng)站充斥著許多第一眼看起來是正確的答案,但在仔細(xì)檢查后就能發(fā)現(xiàn)其中的錯誤。
        ·信息爆炸時代,以人為媒介傳播的虛假信息尚且讓審核機(jī)制“頭疼”,很難想象當(dāng)人工智能開始編造謊言,會帶來多大的挑戰(zhàn)。
        隨著OpenAI公司的人工智能(AI)聊天機(jī)器人ChatGPT爆火,不少網(wǎng)友開始在社交媒體上分享ChatGPT的回復(fù)。但近日程序員版“知乎”,以對新人不友好著稱的編程問答網(wǎng)站Stack Overflow暫時禁止用戶分享ChatGPT生成的回復(fù)。
        Stack Overflow表示,與社區(qū)協(xié)商后,將在未來一段時間內(nèi)做出最終決定。該網(wǎng)站認(rèn)為,ChatGPT很容易與用戶互動,且可以快速生成大量回答,這讓網(wǎng)站充斥著許多第一眼看起來是正確的答案,但在仔細(xì)檢查后就能發(fā)現(xiàn)其中的錯誤。
        這就提出了一個全新的問題:如何對人工智能生成內(nèi)容(AIGC)進(jìn)行事實核查?正如知名人工智能科學(xué)家、紐約大學(xué)教授Gary Marcus在推特上所說:“如果Stack Overflow都不能跟上這些看似可信但不正確的信息,那么社交媒體和搜索引擎呢?”

        編程問答網(wǎng)站Stack Overflow。

        ChatGPT產(chǎn)生的答案有很高的錯誤率
        “主要問題是,雖然ChatGPT產(chǎn)生的答案有很高的錯誤率,但它們往往第一眼看起來可能是對的,而且使用人工智能導(dǎo)致答案非常容易生成。我們需要減少這些內(nèi)容。目前在Stack Overflow上使用ChatGPT創(chuàng)建帖子的行為已經(jīng)被禁止。如果用戶在此臨時規(guī)定發(fā)布后使用了ChatGPT,將會受到制裁?!盨tack Overflow的運營人員表示。
        ChatGPT作為OpenAI創(chuàng)建的實驗性聊天機(jī)器人,基于其大計算模型GPT-3.5運行,自發(fā)布后很快受到網(wǎng)絡(luò)用戶的熱烈歡迎。ChatGPT鼓勵人們提問,而且能提供令人印象深刻和流暢的結(jié)果:從創(chuàng)作詩歌、歌曲、電視劇本,到回答瑣事問題和編寫代碼。
        雖然很多用戶對ChatGPT的功能印象深刻,但也有人注意到它容易產(chǎn)生看似合理但錯誤的回答。例如,讓機(jī)器人寫一個公眾人物的傳記,它很可能插入錯誤的人物生平。讓它為特定功能編寫程序,它也許會生成看起來可信但最終不正確的代碼。
        像其他生成式大型語言模型一樣,ChatGPT通常在虛構(gòu)事實。有些人稱之為“幻覺”或“隨機(jī)的鸚鵡學(xué)舌”,但這些模型的目的本來就是組織一段流利的文本,而不是一個事實。
        一些人注意到,ChatGPT的與眾不同之處在于,它非常善于讓自己的“幻覺”聽起來十分合理。
        例如,技術(shù)分析師Benedict Evans要求ChatGPT“為Benedict Evans寫一篇個人簡介”。他在推特上說,這個結(jié)果“看似合理,但幾乎完全不真實”。
        普林斯頓大學(xué)計算機(jī)科學(xué)教授Arvind Narayanan也在推特上指出:“人們對使用ChatGPT學(xué)習(xí)感到興奮。這很好,但危險的是,除非你已經(jīng)知道答案,否則你無法判斷它什么時候是錯的。我嘗試了一些基本的信息安全問題。在大多數(shù)情況下,答案聽起來似乎有理,但實際上漏洞百出。”
        大型語言模型的潛在風(fēng)險
        ChatGPT頻出的錯誤是人工智能文本生成模型(也稱為大型語言模型)的幾個眾所周知的缺點之一。這些系統(tǒng)通過分析從網(wǎng)上抓取的大量文本來訓(xùn)練機(jī)器人。人工智能在這些數(shù)據(jù)中尋找統(tǒng)計規(guī)律,并利用這些規(guī)律來預(yù)測給定的句子中,接下來應(yīng)該出現(xiàn)什么單詞。然而,這意味著他們?nèi)狈κ澜缟显S多系統(tǒng)運行的硬編碼規(guī)則,導(dǎo)致他們傾向于產(chǎn)生“流利的廢話”。
        考慮到這些系統(tǒng)的巨大規(guī)模,不可能準(zhǔn)確判斷它們的輸出有多少是錯誤的。但至少Stack Overflow已經(jīng)認(rèn)為,ChatGPT目前誤導(dǎo)用戶的風(fēng)險太高了。
        另一些人則把人工智能審核的問題交給ChatGPT本身,要求ChatGPT回答支持和反對它自己的論據(jù)。在一個回復(fù)中,ChatGPT自己也得出了與Stack Overflow完全相同的結(jié)論:“總的來說,是否允許在Stack Overflow上使用人工智能生成答案是一個復(fù)雜的決定,需要社區(qū)仔細(xì)考慮?!?br/>人工智能專家們目前也在討論這些大型語言模型帶來的潛在威脅。Facebook母公司Meta的首席人工智能科學(xué)家楊立昆(Yann LeCun)認(rèn)為,雖然大型語言模型肯定會產(chǎn)生錯誤信息,但只有當(dāng)錯誤信息被廣泛傳播、閱讀和相信了才會產(chǎn)生傷害。也有人說,這些系統(tǒng)大規(guī)模且廉價生成文本的能力,勢必會使得虛假信息大量傳播。
        對審核機(jī)制的挑戰(zhàn)
        迄今為止,幾乎沒有證據(jù)表明大型語言模型有不好的影響。但Stack Overflow和其他一些專家相信,這些系統(tǒng)的龐大體量確實會帶來新的挑戰(zhàn)。該網(wǎng)站的運營人員在宣布禁用ChatGPT時也表達(dá)了同樣的觀點,他們指出:“人工智能生成的答案有數(shù)千個,而這些答案通常需要具有專業(yè)知識的人詳細(xì)閱讀,才能確定答案實際上是錯誤的,這些錯誤信息已經(jīng)淹沒了我們以志愿者為基礎(chǔ)的高質(zhì)量問答社區(qū)?!?br/>令人擔(dān)憂的是,這種模式可能會在其他平臺上重復(fù),大量人工智能內(nèi)容會用看似合理但不正確的回答淹沒真實用戶的聲音。
        然而,ChatGPT究竟如何在網(wǎng)絡(luò)的不同領(lǐng)域發(fā)揮作用,將取決于平臺的性質(zhì)及其審核功能。大量錯誤回答產(chǎn)生的問題能否在未來通過過濾器等工具得到緩解還有待觀察。
        一位曾經(jīng)在《GQ》和《滾石》等出版物工作的事實核查員表示,紙質(zhì)新聞時代,每個事實都必須包含權(quán)威的一手或二手資料來源,但現(xiàn)在已經(jīng)很少有出版物有事實核查員,這就把責(zé)任推給了記者和編輯。信息爆炸時代,以人為媒介傳播的虛假信息尚且讓審核機(jī)制“頭疼”,很難想象當(dāng)人工智能開始編造謊言,會帶來多大的挑戰(zhàn)。
        有不少專家強(qiáng)烈反對ChatGPT有朝一日可能取代傳統(tǒng)搜索引擎的想法。如果Stack Overflow這種專業(yè)網(wǎng)站的審核速度都無法跟上人工智能帶來的錯誤信息,那么很難想象其他網(wǎng)站能夠管理鋪天蓋地的AI“廢話”。
        當(dāng)一個錯誤信息像閃電一樣在社交媒體上傳播時,搜索引擎需要提供可證實的信息,而不是一段看似可信的內(nèi)容。
        華盛頓大學(xué)語言學(xué)教授Emily Bender最近再次強(qiáng)調(diào)大型語言模型“不適合”搜索:“因為它們被設(shè)計成只會胡編亂造,也沒有任何信息素養(yǎng)。”
        OpenAI在其發(fā)布演示的博客中也明確指出了這一弱點,并解釋說修復(fù)它是“具有挑戰(zhàn)性的”。OpenAI表示:“在人工智能的強(qiáng)化學(xué)習(xí)訓(xùn)練中,目前尚沒有真相來源;訓(xùn)練模型更加謹(jǐn)慎,使其能夠拒絕回答問題;監(jiān)督訓(xùn)練會誤導(dǎo)模型,因為理想的答案取決于模型知道什么,而不是人類演示者知道什么?!?br/>所以很明顯,OpenAI非常清楚ChatGPT在看似無所不知的表面下充滿了“廢話”,因為他們從來沒有想過這項技術(shù)會是提供真相的來源。
        不過,最重要的問題是:人類用戶會接受這些似是而非的回答嗎?
        在這個輿論時常反轉(zhuǎn)的時代,可能真的會。因為只要一個消息聽起來合理,許多人就會認(rèn)為這是正確的。

        本文標(biāo)簽: 人工智能  機(jī)器人  chatgpt  stack  編程