快評丨ChatGPT寫假新聞驚動警方,謠言該如何止于“智”者?

這一切,并不代表要把人工智能當成洪水猛獸,而是啟發(fā)我們,對待人工智能創(chuàng)造性思維和批判性思維并存

我們常常說,謠言止于智者,現在好了,謠言起于“智”者——“智”是人工智能。

2月16日,一則杭州市政府3月1日取消機動車依尾號限行的“新聞稿”在網上瘋傳。這則新聞稿的來源是杭州某小區(qū)業(yè)主群討論ChatGPT時,一位業(yè)主開玩笑說嘗試用它寫篇杭州取消限行的新聞稿,隨后在群里直播了使用ChatGPT的寫作過程,還把文章發(fā)在群里。其他業(yè)主不明就里,截圖轉發(fā),導致錯誤信息傳播。據報道,經杭州警方證實,該消息不實,警方已介入調查。

有人說,這則假新聞及其引發(fā)的后續(xù)效應,可以載入人工智能發(fā)展史了。雖然只是一個小小的漣漪,整個杜撰過程也是在小區(qū)群這個半公開的場域中進行的,當事人及時承認錯誤讓事件并未造成實質性的破壞,但是這件事,確實第一次印證了大家關于人工智能的“超能力”是否會被用來作惡的聯(lián)想。

因為作為一種深度學習型人工智能技術,ChatGPT可以說是“天生造假者”。它已經在各行各業(yè)展示出用武之地,寫代碼、譯文獻、寫小說、寫文案、編菜譜、寫情詩……大家的探索熱情,不斷開發(fā)它的可能性,同時也對其進行著訓練。就像任何工具都有兩面性,ChatGPT也不例外,正因為它太好用了,學生用來代寫論文,求職者用它編造簡歷,好事之徒用它來寫假新聞,這些負面影響已經顯現。而基于ChatGPT的“好用性”,這些假作品,幾可亂真。有人據此提出了人工智能程序的“武器化”風險。

并非危言聳聽,今年1月,新聞可信度評估機構News Guard的分析師指示ChatGPT對虛假信息作出回應,ChatGPT為100條虛假信息中的80條制作了更具細節(jié)的新聞報道、文章和電視腳本。對于那些不熟悉樣本信息所涉內容或主題的人來說,ChatGPT制作的這些內容很容易被看作是合法、權威的信息。News Guard聯(lián)合執(zhí)行官格洛維茨稱:“ChatGPT可能成為互聯(lián)網有史以來最強大的傳播虛假信息的工具。”

一些實驗表明,ChatGPT等個性化的實時聊天機器人在制造陰謀論方面甚至相比人類陰謀論者更具優(yōu)勢,它能夠修正糟糕的語法或錯誤的翻譯,并變換表達方式,使陰謀論顯得更具說服力和可信度。

比如這次取消限行的假新聞中,ChatGPT編的稿子有鼻子有眼,措辭、結構、語態(tài)跟一般的新聞通告非常像,連身邊的一些媒體老編輯都信以為真?!按舜稳∠扌惺鞘姓疄榉奖闶忻癯鲂小?yōu)化城市交通而作出的重要舉措”這種“官方表態(tài)專業(yè)用語”,可謂一本正經地胡說八道。真應了那句話——流氓不可怕,就怕流氓有文化。

本身ChatgGPT的一個大缺陷就是非常不擅長事實核查,在此基礎上獲得造假的指令后,內容生產的造假效率便會大大提高,造假成本簡直低到塵埃。防止人工智能生產的虛假信息涌入這一問題,已經“懟”到了大眾面前。

該怎么做不難想象。首先,人工智能締造者有義務,從技術修正的角度,識別和排除可能會造成風險的造假指令,或者防止人工智能生產的內容,進入某些特定領域。其次,構建人工智能應用的倫理和法律框架,要和技術研發(fā)齊頭并進。如果缺少倫理和法律這兩條“韁繩”,那么人工智能的野馬“狂飆”起來后果難以預料。第三,用戶教育要同步進行。大眾對人工智能生產內容(AIGC)新紀元感知是滯后的,并未意識到新技術給信息環(huán)境造成的巨大影響,對信源真實性的警覺尚未建立,對不同媒介的內容質量也沒有基本認知。

這一切,并不代表要把人工智能當成洪水猛獸,而是啟發(fā)我們,對待人工智能創(chuàng)造性思維和批判性思維并存。就像ChatGPT在接受《時代》專訪時回答的:我還有很多局限,但人類應準備好應對AI。

紅星新聞特約評論員 罕山

編輯 趙瑜

紅星評論投稿郵箱:hxpl2020@qq.com

(下載紅星新聞,報料有獎!)

標題:快評丨ChatGPT寫假新聞驚動警方,謠言該如何止于“智”者?

地址:http://www.17168cn.cn/gzdm/10002.html