在线看黄色av网站-国外又粗又长又硬的性视频-刘亦菲国产一区二区三区在线观看-国产精品一区二区高清在线-日本放荡的熟妇在线-男男视频网站高清观看-韩国电影伦理韩国电影-日韩一区二区免费高清在线观看-欧美日韩亚洲一区二区在线

觀點(diǎn):不像學(xué)者和記者,你不能檢查ChatGPT什么時(shí)候說了真話


觀點(diǎn):不像學(xué)者和記者,你不能檢查ChatGPT什么時(shí)候說了真話


能夠驗(yàn)證信息是如何產(chǎn)生的非常重要,尤其是對學(xué)者和采訪人員來說 。Credit: Shutterstock
據(jù)美國物理學(xué)家組織網(wǎng)(by Blayne Haggart, The Conversation):美國盈利公司OpenAI的聊天機(jī)器人ChatGPT對自然語言查詢做出了語法正確的回應(yīng),在它引發(fā)的所有反應(yīng)中,很少有人能與教育工作者和學(xué)者的反應(yīng)相提并論 。
學(xué)術(shù)出版商已經(jīng)禁止ChatGPT被列為合著者 , 并發(fā)布了嚴(yán)格的指導(dǎo)方針,概述了可能使用它的條件 。從法國著名的巴黎政治學(xué)院到許多澳大利亞大學(xué),世界各地的主要大學(xué)和學(xué)校都禁止使用它 。
這些禁令不僅僅是擔(dān)心無法抓住作弊者的學(xué)者們的行動 。這不僅僅是為了抓住那些抄襲一個(gè)來源卻沒有注明出處的學(xué)生 。相反 , 這些行為的嚴(yán)重性反映了一個(gè)問題,一個(gè)在OpenAI的ChatGPT聊天機(jī)器人的無盡報(bào)道中沒有得到足夠關(guān)注的問題:我們?yōu)槭裁匆嘈潘敵龅娜魏螙|西?
這是一個(gè)至關(guān)重要的問題,因?yàn)镃hatGPT和類似的程序可以很容易地用于構(gòu)成我們社會基礎(chǔ)的信息源,特別是學(xué)術(shù)界和新聞媒體,不管是否得到承認(rèn) 。
根據(jù)我對知識治理的政治經(jīng)濟(jì)學(xué)的研究,學(xué)術(shù)上禁止ChatGPT的使用是對ChatGPT給我們整個(gè)信息生態(tài)系統(tǒng)帶來的威脅的適當(dāng)反應(yīng) 。采訪人員和學(xué)者應(yīng)該警惕使用ChatGPT 。
根據(jù)其輸出,ChatGPT可能看起來只是另一個(gè)信息源或工具 。然而 , 事實(shí)上,ChatGPT——或者更確切地說 , chat GPT產(chǎn)生其產(chǎn)出的手段——是一把匕首,直接指向他們作為權(quán)威知識來源的可信度 。不應(yīng)該掉以輕心 。
信任和信息
想想為什么我們認(rèn)為一些信息來源或知識類型比其他的更可信 。自歐洲啟蒙運(yùn)動以來,我們傾向于將科學(xué)知識等同于一般知識 。
科學(xué)不僅僅是實(shí)驗(yàn)室研究:它是一種思維方式,優(yōu)先考慮基于經(jīng)驗(yàn)的證據(jù),并追求證據(jù)收集和評估的透明方法 。它往往是判斷所有知識的黃金標(biāo)準(zhǔn) 。
例如,采訪人員具有公信力,因?yàn)樗麄冋{(diào)查信息、引用來源和提供證據(jù) 。盡管有時(shí)報(bào)告可能包含錯(cuò)誤或遺漏,但這并不能改變專業(yè)的權(quán)威性 。
觀點(diǎn)社論作者也是如此 , 尤其是學(xué)者和其他專家,因?yàn)樗麄儭覀儭獜奈覀冏鳛槟骋活I(lǐng)域?qū)<业纳矸葜蝎@取權(quán)威 。專業(yè)知識包括對我們領(lǐng)域中公認(rèn)的合法知識來源的掌握 。
大多數(shù)專欄文章都不會被大量引用,但負(fù)責(zé)任的學(xué)者會給你指出他們所借鑒的思想家和著作 。這些來源本身是建立在可核實(shí)的來源之上的,讀者應(yīng)該能夠自己核實(shí) 。
真實(shí)和輸出
因?yàn)槿祟愖骷液虲hatGPT似乎產(chǎn)生相同的輸出——句子和段落——所以可以理解一些人可能會錯(cuò)誤地將這一科學(xué)來源的權(quán)威賦予ChatGPT的輸出 。
ChatGPT和reporters都生成句子,這是相似之處的終結(jié) 。最重要的——權(quán)威的來源——不是他們生產(chǎn)什么,而是他們?nèi)绾紊a(chǎn) 。
ChatGPT不會像采訪人員那樣造句 。ChatGPT和其他機(jī)器學(xué)習(xí)、大型語言模型可能看起來很復(fù)雜,但它們基本上只是復(fù)雜的自動完成機(jī)器 。只是他們不是在電子郵件中建議下一個(gè)單詞,而是在更長的包中產(chǎn)生統(tǒng)計(jì)上最可能的單詞 。
這些程序重新包裝他人的作品,就好像它是新的東西一樣 。它不“理解”它生產(chǎn)的東西 。
這些輸出的理由永遠(yuǎn)不可能是真理 。它的真理是相關(guān)性的真理,即“句子”這個(gè)詞應(yīng)該總是完成短語“我們完成彼此的……”因?yàn)檫@是最常見的情況,而不是因?yàn)樗磉_(dá)了任何已被觀察到的東西 。
因?yàn)镃hatGPT的真理只是一個(gè)統(tǒng)計(jì)上的真理,所以這個(gè)程序產(chǎn)生的結(jié)果不能像我們信任采訪人員或?qū)W者的結(jié)果一樣被信任 。它無法被證實(shí),因?yàn)樗粯?gòu)造成以一種不同于我們通常認(rèn)為的“科學(xué)”的方式創(chuàng)造輸出 。
你不能檢查ChatGPT的來源,因?yàn)閬碓词墙y(tǒng)計(jì)事實(shí) , 大多數(shù)時(shí)候,一組單詞傾向于彼此跟隨 。
無論ChatGPT的輸出看起來多么連貫,簡單地發(fā)布它所產(chǎn)生的內(nèi)容仍然相當(dāng)于讓autocomplete不受約束 。這是一種不負(fù)責(zé)任的做法,因?yàn)樗傺b這些統(tǒng)計(jì)技巧等同于來源豐富且經(jīng)過驗(yàn)證的知識 。
類似地,將ChatGPT納入其工作流程的學(xué)者和其他人冒著將整個(gè)科學(xué)知識大廈從自己腳下踢開的生存風(fēng)險(xiǎn) 。
因?yàn)镃hatGPT的輸出是基于相關(guān)性的 , 所以作者如何知道它是準(zhǔn)確的呢?他們是否根據(jù)實(shí)際來源進(jìn)行了驗(yàn)證,或者輸出僅僅符合他們的個(gè)人偏見?如果他們是各自領(lǐng)域的專家 , 為什么他們首先要使用ChatGPT呢?
知識生產(chǎn)和驗(yàn)證
關(guān)鍵是ChatGPT的過程讓我們無法驗(yàn)證它的真實(shí)性 。相比之下,采訪人員和學(xué)者有一個(gè)科學(xué)的、基于證據(jù)的方法來產(chǎn)生知識 , 這有助于驗(yàn)證他們的工作,即使結(jié)果可能與我們先入為主的觀念相反 。
鑒于我們在創(chuàng)造知識中的核心作用,這個(gè)問題對學(xué)者來說尤其尖銳 。依靠ChatGPT來撰寫專欄的一部分,意味著他們不再依賴嵌入在經(jīng)過驗(yàn)證的來源中的科學(xué)權(quán)威 。
相反 , 通過訴諸統(tǒng)計(jì)生成的文本,他們有效地從權(quán)威角度進(jìn)行論證 。這種行為也會誤導(dǎo)讀者 , 因?yàn)樽x者無法區(qū)分作者的文本和人工智能的文本 。
ChatGPT可以產(chǎn)生看似清晰的知識,就像變魔術(shù)一樣 。但是我們最好不要把它的輸出誤認(rèn)為是實(shí)際的科學(xué)知識 。人們永遠(yuǎn)不應(yīng)該混淆連貫性和理解 。
ChatGPT承諾輕松獲取新的和現(xiàn)有的知識,但它是一個(gè)有毒的圣杯 。讀者、學(xué)者和采訪人員要小心了 。