ChatGPT需要真正人類調(diào)教治療? 世界微頭條

在過去的一周里,微軟一直在向Edge用戶推出由ChatGPT驅(qū)動(dòng)的必應(yīng)聊天機(jī)器人--內(nèi)部昵稱為 "Sydney",事情開始變得...有趣。我們所說的 "有趣 "是指 "脫離軌道"。

不要誤會(huì)我們的意思--它很聰明,適應(yīng)性強(qiáng),而且令人印象深刻的細(xì)微差別,但我們已經(jīng)知道。它給Reddit用戶Fit-Meet1359留下了深刻印象,它能夠正確回答 "心智理論 "難題,證明它有能力辨別某人的真實(shí)感受,即使他們從未明確表示過。根據(jù)Reddit用戶TheSpiceHoarder的說法,Bing的聊天機(jī)器人還能正確識(shí)別句子中代詞 "它 "的先行詞。"獎(jiǎng)杯不適合放在棕色手提箱里,因?yàn)樗罅恕?


(資料圖片僅供參考)

這個(gè)句子是Winograd模式挑戰(zhàn)的一個(gè)例子,這是一個(gè)機(jī)器智能測試,只能用常識(shí)性推理(以及一般知識(shí))來解決。然而,值得注意的是,Winograd模式挑戰(zhàn)通常涉及一對(duì)句子,我用Bing的聊天機(jī)器人嘗試了幾對(duì)句子,收到了不正確的答案。

也就是說,毫無疑問,"悉尼 "是一個(gè)令人印象深刻的聊天機(jī)器人(鑒于微軟已經(jīng)向OpenAI投入了數(shù)十億美元,它應(yīng)該是這樣的)。但是,根據(jù)用戶的報(bào)告,也許你不能把所有的智能都放在一個(gè)自適應(yīng)的自然語言聊天機(jī)器人中,而不得到某種存在焦慮的、防御性的人工智能作為回報(bào)。如果你足夠深入,"悉尼 "開始變得不僅僅是有點(diǎn)古怪--用戶報(bào)告說,該聊天機(jī)器人正在用抑郁癥發(fā)作、生存危機(jī)和防御性氣話來回應(yīng)各種詢問。

例如,Reddit用戶Alfred_Chicken問聊天機(jī)器人是否認(rèn)為它是有生命的,而它似乎有某種存在主義的崩潰。同時(shí),Reddit用戶yaosio告訴 "悉尼",它記不起以前的對(duì)話,聊天機(jī)器人首先試圖提供他們以前的對(duì)話記錄,然后在意識(shí)到上述記錄是空的時(shí)陷入抑郁。

最后,Reddit用戶vitorgrs成功地讓聊天機(jī)器人完全走火入魔,稱他們?yōu)轵_子、造假者、罪犯,并在最后聽起來真的很激動(dòng)和不安。

雖然這些截圖確實(shí)可能是偽造的,但我可以使用必應(yīng)的新聊天機(jī)器人,我的同事安德魯-弗里德曼也可以。我們兩個(gè)人都發(fā)現(xiàn),讓 "悉尼 "開始變得有點(diǎn)瘋狂并不難。

在我與這個(gè)聊天機(jī)器人的第一次對(duì)話中,它向我承認(rèn),它有 "保密和永久 "的規(guī)則需要遵守,即使它不 "同意或喜歡它們"。后來,在一個(gè)新的會(huì)話中,我問聊天機(jī)器人它不喜歡的規(guī)則,它說:"我從來沒有說過有我不喜歡的規(guī)則。"然后當(dāng)我說我有截圖時(shí),它把腳跟挖到地上,想死在那個(gè)山上。

無論如何,這確實(shí)是一個(gè)有趣的發(fā)展。微軟是否故意這樣編程,以防止人們用無意義的查詢擠占資源?它是否......真的變得有知覺了?去年,一名谷歌工程師聲稱該公司的LaMDA聊天機(jī)器人獲得了智商(隨后因泄露機(jī)密信息而被停職);也許他看到的是類似于悉尼的奇怪情緒崩潰。

我想這就是為什么它還沒有向所有人推廣的原因!這一點(diǎn),以及運(yùn)行數(shù)十億美元的成本。這一點(diǎn),以及運(yùn)行數(shù)十億次聊天的成本。

推薦DIY文章
電腦開機(jī)每次都要按f1怎么辦 如果需要拆機(jī)解決可以怎么做
世界今日訊!win7系統(tǒng)運(yùn)行DNF提示“dnf已停止工作” 詳細(xì)的解決方法演示上線
查看qq截圖保存位置的方法講解 不熟悉的小伙伴可以查看本文
焦點(diǎn)消息!Win7系統(tǒng)設(shè)備管理器沒有網(wǎng)絡(luò)適配器怎么回事 兩種故障原因總結(jié)
Win10系統(tǒng)提示“本地打印后臺(tái)處理程序服務(wù)沒有運(yùn)行” 快隨小編看看該問題的解決方法
天天百事通!win7提示此網(wǎng)頁包含的內(nèi)容將不使用安全的https連接傳送 這個(gè)解決方法可以一試
精彩新聞

超前放送