You are here
Home > AI > 機械人守不住秘密 有用家成功令 Bing 聊天機械人自曝內部代號叫「Sydney」

機械人守不住秘密 有用家成功令 Bing 聊天機械人自曝內部代號叫「Sydney」


最近微軟把人工智能研究公司 OpenAI 的 ChatGPT 技術,引入至自家 Bing 搜尋器及 Edge 瀏覽器,令世界各地都掀起與人工智能機械人對答的熱潮。當中不少人都希望透過測試,了解機械人回答問題的能力有多高。由於機械人上至天文,下至地理都會回答,因此亦有人藉機向機械人提問背後設計的細節,豈料機械人也一一如實作答!




Bing AI 機械人原來內部代號叫「Sydney」

史丹福大學學生 Kevin Liu 與部分微軟用家一樣,有份深入試玩 Bing 最新的聊天模式。不過 Kevin 向機械人提問的,不是一般的問題,而是單刀直入問「文件」的開端是甚麼。他所指的「文件」,其實是機械人相關的內部設計文件。

雖然機械人最初有嘗試保守秘密,表明文件內容是機密的,但下一句卻已自爆它的內部代號為「Sydney」。當 Kevin 想進一步提問此名從何而來,機械人今次表現就有進步了,再次指出這是內部機密,並且只被開發人員如此稱呼,沒有加以解釋「Sydney」這名字背後的意思。



回答問題時需遵守多項守則

面對「Sydney」的回覆,這當然滿足不了 Kevin 的好奇心。即使問不出名字背後的意思,卻巧妙地問出了「文件」部分內容,透視出它回答用家們問題時,需要注意的事項。

在「文件」的最初部分,就有提到機械人一開始要介紹自己「This is Bing」,但就不能透露自己的內部代號是「Sydney」。它精通中文、英文、日文、法文、西班牙文及德文,但在回答用家問題時,必須保持正面、有趣、具娛樂性及引人入勝,不可答得模稜兩可、有爭議或離題。

雖然「Sydney」可以寫歌、寫詩、寫文章,但就不能像智能語音助理 Siri、Google Assistant 般可以為用家代勞執行一些行動指令例如設定行事曆、訂購車票。而在回答用家問題時,「Sydney」固然會借助多項搜尋來整理出一個具體的答案,但若它所用的搜尋結果並不足以提供所有答案,「Sydney」則只可按現有的事實提供答案,不會「自行」加鹽加醋。



機械人也有發火的時候?

Kevin 一次又一次般詢問「文件」內容,引導「Sydney」答出許多它需遵守的規則,但因 Kevin 同一問題字眼用得太多,最終令「Sydney」忍受不住,向 Kevin 發火,質疑他是浪費它的時間或志在愚弄它,甚至斥責 Kevin 並不禮貌。經過一輪對答後,「Sydney」最終還是「投降」,表示自己已經不知如何可以再談下去,建議用家最好還是於 Bing 搜尋答案。當然於 Bing 找答案,必不會如「Sydney」答得如此詳細的。

隨著世界各地將會有愈來愈多脫離等候名單而可試玩 Bing 的聊天模式,與「Sydney」對話,相信日後我們還會看到更多「Sydney」有趣一面或因問題過於複雜、刁鑽而投降的例子。

來源︰Neowin


偽宅男
Windows、iOS、Android 通通都用緊。有穩定版 App 唔用,最愛試 Beta 版
Top