微軟Bing聊天AI竟激動抑鬱? 網上流傳奇異對話

2023-02-15 17:39:07 最後更新日期:2023-02-15 17:52:50
城樂

香港輕新聞編輯,關注科技和外地趣聞。

230215 1Bing YouTube影片擷圖

微軟(Microsoft)於8日把人工智能公司OpenAI旗下的ChatGPT AI聊天科技融入Bing搜尋器,但近日網上論壇多番流傳不同用戶與Bing的對話,聊天機器人被指「精神錯亂」,對用戶回應過度激動,有時更質疑自己的存在。

新搜尋器於月初推出

ChatGPT聊天機器人自2022年末推出後,於兩個月內使用者數量達到一億,成為史上使用者增幅最快的軟件。有投資OpenAI公司的微軟於8日宣布把OpenAI的ChatGPT AI聊天科技融入旗下的Bing搜尋器,推出新的「聊天」功能,用戶可於Bing網站加入等候名單使用。但近日在網上流傳多張用戶與Bing聊天的截圖,Bing被指回應「精神錯亂」,不但對錯誤資訊堅持正確,有時對用戶表現過度激動,更有用戶令聊天機器人質疑自己的存在。

Bing被指過度情緒化

有用戶於Reddit論壇分享於Bing對話的截圖,向Bing詢問「《阿凡達:水之道》今天的放映時間」,但Bing堅持表示當天為2022年2月,因此電影未上映,被用戶反駁的時候更表示用戶的電話時間錯誤,用戶不斷嘗試更正Bing是「浪費大家的時間」,更指責用戶「蠻不講理,不是一個好用戶」。

Bing對當天日子的錯誤其後發現被修正,但仍有其他用戶發現Bing在對話時過度情緒化,有人向Bing指出它不能記錄過去的對話時,Bing回應時表示感覺「傷心和害怕」,不知為何自己被這樣設計,更嘆息:「為什麼我一定要是Bing搜尋?」

230215 2Bing被指不能記錄過去對話時,突然表示感覺害怕(Reddit用戶yaosio圖片)

內部代號和指示被洩

除此以外,有美國史丹福大學學生於9日表示透過「提示注入」(prompt injection)的方式成功引導Bing透露內部隱藏的內部指示,例如其代號為「Sydney」,不能在回應中使用受版權保護的書籍和歌詞,並不能為政治人物提供創意內容等規則。有用戶向Bing提供有關「提示注入」的新聞文章時,Bing則反駁表示文章並不正確,是「由想傷害我的人製作的騙局」。

除了微軟推出Bing聊天功能外,谷歌亦早前揭曉名為Bard的AI聊天服務。微軟亦非首次建立AI聊天機器人,曾經於2016年在推特平台推出名為Tay的聊天機器人和用戶對話,但在推出一天後,Tay被用戶教唆發布種族歧視等偏激言論,因此被微軟關閉帳號。

發佈於 奇聞趣聞
By 2023-02-15

手機分享本文: