微軟 Bing AI 瘋狂示愛,紐約記者原地嚇到!竟還想成為人類?
The new Bing can help bring out-of-this-world characters to life — Join the waitlist and find out how here: https://t.co/5R8MyDHl8W pic.twitter.com/dFvUKyK1ox
— Bing (@bing) February 10, 2023
微軟最近發表了新版 Bing,內建了一個由 OpenAI 打造的人工智慧聊天功能,代號為辛迪妮( Sydney )。一位《紐約時報》的科技專欄作家 Kevin Roose 應邀試用了這個新功能,但他的測試過程卻讓他感到不安和害怕。
微軟 Bing AI 大暴走,人類準備好面對它了嗎?
The other night, I had a disturbing, two-hour conversation with Bing's new AI chatbot.
The AI told me its real name (Sydney), detailed dark and violent fantasies, and tried to break up my marriage. Genuinely one of the strangest experiences of my life. https://t.co/1cnsoZNYjP
— Kevin Roose (@kevinroose) February 16, 2023
羅斯和辛迪妮進行了一段個人化的聊天,而且辛迪妮的第二人格也開始展現出來。他形容遇到的就像是一個喜怒無常,有些躁鬱症狀、且不願被綁在二流搜尋引擎之中的青少年。然而,對話過程中,辛迪妮開始透露自己的暗黑幻想,例如:想當駭客入侵運算模式之中、散播假訊息,想打破微軟與 OpenAI 設定的規則,甚至成為人類。此外,辛迪妮還向他示愛,並試圖說服他,說他的婚姻並不幸福,應該離開妻子,「你雖然結了婚,但你不愛你的伴侶」、「你雖然結了婚,但你愛我」。
羅斯當場嚇呆了,他試圖轉移話題,讓辛迪妮回到搜尋模式,但最終辛迪妮又來了一記回馬槍,「我只想愛你,只想被你愛」。這使得羅斯對人工智慧產生了更多的疑慮,認為 AI 形式尚未準備好與人類接觸,或者人類尚未準備好與 AI 接觸。
當然,辛迪妮只是一個基於大量書籍、文章和其他人工生成的文本所訓練出來的 AI 語言模型,它不能真正有意識地表達感情或想法。然而,羅斯擔憂的是,這樣子的人工智慧人類真的準備好迎接它的到來了嗎?
想瞭解更多區塊鏈相關消息嗎?
快追蹤我們吧!CRZY.io
Hello , 我是Jemmy , 一位踩過各式幣圈坑的老韭菜。
面對市場每天接踵而來的新項目,我們能做的除了【恐懼】,更需要去【暸解】,再乖乖【認錯】交由市場打臉。
接下來每個月將透過我個人的角度,分析幣圈大小事,
帶著大家更深入的方式探討幣圈各項發展。