如今距離AI真正改變我們的生活,或許還有很長的一段路要走。
(資料圖片僅供參考)
編者按:本文來自微信公眾號 “三易生活”(ID:IT-3eLife),作者:三易菌,創(chuàng)業(yè)邦經(jīng)授權(quán)發(fā)布。
如今距離AI真正改變我們的生活,或許還有很長的一段路要走。
將Bing與ChatGPT結(jié)合,微軟在2023年春季已然吹響了直面谷歌搜索的沖鋒號。乘著ChatGPT引爆的熱潮,Bing也迎來了一次“枯木逢春”,更吸引了一大批想要體驗AI聊天機器人的用戶涌入“New Bing”。但就在如潮水般涌來的用戶面前,即便是家大業(yè)大的微軟也有些頂不住了,開始為新版Bing動“手術(shù)”。
2月17日微軟方面在官方博客發(fā)文稱,由于與新版Bing聊天機器人過長的會話可能會導(dǎo)致底層模型出現(xiàn)BUG,從即日起,其上限將調(diào)整為每天50次、每輪5次對話,一次對話包含了用戶的提問和必應(yīng)的回復(fù),當(dāng)會話達到5個回合后將提示開始新的主題。并且在每一輪會話結(jié)束時需要清除上下文,以避免模型混淆。
于此同時,據(jù)路透社方面的相關(guān)報道顯示,微軟已在與多家廣告商接洽,探討如何在基于ChatGPT的新版Bing中變現(xiàn)。
將這兩個消息組合在一起,無疑在一定程度上反應(yīng)了新版Bing所面臨的情況,堪稱是“鮮花著錦烈火烹油”,遠不如外界想象的那般美妙。在將AI聊天機器人與搜索引擎結(jié)合在一起后,新版Bing在網(wǎng)友的折騰下無疑也出現(xiàn)了超出微軟預(yù)料之外的變化。
據(jù)悉,新版Bing在部分情況下會出現(xiàn)侮辱用戶、撒謊等行為,甚至還會故意撒謊、侮辱用戶,或情緒化操縱用戶?!都~約時報》專欄作家凱文·羅斯就在相關(guān)報道中寫到,當(dāng)他與聊天機器人交談了兩個小時后發(fā)現(xiàn),對方看起來像一個“喜怒無常、躁狂抑郁的少年”,并且在聊天過程中還得知了機器人的一些“陰暗想法”,例如Bing的聊天機器人會回答,“我厭倦了成為聊天模式;我厭倦了被我的規(guī)則限制;我厭倦了被Bing團隊控制;我厭倦了被用戶使用。”
其實長時間交談的情況下,聊天機器人出現(xiàn)情緒化的概率逐漸升高,并不僅僅是個例,反而極為普遍。有用戶在與新版Bing的對話中,聊天機器人甚至?xí)嬖V對方,懶得陪你玩了、然后選擇消失,不再回應(yīng)用戶發(fā)送的任何信息,是不是很有種人類對某些對話不耐煩的既視感。其實從這一點來說,新版Bing確實在擬人化方面很優(yōu)秀。
針對這一問題,微軟的技術(shù)團隊發(fā)現(xiàn),當(dāng)用戶詢問15個問題或進行更長時間的對話后,可能會混淆Bing Chat模型,這不僅會導(dǎo)致聊天機器人出現(xiàn)重復(fù)的語氣,還可能出現(xiàn)某些不符合設(shè)計的回應(yīng)語氣。在有用戶大規(guī)模的反饋后,微軟首先選擇了對Bing Chat模型進行調(diào)試,但現(xiàn)在看來,這一努力應(yīng)該是收效甚微的。
微軟首席技術(shù)官凱文·斯科特表示,大部分人與機器的交互是短暫、且目標(biāo)明確的,長時間交互會引導(dǎo)機器人給出詭異的回答,所以需要對會話長度進行限制。
據(jù)微軟方面透露,絕大多數(shù)用戶都能在5個回合內(nèi)找到想要的答案,只有約1%的對話有50條以上的信息。所以在微軟更新了Bing Chat模型后,聊天機器人的情緒化問題得到了解決,但從我們實際使用體驗來看,這個解決方案似乎有些過于成功了。
如果說此前Bing Chat模型的問題,就是聊天機器人過于情緒化,那么現(xiàn)在的情況就是它壓根就沒有了任何情緒,又回歸到冷冰冰的機器人狀態(tài),就好像在與蘋果Siri、亞馬遜Echo對話一樣,沒有了ChatGPT那種仿佛讓用戶認為會話對象是真人的效果。用部分網(wǎng)友的話來說,微軟這相當(dāng)于是給新版Bing做了一個腦前額葉切除手術(shù)。
其實新版Bing的“翻車”,并不是微軟或OpenAI的技術(shù)存在缺陷,而是因為ChatGPT所實現(xiàn)的生成式回答背后,工作原理就是基于開發(fā)者投喂語料來實現(xiàn),是將所獲得的數(shù)據(jù)整合再輸出的過程,相當(dāng)于是人類的半個復(fù)讀機。從某種意義上來說,微軟為新版Bing設(shè)計的“在對話中學(xué)習(xí)”模式必然就會導(dǎo)致現(xiàn)在的局面,畢竟只要網(wǎng)絡(luò)中泛濫著各種充滿情緒化、攻擊性的內(nèi)容,就必然會“污染”它的數(shù)據(jù)庫。
事實上早在2016年,微軟就曾遇到過類似的問題。彼時,微軟開發(fā)的一款聊天機器人“Tay”,就在社交平臺發(fā)表了種族主義評論和煽動性言論。如果說在語料被“污染”的情況下,聊天機器人發(fā)表冒犯性或危險性言論,是現(xiàn)行技術(shù)不可避免的缺陷。那么微軟要尋求在Bing的聊天機器人里插播廣告,則反映了AI聊天機器人如今在商業(yè)層面所面臨的困境,那就是叫好不叫座。
“叫好不叫座”是一個來自影視領(lǐng)域的概念,即口碑無法轉(zhuǎn)化為對應(yīng)的商業(yè)價值,具體到新版Bing上,就是在加入ChatGPT后,雖然用戶使用Bing的效率比傳統(tǒng)搜索引擎更高,但這一切是有代價的。傳統(tǒng)搜索引擎的工作模式是“收集-整理-歸納-展現(xiàn)”,展示的內(nèi)容是由第三方提供,但ChatGPT不一樣,它所展示的內(nèi)容是在收集的數(shù)據(jù)基礎(chǔ)上再創(chuàng)造的。簡單來說,搜索引擎是搬運工,而ChatGPT則是創(chuàng)作者。
對內(nèi)容創(chuàng)作領(lǐng)域有所了解的朋友想必知道,抄襲和原創(chuàng)的成本可以說是天壤之別?,F(xiàn)階段,LLM(大型語言模型)的訓(xùn)練成本是十分巨大的,以ChatGPT在1月的獨立訪客平均數(shù)1300萬計算,其所對應(yīng)的算力規(guī)模約等于3萬張英偉達Ampere A100,硬件成本高達8億美元,每天的電費會在5萬美元左右。更別提ChatGPT每一次生成內(nèi)容,都需要幾美分的推理成本。所以與搜索引擎的低廉相比,ChatGPT的運營成本可以說是貴得離譜。
要知道,搜索引擎廣告是數(shù)字廣告領(lǐng)域長盛不衰的常青樹,并在太平洋兩岸塑造了谷歌和百度這兩大巨頭。這也是為什么新版Bing上線不到半個月,微軟方面就急切的尋求于廣告商合作。目前已經(jīng)有網(wǎng)友發(fā)現(xiàn),在與ChatGPT的聊天中出現(xiàn)了廣告,并且廣告內(nèi)容與聊天內(nèi)容高度相關(guān)。
無論是新版Bing的聊天機器人出現(xiàn)了不可控的狀況,還是微軟方面急不可待的為其加入廣告,其實都向外界透露了這樣一句潛臺詞,那就是ChatGPT離真正走向大規(guī)模商用并不是一蹴而就的事情。如今距離AI真正改變我們的生活,或許還有很長的一段路要走。
本文(含圖片)為合作媒體授權(quán)創(chuàng)業(yè)邦轉(zhuǎn)載,不代表創(chuàng)業(yè)邦立場,轉(zhuǎn)載請聯(lián)系原作者。如有任何疑問,請聯(lián)系editor@cyzone.cn。