小13箩利洗澡无码视频免费网站-亚洲熟妇无码av另类vr影视-国产精品久久久久乳精品爆-宅女午夜福利免费视频

今日快訊:奧特曼沒(méi)有陰謀
時(shí)間:2023-06-12 12:42:58  來(lái)源:引領(lǐng)外匯網(wǎng)  
1
聽新聞

一旦愿意相信陰謀,這個(gè)世界其實(shí)到處都可以是陰謀。

編者按:本文來(lái)自微信公眾號(hào) 劉潤(rùn)(ID:runliu-pub),作者:二蔓 ,編輯:李桑,創(chuàng)業(yè)邦經(jīng)授權(quán)發(fā)布。


(資料圖片)

2023年,每天都是大新聞。而其中的一大半,都和AI有關(guān)。

今年年初,ChatGPT突然爆火。緊接著,就是AI領(lǐng)域一顆又一顆的重磅炸彈。GPT-4、Microsoft 365 Copilot、Midjourney V5、Google PaLM API,扎堆引爆。鋪天蓋地的新消息,席卷了每一個(gè)人的視覺(jué)神經(jīng)。

就在上個(gè)月末(5月31日),AI界又發(fā)生了一件大事兒。

包括OpenAI CEO,山姆·奧特曼(Sam Altman)等人在內(nèi)的,一眾全球范圍內(nèi)AI領(lǐng)域的重要人物,共同聯(lián)署了一封公開信,呼吁全球共同努力,降低人工智能導(dǎo)致的滅絕風(fēng)險(xiǎn)。

這封公開信很短,短到總共就只有22個(gè)詞。

Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

應(yīng)將緩解人工智能導(dǎo)致的滅絕風(fēng)險(xiǎn),與其他社會(huì)規(guī)模風(fēng)險(xiǎn)(如大流行病和核戰(zhàn)爭(zhēng))等視作等同,作為全球優(yōu)先事項(xiàng)。

字越少,事兒越大。

這到底是發(fā)生了什么?我記得前一陣子好像也有這么一封信。人工智能的高速發(fā)展不是提升效率的好事嗎?怎么就和大流行病、核戰(zhàn)爭(zhēng)扯上關(guān)系了?他們到底是在擔(dān)憂些什么?這和我有什么關(guān)系?

這些問(wèn)題,太重要了。

于是,我試著梳理了一下,想知道這封公開信到底是怎么來(lái)的,人們對(duì)AI的擔(dān)憂到底是怎么一步一步走到今天的,我們又該怎么辦?

然后,我越梳理越有一種感覺(jué),越梳理這種感覺(jué)就越強(qiáng)烈:

山姆·奧特曼的格局,可能遠(yuǎn)比我們想象的,還要大得多。

什么意思?

這件事,可能還要從兩個(gè)多月之前開始說(shuō)起。

01滅絕風(fēng)險(xiǎn)

還記得上一封著名的“AI公開信”嗎?

3月30日,著名企業(yè)家埃隆·馬斯克等一千多名業(yè)界、學(xué)界人士聯(lián)署發(fā)表公開信,呼吁所有AI實(shí)驗(yàn)室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng),暫停至少6個(gè)月。

3月30日,距離年初那一波爆火的GPT-3.5,才剛剛過(guò)去119天。距離更強(qiáng)大的GPT-4的推出,才剛剛過(guò)去了2周。

這是要干什么?為什么眾多大咖要一起呼吁,他們到底在擔(dān)憂什么?

我想,最主要的原因,還是因?yàn)锳I的發(fā)展,實(shí)在是太快了。

如果相關(guān)的監(jiān)管和法律沒(méi)有跟上,甚至連發(fā)明者也缺乏有效的控制手段。在這種條件下,無(wú)限制地使用AI,如果出現(xiàn)問(wèn)題,很可能就會(huì)對(duì)社會(huì)和人類構(gòu)成深遠(yuǎn)的風(fēng)險(xiǎn)。

比如,如果人工智能系統(tǒng)設(shè)計(jì)不當(dāng)或被惡意使用,可能會(huì)導(dǎo)致數(shù)據(jù)泄露、隱私侵犯、社會(huì)不公等等問(wèn)題。

比如,隨著人工智能的進(jìn)一步發(fā)展,未來(lái)可能會(huì)出現(xiàn)“超級(jí)人工智能”的存在。這種智能可能會(huì)遠(yuǎn)超人類的智力水平,對(duì)人類產(chǎn)生滅絕風(fēng)險(xiǎn)。

哪有這么夸張啊?AI,不是來(lái)幫助我們提升效率的好東西嗎?況且,AI又不是這兩年才有的東西。要是真有這么夸張,早干什么去了?

這是因?yàn)?,就連從業(yè)者也沒(méi)有想到,連接主義,竟然能強(qiáng)大到這個(gè)地步。

02連接主義

什么是連接主義?

在很長(zhǎng)的一段時(shí)間里,AI的發(fā)展,走的其實(shí)是一條名叫“邏輯主義(Logicism)”的道路。

邏輯主義,說(shuō)白了就是主張用公理和邏輯體系,來(lái)搭建一套人工智能系統(tǒng)。

比如你想學(xué)習(xí)一門語(yǔ)言,你要知道語(yǔ)法規(guī)則。“主語(yǔ)+謂語(yǔ)+賓語(yǔ)”,就是一種句子規(guī)則?!拔遥ㄖ髡Z(yǔ))想要(謂語(yǔ))吃飯(賓語(yǔ))”,就符合這種規(guī)則。通過(guò)列舉各種各樣的規(guī)則和邏輯,來(lái)讓AI學(xué)習(xí)語(yǔ)言。

但你想想,語(yǔ)言是多么微妙,復(fù)雜,富有情感。女朋友一個(gè)“嗯”字,背后就有八萬(wàn)四千種情緒。規(guī)則怎么可能窮舉,邏輯怎么可能沒(méi)有漏洞。

而且,人根本就不是這樣學(xué)習(xí)的。你從小學(xué)習(xí)語(yǔ)言,是先學(xué)習(xí)語(yǔ)法嗎?不。我們是在一個(gè)環(huán)境里,跟著媽媽咿呀學(xué)語(yǔ),跟著爸爸哼哼唧唧,看著看著,聽著聽著,自然就會(huì)了。

這個(gè)“自然就會(huì)了”,其實(shí)是因?yàn)槿四X的神經(jīng)元不斷連接。人腦的神經(jīng)元數(shù)量,據(jù)說(shuō)可以達(dá)到1000億個(gè),這些神經(jīng)元,一旦接觸外界的刺激,就會(huì)產(chǎn)生連接。刺激越多,連接就越多,直到人腦突然涌現(xiàn)出知識(shí)和智慧。很多事情,自然就會(huì)了。

這種人腦產(chǎn)生智能的方式,也被用在了AI上。給AI很多數(shù)據(jù),讓它自己看,自己學(xué),自己感受。這個(gè)路線,又叫“連接主義(Connectionism)”。連接主義,也成為現(xiàn)在AI發(fā)展的主流。

換句話說(shuō),今天的AI越來(lái)越厲害,是因?yàn)檎娴脑絹?lái)越像個(gè)“人”了。而且,是一個(gè)擁有上萬(wàn)億“神經(jīng)元”的“人”。

那么,明天呢?明天的AI,又會(huì)變成什么樣?誰(shuí)知道上萬(wàn)億個(gè)神經(jīng)元在接觸了大量的外界刺激之后,會(huì)涌現(xiàn)出怎樣可怕的知識(shí)和智慧來(lái)?

這種來(lái)自未知的恐懼,用埃隆·馬斯克(Elon Reeve Musk)的話說(shuō)就是:

人工智能,遠(yuǎn)比核武器更加危險(xiǎn)。

所以,必須要有人呼吁,必須要有人干預(yù),必須要有人大聲疾呼。

那么,收到3月30日那封公開信的從業(yè)者們,真的會(huì)乖乖地暫停AI訓(xùn)練嗎?大概率不會(huì)的。

為什么?因?yàn)檫@是一個(gè)“壞的納什均衡”。

03納什均衡

什么是“壞的納什均衡”?

你在劇場(chǎng)看戲劇。這出戲演得特別好,特別妙??墒?,第一排的那幫人,真的太可惡了。為了能看得更清楚一些,他們竟然忍不住站了起來(lái)。

這下可好。他們一旦站起來(lái),第二排的觀眾就被擋住了。于是,第二排觀眾也站起來(lái)了。接著,就是第三排,第四排,第五排。

就這樣,整個(gè)劇場(chǎng)的人,最后都是站著看完的這場(chǎng)戲。

但是,你發(fā)現(xiàn)沒(méi)有,整個(gè)劇場(chǎng)都站起來(lái)了之后,大家從觀看視線的角度,還是跟原來(lái)坐著一樣。本來(lái)所有人都可以舒舒服服地坐著看,但就是因?yàn)榈谝慌诺娜苏酒饋?lái)了,所有人就都得跟著站起來(lái)看。

這就是“壞的納什均衡”。

每一個(gè)參與其中的人的“最優(yōu)策略”,是“不遵守規(guī)則”。每一個(gè)人的不遵守規(guī)則,又會(huì)導(dǎo)致“最差結(jié)果”。

所以,一紙公開信,很容易變成一張“今天誰(shuí)復(fù)習(xí)誰(shuí)是小狗”的廢紙。一到家,只有那個(gè)提議的人沒(méi)復(fù)習(xí)。

所謂的暫停開發(fā),很容易就會(huì)演變成秘密開發(fā)。前排所有的觀眾都站起來(lái)了,我不站起來(lái),我就看不到戲劇了。對(duì)面所有的對(duì)手都舉著槍,我要是把槍放下,我就必死無(wú)疑。萬(wàn)一別人都在研究,就我沒(méi)有,那我的損失就太大了。

那怎么辦?

這時(shí),最好的解決辦法就是:行政手段。

04行政手段

什么是行政手段?

誰(shuí)都不準(zhǔn)站起來(lái),誰(shuí)站起來(lái)罰款,是行政手段。禁止參加校外的輔導(dǎo)課,誰(shuí)參加就罰款,是行政手段。不允許使用不合規(guī)的廣告,誰(shuí)使用就罰款,是行政手段。

3,2,1。都給我把槍放下來(lái)。

當(dāng)所有人只要“不遵守規(guī)則”就會(huì)受到足夠力度的懲罰的時(shí)候,每個(gè)人才會(huì)乖乖地遵守規(guī)則。當(dāng)每個(gè)人都遵守規(guī)則的時(shí)候,才會(huì)發(fā)現(xiàn),坐著,也許也挺好。

于是,5月16日晚上,山姆·奧特曼,走上了美國(guó)參議院的聽證會(huì),并在聽證會(huì)上表示,政府監(jiān)管對(duì)行業(yè)的未來(lái)至關(guān)重要。

你能想象嗎?山姆·奧特曼,竟然在聽證會(huì)上表示:我愿意遵守規(guī)則,請(qǐng)給我戴上手銬。而且,我建議你可以這樣給我戴。

第一,建立一個(gè)政府機(jī)構(gòu),給我們發(fā)放許可證,如果模型不符合政府制定的安全準(zhǔn)則,也可以撤銷這些許可證。

第二,為高能力的人工智能模型制定安全標(biāo)準(zhǔn),并建立模型必須通過(guò)的具體功能測(cè)試,確保它不產(chǎn)生危險(xiǎn)內(nèi)容。

第三,引入與創(chuàng)造者及政府無(wú)關(guān)的第三方專家進(jìn)行獨(dú)立評(píng)估,以確保人工智能工具在立法準(zhǔn)則內(nèi)運(yùn)行。

一刀,兩刀,三刀。刀刀砍在要害上。

有了許可證之后,開發(fā)AI所需要的數(shù)據(jù),可能就拿不到了。有了安全標(biāo)準(zhǔn)之后,OpenAI目前已有的能力,可能會(huì)受到強(qiáng)烈的限制。有了第三方專家之后,所有炫目華麗的科技,可能都要在鐐銬下起舞。

而這個(gè)召喚手銬的人,不是某個(gè)還在觀望AI的人,不是某家還沒(méi)成功開發(fā)的公司,而是OpenAI的首席執(zhí)行官,AI世界的重要人物,某種意義上未來(lái)世界的領(lǐng)跑者,山姆·奧特曼。

天啊,這是什么樣的格局。

可是,他會(huì)這么說(shuō),應(yīng)該也不奇怪吧?該賺的錢,他早就賺夠了。監(jiān)管之后,所有人都不發(fā)展了,OpenAI領(lǐng)頭羊的位置反而得到了保護(hù)。這副手銬對(duì)山姆·奧特曼來(lái)說(shuō),簡(jiǎn)直就是實(shí)打?qū)嵉慕鹗咒D呀!

唉。那我想說(shuō),這也太低估奧特曼的境界了。

OpenAI,根本就是一家非營(yíng)利機(jī)構(gòu)。

05非營(yíng)利機(jī)構(gòu)

什么是非營(yíng)利機(jī)構(gòu)?

非營(yíng)利機(jī)構(gòu),在英文世界里叫做,Non-Profit Organization,指的是那些不以營(yíng)利為目的的組織。非營(yíng)利組織的運(yùn)作并不是為了產(chǎn)生利益,這一點(diǎn)通常被視為這類組織的主要特性。但是,關(guān)鍵是但是,但是,非營(yíng)利組織還是必須產(chǎn)生收益,以提供其活動(dòng)的資金,只不過(guò)它的收入和支出都是受到嚴(yán)格限制的。

舉個(gè)例子。

你是一家非營(yíng)利機(jī)構(gòu)性質(zhì)的私立學(xué)校創(chuàng)始人,你的夢(mèng)想,是通過(guò)特有的教學(xué)理念,來(lái)提升中國(guó)學(xué)生的綜合素質(zhì)。而這家擁有遠(yuǎn)大夢(mèng)想的私立學(xué)校,收入不菲。我的孩子想到你這里來(lái)上學(xué),光是一年的學(xué)費(fèi)就要大20萬(wàn)。你每年招收500名學(xué)生,那么這家私立學(xué)校每年能從學(xué)費(fèi)上拿到的收入,是整整1個(gè)億。這1個(gè)億,是給你用來(lái)支付教師工資、購(gòu)買課桌椅、提升教學(xué)環(huán)境,用來(lái)支撐各類運(yùn)行費(fèi)用,用來(lái)實(shí)現(xiàn)“非營(yíng)利目的”的。

注意,重點(diǎn)來(lái)了。這1個(gè)億,在支撐完各種費(fèi)用之后,還有盈余,怎么辦?對(duì)不起,多出來(lái)的錢,你不能從中分紅。你得把這筆錢,用在請(qǐng)更好的老師、買更好的課桌椅上??墒强墒?,那萬(wàn)一我收的學(xué)費(fèi),還不足以支撐運(yùn)行費(fèi)用,怎么辦?很遺憾,你也不能融資。你只能接受別人的捐贈(zèng)。

這就是:非營(yíng)利機(jī)構(gòu)。

你見(jiàn)過(guò)的一些私立學(xué)校,是非營(yíng)利機(jī)構(gòu);你聽過(guò)的一些基金會(huì),是非營(yíng)利機(jī)構(gòu);而這家一飛沖天的OpenAI,竟然也是非營(yíng)利機(jī)構(gòu)。

而奧特曼的夢(mèng)想,是在這個(gè)非營(yíng)利機(jī)構(gòu)里,用(在很多人眼里,根本不可能的)通用人工智能,造福全人類。不是賺錢。但是,如果他一不小心賺到錢了,這筆錢也要繼續(xù)投入到“造福全人類”中去,是不能從中分紅,再拿回去買房買車買島買飛機(jī)的。

于是,在聽證會(huì)的現(xiàn)場(chǎng),我們看到了那個(gè)我不知道該怎么形容的表情。

在吃驚地向聽證會(huì)核實(shí)了好幾次提問(wèn)之后,山姆·奧特曼才帶著木訥地表情回答說(shuō):我在開放人工智能中沒(méi)有股權(quán),我賺到的錢只夠我購(gòu)買食物和保險(xiǎn)。

我根本就沒(méi)有錢。

啊?怎么可能。就連聽證會(huì)都吃驚地說(shuō)到:你需要一個(gè)律師,我懷疑你被人騙了。

天啊。這是怎樣一個(gè)理工男,怎樣一個(gè)鐵憨憨,怎樣一個(gè)理想主義者。

他要通過(guò)人工智能,造福全人類。他要實(shí)現(xiàn)他的理想,而不是賺錢。也許他會(huì)一不小心賺到錢,但請(qǐng)放心,他一定會(huì)繼續(xù)用這筆錢來(lái)造福全人類。

但現(xiàn)在,為了更好地造福全人類,也順帶著實(shí)現(xiàn)我的理想,請(qǐng)為我戴上手銬。

于是,他終于在一個(gè)致力于推動(dòng)AI安全研究和政策的非營(yíng)利組織Safe AI Society發(fā)起的,呼吁全球的研究者、政策制定者和公眾共同努力而不是只有從業(yè)者的,只有22個(gè)詞的公開信上,簽下了自己的名字。

Sam Altman。

06最后的話

那么,簽下這封公開信之后,AI的世界將會(huì)變成什么樣呢?

還不確切知道??春竺姘l(fā)展吧。但我想,這大概只是一個(gè)開始。

也許,我們要等很久很久,才能見(jiàn)到GPT-4.5了。也許,我們很快會(huì)迎來(lái)一套全新的法規(guī),全新的部門。也許,我們將會(huì)用上更高效,同時(shí)也更安全的人工智能。

那么,這對(duì)我們又意味著什么?

也許,我們最應(yīng)該從中習(xí)得的一件事就是:永遠(yuǎn),不要放棄做一個(gè)理想主義者。永遠(yuǎn),不要放棄做一個(gè)有格局的人。永遠(yuǎn),不要忘記自己的初心。

唉。很多人都希望改變世界。但是走著走著,就被這個(gè)世界改變了。即使沒(méi)有被改變,世界也會(huì)說(shuō),你變了。

他們會(huì)說(shuō),3月30日的公開信,是在“GPT-4剛剛推出2周”的時(shí)候呼吁的,明擺著就是為了打壓山姆·奧特曼。

他們會(huì)說(shuō),5月16日的聽證會(huì),請(qǐng)求政府實(shí)行行業(yè)監(jiān)管,明擺著就是為了持證上崗,實(shí)行壟斷。

他們會(huì)說(shuō),5月31日的公開信,肯定是因?yàn)樯侥贰W特曼已經(jīng)得到了官方人員的許諾,才簽的字。

他們會(huì)說(shuō),不過(guò)就是天天露臉,想火想瘋了罷了。

他們會(huì)說(shuō),搞不好,連這個(gè)人都是假的!

一旦愿意相信陰謀,這個(gè)世界其實(shí)到處都可以是陰謀。

只是,在這個(gè)糖果商不會(huì)告訴你吃得太多會(huì)蛀牙的世界里,我愿意相信他沒(méi)有陰謀。

在這個(gè)太多人在灰色地帶做著明明就令行禁止的事的世界里,我愿意相信他沒(méi)有陰謀。

在這個(gè)很多人眼中鈔能力就是一切的世界里,我愿意相信他沒(méi)有陰謀。

我愿意相信,奧特曼沒(méi)有陰謀。

就像我愿意相信,人性本善。

唉。

關(guān)鍵詞: