CloseAI提示您:看後求收藏(123. 針對性報道,重生之AI教父,CloseAI,試讀吧),接著再看更方便。
請關閉瀏覽器的閱讀/暢讀/小說模式並且關閉廣告遮蔽過濾功能,避免出現內容無法顯示或者段落錯亂。
“就在昨天,谷歌釋出了最新的人工智慧技術FaceGAN。
於此同時釋出的,還有一個叫做[這些人並不存在]的網站。
或許觀眾們會覺得這是一個徹頭徹尾的惡作劇,因為這些肖像,這些人物看上去是那麼的真實,栩栩如生。
可愛的幼童,美麗的女士,英俊的紳士,歷經滄桑的老人。這一切似乎與我們生活中的人物沒有任何不同。
但事實證明,這些影象並不是真實拍攝而來,而是使用最尖端的人工智慧技術生成獲得的。
對此,我們應當感受到深深的擔憂。
FaceGAN是兩個短語,Face和GAN的組合。其中GAN是兩個月前,由華國年輕人工智慧學者,孟繁岐提出的生成式對抗網路。
這是一種創新的人工智慧方法,GAN在兩個月前,還只是領域內開創性的一個設想。
但兩個月之後,針對人臉任務的FaceGAN就已經展現出了驚人的生成效果,威力無窮。
按照這樣的發展速度,我們有理由相信,任何擁有計算機和網際網路的人都可以建立逼真的照片和影片,展示人們在說和做他們實際上沒有說或做的事情。
荒謬絕倫的事情都有可能會擁有[證據]佐證。
儘管令人印象深刻,目前的FaceGAN技術仍舊暫時無法與真實的高畫質照片相提並論——透過仔細觀察,通常可以分辨出該相片是人工智慧生成的。
但這項技術正在以驚人的速度進步。專家預測,用不了多久,人們將無法把人工智慧生成的內容與真實影象區分開來。”
這是福布斯的報道,總體來說還算是中肯。
雖說對後續人工智慧發展的速度過分樂觀了一些,不過這屬於外行人犯了也很正常的錯誤,完全可以理解。
可CNN那邊,報道的畫風就完全不一樣了。
尤其是其中這一段,攻擊性非常之強。
“類似的生成技術將被廣泛應用的第一個用例——新技術通常就是這樣,不論你願不願意——都將會是澀情內容。
而生成式澀情內容幾乎都必定是非自願的,從網路的一些黑暗角落,這樣的生成式技術會逐漸從澀情領域蔓延到政治領域,並造成更大的混亂。
如果可以向所有人展示他們認為是[真實的]虛假內容,那麼不需要太多想象力就可以理解可能造成的危害。
想象一下政客在選舉前參與賄賂或性侵犯的生成式偽造鏡頭;或美國士兵在海外對平民犯下暴行;或奧觀海總統宣佈對朝鮮發射核武器。
在這樣的世界裡,即使這些片段是否真實存在一些不確定性,後果也可能是災難性的。
由於這項技術的普及,任何人都可以製作這樣的鏡頭:國家資助的演員、政治團體、獨立的個人。
扭曲民主話語;操縱選舉;削弱對機構的信任;削弱新聞業;加劇社會分裂;破壞公共安全;並對包括民選官員和公職候選人在內的知名人士的聲譽造成難以修復的損害。
在過去,如果你想威脅美國,你需要10艘航空母艦、核武器和遠端導彈。
今天......你所需要的只是製作一個非常逼真的假影片的能力,它可能會破壞我們的選舉,這可能會使我們的國家陷入巨大的內部危機並深深地削弱我們。
這些事情,就在不遠的未來。
如果我們不能相信從世界各地收集到的影片、音訊、影象和資訊,那將是一個嚴重的國家安全風險。
影象和影片是否真實幾乎無關緊要。強力的生成式技術將使公眾越來越難以區分什麼是真實的和什麼是假的,政治參與者將不可避免地利用這種情況——這可能帶來毀滅性的後果。”
孟繁岐讀到這裡的時候人都快麻了,怪不得川普最喜歡說CNN是假新聞(FakeNews)。
這比話說的就特麼離譜,現在就只是對低解析度的臉部影象做了個生成技術,就被CNN說得比航空母艦還邪乎了。
什麼過去需要“10艘航空母艦、核武器和遠端導彈”,現在只需要製作假影片的能力?
意思是他孟繁岐再搞兩年人工智慧,就智械危機,拿下美國了是吧。
正經的東西是一點不講,技術內容也完全不提,就光顧著販賣焦慮了。
看得孟繁岐血壓都高了。
華爾街日報的報道則最為技術一些:
“使得生成如此逼真的影象成為可能的核心技術,是生成式對抗網路,它是由孟繁岐在2013年10月公佈的。
人工智慧界的教父級人物,辛頓和本吉奧均高度讚賞這個想法,並稱它為過去十年內最有趣的想法。
在GAN出現前,神經網路擅長對已經存在的內容進行分類,語言,語音,影象等,但完全不擅長創造新的內容。
孟繁岐不僅賦予了神經網路感知的能力,還賦予了它創造的能力。
孟的概念突破是使用兩個獨立的神經網路構建GAN——一個稱為“生成器”,另一個稱為“鑑別器”——並將它們相互對抗。
從給定的資料集(例如,人臉照片的集合)開始,生成器開始生成新影象,這些影象在畫素方面與現有影象在數學上相似。同時,鑑別器被輸入照片,而沒有被告知它們是來自原始資料集還是來自生成器的輸出;它的任務是識別哪些照片是合成生成的。
隨著這兩個網路反覆地相互對抗——生成器試圖愚弄鑑別器,鑑別器試圖證明生成器的創造力——它們磨練了彼此的能力。最終鑑別器的分類成功率下降到50%,不比隨機猜測好,這意味著合成生成的照片與原始照片變得無法區分。
而我們現實當中的情況也是如此,一旦我們發現了某種足以識別生成式虛假內容的方式,生成端很快就可以修正這些內容。就像是貓鼠遊戲,我們未來與生成式虛假內容的對抗,就像是GAN方法一樣,會不斷促使生成模型變得更強大。”
“我超,這是純純的哲學家啊。”孟繁岐看完之後心頭一震,這最後的昇華是他自己也沒有想到的。
在推特上又逛了一圈之後,孟繁岐才知曉為何這次技術突然引發了這麼多人的關注。
原來是有行為藝術家,看了[這些人都不存在]網站後,從上面找了幾張圖當頭像,直播去網聊。
結果跟他對話的人,有不少都評價過這些影象,但均沒有一個懷疑過這些影象的真實性。
在數百萬吃瓜群眾的圍觀之下,FaceGAN的實力被抬到了一個不屬於它的高度。
而作為GAN技術和FaceGAN技術的第一作者,孟繁岐如今在推特上炙手可熱。
無數的問題和@讓他眼花繚亂,甚至發文的這幾家主流媒體,也紛紛透過推特留言或者谷歌的關係,對孟繁岐發起了採訪的邀請。
本章未完,點選下一頁繼續閱讀。