人工智能創(chuàng)造了一個(gè)假世界 - 這對(duì)人類意味著什么?
老話說(shuō)“眼見(jiàn)為實(shí)”,這句話放在幾年之前或許還有些可信度,那個(gè)時(shí)候我們?cè)谡掌鸵曨l中看到的內(nèi)容可以說(shuō)是真實(shí)的。即使photoshopping圖像流行開(kāi)來(lái),我們?nèi)匀幌嘈舙過(guò)的圖片也總有個(gè)原圖。
然而,現(xiàn)在隨著的進(jìn)步,世界變得越來(lái)越虛化,你甚至不能確定你所看到或聽(tīng)到的是真實(shí)的,還是人工智能和機(jī)器創(chuàng)造的。在許多情況下,這項(xiàng)技術(shù)用得很好,但既然它存在,它也可以用來(lái)欺騙。
人工智能創(chuàng)造了一個(gè)假世界 - 這對(duì)人類意味著什么?
“智能虛構(gòu)”的迷思
其實(shí),如果觀眾能夠足夠了解,就會(huì)接受人工智能的“虛構(gòu)”。多年來(lái),為了我們能夠能快樂(lè)地享受娛樂(lè)品,我們已經(jīng)開(kāi)始接受電影和電視屏幕上對(duì)現(xiàn)實(shí)生活的表現(xiàn)。不過(guò)現(xiàn)在,好萊塢已經(jīng)連寫劇本都要獲得協(xié)助。

adobe公司正嘗試用機(jī)器模仿聲音,可創(chuàng)建一份30分鐘的合成音頻(洛杉磯時(shí)報(bào)2019年4月13日)
隨著機(jī)器學(xué)習(xí)的發(fā)展,算法可以對(duì)大量數(shù)據(jù)進(jìn)行分類分析,以了解哪些元素更有可能使電影獲獎(jiǎng),商業(yè)成功或更受觀眾歡迎。這是人工智能幫助人們?nèi)プ鲆恍皠?chuàng)造性活動(dòng)”的另一個(gè)例子,(甚至他們可以自己做,根本用不到人類)
合成的聲音
現(xiàn)在只需要將音頻放入機(jī)器算法之中,它就能模擬出這個(gè)人的聲音,從而模糊真假之間的界限。這在某些情況下肯定會(huì)有所幫助,例如修復(fù)電影中的即時(shí)聲音采集,而不用讓演員回到現(xiàn)場(chǎng)重新錄制,但濫用的機(jī)會(huì)也是可能的,并且很容易想象。

ai拯救渣畫質(zhì)
智能內(nèi)容
個(gè)性化或智能內(nèi)容的出現(xiàn)是把雙刃劍,其他人工智能程序也一樣,它們應(yīng)該對(duì)用戶透明,否則就不是“科技引領(lǐng)生活”而成了“科技誤導(dǎo)生活”。?這里說(shuō)的智能內(nèi)容是指內(nèi)容本身根據(jù)訂閱者的用戶畫像而自覺(jué)進(jìn)行的內(nèi)容變化,并且正在通過(guò)netflix和tiktok(一種短視頻應(yīng)用)進(jìn)行測(cè)試。我們習(xí)慣于我們的搜索和推薦引擎根據(jù)我們自身特點(diǎn)向我們推送“更適合”的信息,智能內(nèi)容會(huì)允許每個(gè)用戶獲得不同的體驗(yàn)。

就在我還在看這篇文章的時(shí)候,網(wǎng)站就會(huì)給我推送“you may also like”
deepfake專業(yè)”槍手“
gpt2是openai(一個(gè)由埃隆·馬斯克投資的非營(yíng)利性研究組織)開(kāi)發(fā)的一個(gè)人工智能模型。它可以根據(jù)你輸入進(jìn)去的數(shù)據(jù)的語(yǔ)言特點(diǎn)來(lái)生成文字內(nèi)容,不論這是發(fā)在朋友圈的、還是寫進(jìn)科幻小說(shuō)里的、還是其他任何一種語(yǔ)境。該小組沒(méi)有公開(kāi)發(fā)布其研究報(bào)告,因?yàn)楝F(xiàn)實(shí)是很可怕的,他們害怕技術(shù)被濫用。
不再可信的照片
為了提高對(duì)人工智能技術(shù)的認(rèn)識(shí),phillip wang創(chuàng)建了網(wǎng)站“?這個(gè)人不存在?!??網(wǎng)站上代表的每一個(gè)人臉看起來(lái)都像一個(gè)真人,但它們都是人工智能生成的。另一個(gè)類似的網(wǎng)站,whichfaceisreal.com,它的創(chuàng)建也是為了提高人們對(duì)這種技術(shù)的能力的認(rèn)識(shí),要欺騙人們簡(jiǎn)直太輕松了。兩個(gè)站點(diǎn)都旨在反映nvidia公司的軟件工程師所開(kāi)發(fā)的技術(shù)有多么的強(qiáng)大。他們使用了“通用對(duì)抗網(wǎng)絡(luò)”(general adversarial network),這種技術(shù)就是說(shuō),兩個(gè)神經(jīng)網(wǎng)絡(luò)在創(chuàng)建人工圖像時(shí)反復(fù)競(jìng)爭(zhēng),通過(guò)計(jì)算機(jī)強(qiáng)大的高效的計(jì)算能力不斷地去“糾正對(duì)方”,最終兩者之間的和解就是問(wèn)題的“最優(yōu)解”。盡管在某些人臉中有一些細(xì)節(jié)能讓他們暴露,但很多情況下都可以以假亂真。
假視頻的危險(xiǎn)性
乍一看,人工智能的能力創(chuàng)造逼真的聲音,圖像和視頻,如此逼真,令人興奮,令人捧腹、令人難以置信。但在深入了解這項(xiàng)技術(shù)之前,我們必須停下來(lái)考慮更惡毒的用途。
“?deepfake?”技術(shù)使用計(jì)算機(jī)生成的音頻和視頻來(lái)呈現(xiàn)并未發(fā)生的事情。它被用來(lái)交換斯嘉麗·約翰遜的頭像以及色情電影中的其他著名人物,也就是我們說(shuō)的ai換臉,(此前本號(hào)文章中具體談?wù)撨^(guò)這種被bbc稱為“色情報(bào)復(fù)的強(qiáng)大武器”)

除了個(gè)人的虛假陳述和可能對(duì)個(gè)人造成的損害之外,一些?立法者還擔(dān)心?這種技術(shù)可能在互聯(lián)網(wǎng)上傳播的錯(cuò)誤信息。
這部奧巴馬總統(tǒng)的視頻?展示了音頻/視頻被操縱的可能性,以便讓一個(gè)有權(quán)威的人說(shuō)出他們實(shí)際上從未做過(guò)的事情。除了影響個(gè)人聲譽(yù)之外,這種欺騙可能對(duì)國(guó)家安全和選舉產(chǎn)生負(fù)面影響。

youtube用戶用聲音模擬軟件做出的奧巴馬演講視頻
中國(guó)的國(guó)營(yíng)新聞機(jī)構(gòu)新華社,也開(kāi)發(fā)了自己的人工智能主持人,如果不是特殊說(shuō)明,還真的不好分辨它究竟是一串代碼,還是一個(gè)真實(shí)的人。

新華社的ai主持人
隨著ai越來(lái)越復(fù)雜,確定什么是真實(shí)的和什么是人為的將變得更具挑戰(zhàn)性。如果“假”信息以文本,照片,音頻或視頻傳達(dá),輕易的迷惑大眾,則可以用于惡意目的?;蛟S我們?cè)僖膊荒芟嘈拧把垡?jiàn)為實(shí)”了。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“機(jī)電號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of JDZJ Hao, which is a social media platform and only provides information storage services.
