作者|石燦
編輯|鐵林
DeepNude(深度裸體)App的出現,令美國女性感到害怕。四天的時間,這種害怕擴散演變成了全球性恐慌。
一名叫阿爾貝托的程序員開發出了這款應用。只要你給DeepNude一張女性圖片,借助神經網絡技術,它就可以自動“脫掉”女性身上的衣服,顯示出那位女性的“裸體”來。
有人問,DeepNude能對男性造成直接傷害嗎?從目前的情況來看,不會。它只能處理女性圖片,即便上傳男性圖片,最后輸出的圖片中,關鍵隱私部位也會顯示為女性。
“低級需求下產生的應用,是有原罪的。”
6月23日,DeepNude在一個網站上首度被展示,上面羅列了人們該如何下載并使用這款軟件的步驟信息。
DeepNude有免費版和50美元付費版,使用免費版獲得的圖片會有較大水印,付費版不會出現較大水印,但在圖片左上角會加上“FAKE”的小logo。
使用者無需任何***知識,就可輕而易舉地使用,技術削低了準入門檻。有人好奇了問:DeepNude是怎么誕生的?
兩年前,開發者阿爾貝托發現了人工智能的潛力,開始研究這門技術的基礎知識。當他知道人工智能技術能將白天照片轉換成夜間照片時,他意識到,自己可以將一張穿著衣服的女性照片,轉換成另一種模樣的照片。
阿爾貝托在接受《Motherboard》的采訪時說,DeepNude基于加州大學伯克利分校研究者開發的開源算法pix2pix創建,并使用1萬張女性裸圖加以訓練。這一算法與人工智能換臉技術DeepFake算法相似,也和無人車技術所使用的算法相似。
圖片來自GitHub社區,賬號“yuanxiaosc”
他把這種發現滋生出來的結果理解為樂趣和熱情。憑借這兩個驅動力,他對穿著衣服的女性照片做了一次“卸裝”嘗試,并從中獲得了“有趣的結果”。
但這并不是讓他創建DeepNude的核心原因,到底是什么讓它創建了一個飽受爭議的應用呢?
《Motherboard》的報道為我們解答了這一疑惑。
此前,阿爾貝托創業失敗了,在經濟上遭遇困境,“我問自己,是否能憑借這個算法技術賺到錢”?
答案是肯定的。
短短五天內,就有50萬人在使用DeepNude。巨大的流量一度使服務器不穩定,導致付款出現問題。他一直在社交媒體推特上安撫用戶,“Wehadproblemswithpayments.Pleasetrylaterorusecrypto.”(我們的付款出現問題,請稍后再試或使用加密。)
DeepNudeApp的Twitter賬號界面截圖
6月26日當天,用戶量太大,他被迫關閉服務器。還說,在解決問題之前,不接受任何付款。
DeepNude推出四天后,阿爾貝托還沒意識到有人在用它做一些充滿惡意的事情。6月27日,連發了5條推特闡述團隊在努力維修DeepNude的下載通道和支付通道,“耐心點,我們將在未來發布越來越穩定的版本。”
即便如此,他們還是離線了,人們下載不了DeepNude,原因不是封禁,而是“因為我們沒有預料到這么多訪問,我們的服務器需要加強。”
DeepNude太火爆了。它能讓人輕而易舉地看到一些明星的隱私,哪怕是合成的。時間前進到6月27日晚些時間,阿爾貝托才被迫做出妥協,決定關停DeepNude。
“我們以為我們每個月都能以一種可控的方式銷售很少的DeepNude”,但“我們從未想過它會變成病毒,發展到了不可控的狀態”,“人們濫用它的可能性太高了,我們不想這樣賺錢”,“從現在起,DeepNude將不再發布其他版本,也不允許任何人使用它”。
DeepNude網站的一部分屏幕截圖
阿爾貝托的口頭阻止令毫無效果,至今仍有DeepNude在網絡上傳播。
就在這一消息發布前幾小時,他還在認為“世界還沒有為DeepNude的到來做好準備”。
“‘世界尚未準備好’?我想你的意思是‘我們編寫了一個深刻攻擊性、令人毛骨悚然的應用程序,它基本上是一個濫用和侵犯人們隱私的應用程序,我們很抱歉’。”一位Twitter網友看起來很生氣,她不認同阿爾貝托的說辭。
“低級需求下產生的應用,是有原罪的。”國內一名叫“潘一先生”的網友譴責稱,DeepNude滿足的本就不是正當合法的需求。和真實圖像相比,如果說生成的照片與女性很像,那么侵犯了女性的隱私權;如果說不像,則可能侵犯女性的名譽權。
世界永遠不應該為像DeepNude這樣的應用做好準備,而且也不應該這樣做。
但就在DeepNude被***之前,DeepFake(深度偽造,多用于換臉)技術也充滿了爭議。
楊冪和蔡徐坤都被“換臉”去年12月,一段涉及漫威電影《神奇女俠》主演蓋爾·加朵的“成人短片”,在一個類似于貼吧一樣的美國網絡社區Reddit流傳,被諸多網友圍觀。***這段視頻的人不是職業拍攝者,而是一名程序員,網名叫“deepfakes”。
他在業余時間學習了DeepFake技術,用一些互聯網免費***的工具和素材,將蓋爾·加朵的臉“移植”到了一名色情演員身上。蓋爾·加朵與那部“成人短片”產生聯系,是非自愿行為。
但那位程序員顯然是沉迷其中了。泰勒·斯威夫特、艾瑪·沃特森、斯嘉麗·約翰遜和麥茜·威廉姆斯等在美國家喻戶曉的女明星都被換臉。
給女明星換臉,國內也出現過類似的網絡事件。那件事發生在今年初。
把楊冪推進換臉風波的人,在微博開通了一個叫“換臉哥”的賬號。2月底,他把一段涉及楊冪的視頻上傳到網絡,引發熱議。視頻內容的主角原本是《射雕英雄傳》中黃蓉的扮演者朱茵,但他用DeepFakes技術把朱茵的臉換成了楊冪的臉。
一方面,很多人擔心自己會被同樣的技術裹入洪流,被人玩弄,開始譴責他;一方面,有人找到他,希望他幫忙做換臉技術,其中不少涉及違法犯罪。沒過多久,他與楊冪官方工作室溝通,并下架了相關視頻。
最為人熟知的換臉惡搞潮發生在今年初的“雞你太美事件”中,蔡徐坤展示自己興趣愛好的一段視頻,被網友換臉,他們還陸續推出了新的惡搞版本。蔡徐坤方面為避免被惡搞,還發出了律師函警告。
蔡徐坤的換臉主角是游戲知名主播五五開
DeepFake的發展時間不長,在2017年底才興起的,被主流深度討論,也是那時。幾個月后,Reddit禁止上傳非自愿色情內容,其他網站也禁止使用深度偽造非自愿色情內容。
它的危害之一在于,技術權力毫無約束,像瘋狗一樣逮誰咬誰,很容易讓人被技術另一端的人支配。
演員斯嘉麗·約翰遜是世界上收入最高的女演員之一,以參演漫威系列電影而聞名,江湖人稱“黑寡婦”。她卻深受DeepFake之害。
斯嘉麗·約翰遜
《***》稱,她的臉已經被匿名在線“創作者”嫁接到數十個圖形***場景中,他們正在使用免費的人工智能軟件來***令人信服的逼真視頻。一個假視頻,被描述為真正的“泄露”鏡頭,已被觀看超過150萬次。
在現代名望的黑暗現實中,她擁有比大多數人更多的經驗。2011年,她被一名***泄露隱私,這名***后來被判處10年有期徒刑。
在線***虛假的色情照片已經存在了幾十年。她在接受《***》采訪時說,DeepFakes的崛起,已被用來騷擾和羞辱女性,這對于尋求在互聯網上保護自己的女性來說,是一個新的令人沮喪的挑戰。她對這一現象表示擔憂,將互聯網描述為“吃掉自己的巨大黑暗蟲洞”。
在英國,DeepFakes的生產者可能會因騷擾而受到起訴,但有人要求對某種特定犯罪行為進行深刻打擊。《衛報》稱,一位學術專家認為,根據真實人物的照片***虛假的***應該成為修正法案中的刑事犯罪,以解決騷擾問題。
在美國,人們一直在追究身份盜竊,網絡跟蹤和復仇色情等各種指控,并討論了更全面的法規。據“機器之心”的報道,目前,美國弗吉尼亞州率先對DeepFakes這些新應用采取了行動,擴大了其“復仇色情法”的范疇。修正后的法律于當地時間7月1日生效。
2014年,弗吉尼亞州對“復仇色情”的定義是,“以完全或部分裸體狀態惡意傳播另一個人的錄像或靜止圖像,意圖強迫,騷擾或恐嚇”。現在,這一法令包含了“DeepFake”,***或操縱的視頻和使用機器學習***的圖像。
現在的規定稱,未經許可分享某人視頻的***照片是違法的——無論是真實的還是偽造的。除了DeepFake,用Photoshop或其他工具***的虛假照片、視頻也包含在內。
在現有狀況來看,這項法案保護的大多是女性。有數據顯示,大約有1000萬美國人受到復仇色情的威脅或成為其復仇的受害者。根據美國一家研究所2016年的一項研究,女性遭受男性威脅的可能性是男性的兩倍。
為什么受傷的總是女性?
用“深度假”技術取悅人們2018年8月13日,一個叫“原諒寶”的項目嶄露頭角,微博網友“將記憶深埋”發文稱,為了幫助碼農朋友們做一個初步過濾,他聯合了幾位朋友把1024、91等網站上的視頻和圖片打上標簽,進行人臉匹配。
在碼農界一直流傳著一個說法,很多碼農每天的時間都分配給了工作,加上天生情商不夠高,內心又想著找一個女朋友,在找女朋友方面,很不擅長。這可能導致一個情況,有些碼農找到的女朋友可能是“特殊工作者”,或者是“***”,或者是被***女性,或者是其他情況。
發起者稱,“原諒寶”起到的一個作用就在于,鑒別對方有沒有出現在1024、PronHub等特殊網站上。
使用***不難,你可以上傳一張照片到“原諒寶”,系統會自動匹配1024、PronHub等特殊網站上的數據,如果結果顯示“Fail”,意味著那個人的樣貌出現在了特殊網站上;如果顯示“Pass”,則是“幸運過關”。
消息一出,引來無數質疑和謾罵。“原諒寶”則為自己辯解,研發的目的是“為保護老實人而生”“接盤俠的福音”,可以解決戀愛中的信任關系。
5月27日,“將記憶深埋”說,“半年時間,100多TB數據,利用1024、91、sex8、PronHub、xvideos等網站采集的數據對比Facebook、instagram、TikTok、抖音、微博等社交媒體。我們在全球范圍內成功識別了10多萬從事不可描述行業的小姐姐。”
“知道這些素材夠判斷多少年嗎?”有人看到這條信息后發出質問。
“你知道什么叫違法嗎?首先,我現在沒有傳播任何數據,其次,我沒有公布查詢接口泄露任何人的隱私。”“將記憶深埋”在微博中為自己辯解,“我居住在德國,色情產業是合法的”。
“將記憶深埋”的囂張氣焰并沒有變弱的趨勢。直到輿論緊逼,無數人涌入他的個人微博主頁,對其進行譴責。“將記憶深埋”不得不做出致歉,“我會刪除這個項目”,“100多TB數據在半小時內徹底清空”。
此事沒有就此終止,關于“原諒寶”以App方式轉世的消息卻傳了出來,“將記憶深埋”將此事與自己撇清,“本人沒有發布過任何手機端App”。但這些設計背后的動機天然針對女性,甚至于控制和羞辱女性。
我們習慣了太多事情了。對社交媒體習以為常的我們,早就接受了一個來自于技術世界的觀念:技術本身是沒有錯的,即便是技術被披上了狼皮,也是人的錯,它可以作惡,也可以行善。但在今年,科技向善的價值觀導向逐漸成為主流,即便有人在抨擊這一觀念非常模糊,也阻止不了它在這一階段的流行程度。
但DeepNude、DeepFake和原諒寶的故事告訴我們,技術可以前所未有地、輕而易舉地使人擁有權力,他們可以通過大數據操縱任何一個普通人的生活,讓你感到恐懼,讓你的一切網絡隱私變成商品公之于眾。它已經不再是一個單純的技術問題,而是一個社會信任問題,從個人信任到新聞信任,我們可能陷入一個再也無法確定媒體內容是否符合事實的時代。
“深度假”技術變得越來越流行,不論是在抖音、快手上的動畫特效,還是美顏相機里面的貓咪耳朵,都變花樣兒地討好人們。如果說技術本身是中立,那么道德的存在,就是為了引導技術別輕易成為“吃掉自己的巨大黑暗蟲洞”。
當《Motherboard》的記者向美國加州大學伯克利分校計算機科學教授HanyFarid展示DeepNude時,得知其發展到這種程度,他感到震驚。
他說,學術界和研究人員不得不更加帶有批判性的視角,考慮我們該如何推進技術,以便技術不被武器化,或以有害的方式被使用。
很多AI研究者也針對DeepNude事件發聲,大多是譴責。
3月份,吳恩達和他的女兒/圖片來自吳恩達的Twitter賬號
“我很高興DeepNude死了。作為一個人和一個父親,我認為這是人工智能最令人作嘔的應用之一。”前百度首席科學家、斯坦福大學CS***教師吳恩達,在社交媒體發文表達了他的憤怒。
他還告誡AI社區和社員們:“你的確擁有超能力,你建立的東西很重要。請將你的力量用在可以推動世界前進的有價值的項目上。”
(文中部分內容根據編譯資料整理)