Deepfake黑科技。眼見「不」為實 ?
俗話說:「眼見為實,有圖有真相」,但你可否想過,這「圖」是真實存在的嗎?
Deepfake,英文「Deep Learning」和「Fake」所混合而成的單字,也就是將「深度學習」加上「偽造」,專指基於人工智慧(AI)的人體圖像合成技術的應用,白話一點,便是「深偽技術」。是不是看似複雜,像是科研人員討論的專業名詞? 不!其實它已經滲入我們的生活中。近年來流行的換臉APP:Face
app,能模擬用戶變年輕或變老的臉,卻有個資曝光的疑慮、Deepnude、Telegram等類似程式,可將上傳的女性照片一鍵脫衣,偽照出極為相似的裸露圖,帶給全球女性極大的困擾、中國軟體ZAO,只要上傳照片,便可將自己替換成戲劇、電影角色,過一把主角癮,但卻衍生出侵犯用戶隱私的問題。這些app,我相信大家或多或少都有嘗試過,你看,只是一時有趣而下載的小程式,卻全部都是Deepfake技術的應用,如此一來,你還能說我們與Deepfake毫無關連嗎?
但細思即恐,Deepfake技術能做到的不僅如此,如果只是將自己的臉替換到既有的劇照上,厲害的PS大師也能做到,但現在,此種AI技術已成熟到可運用於影片中,製造以假亂真的效果,甚至不會有違和感!舉以下兩個影片為例:歐巴馬的演講影片:前段看似普通的談話,最後一句歐巴馬卻說出了「川普總統完全是個笨蛋」,影片製作者完美利用了AI技術改變嘴型與聲音,若不細看根本無法察覺、變成湯姆克魯斯:美國科技網站 Popular Mechanics 分享了一支男星比爾海德的影片,影片中可看見比爾的表情突然變得很像知名男星湯姆克魯斯,事實上,我們必須承認Deepfake技術已不像以往肉眼就可看出的不自然假臉,透過電腦運算,不僅能複製出逼真的人臉,包括換臉、控制嘴唇,植入假造的音源檔等都辦得到。
而這些影片也點出了幾點問題:
1. 當影片能被那麼完美的篡改,若是被不肖人士當成散播假消息的武器,身為被動資訊接收者的我們,該如何判斷何者為真、何者為假? 培養媒體識讀的能力:前陣子美國大選,網上各色假消息層出不窮,也對選情造成一定的影響,我們不得不正視假新聞對於社會、政治、經濟擁有著重大影響力,身為閱聽人,我們應當做到的便是「分享之前,先停下來想一下」以及「對所有消息都保有懷疑」的態度、Twitter
針對Deepfake的新政策:為防範日漸猖獗的假新聞、假議題,Twitter以「不禁止,但一定明確標示」的態度來因應,明確標記此類推文,並加註警語與附上鏈接,讓閱聽人可以從各種來源來理解為何這份媒體會被標註,若使用者發現疑似Deepfake之假消息,也可#TwitterPolicyFeedback 來直接註記協助 Twitter 進行審查。
2. 在這個資訊爆炸的時代,任何人都不能保證有關自身的私密訊息、肖像能完全不出現在網路上,也無法得知會出現在哪些管道上,我們能做到什麼呢? 正如洪朝貴老師上課所述,只要在FB上按讚超過300次,它對我們的瞭解便遠超過最親近的家人、愛人、朋友,至於要如何防範呢? 說來容易卻難執行,那便是盡量做到「不要在網路上留下任何個人痕跡」,現在網路生態相當發達,有人以經營社群軟體為興趣、工作,而線上購物的方便性,也助長了個資洩露的可能性,在保護個人隱私與網路的種種便利中,我們必然要做出一些取捨。
3. 是否又有新的詐騙手法出現? 在此引用UCL 電腦科學系 Matthew Caldwell 博士所言:「與許多傳統犯罪不同的是,數位領域的犯罪可容易地分享、複製、再現,甚至出售,這使犯罪技術可推廣,犯罪也能當作服務提供。這意味著犯罪分子可將最具挑釁戰力的 AI 犯罪攻擊手法外包給有心人。」,實際上,現實已經發生多起利用深偽技術的詐騙案件:原本鎖定企業的商業電子郵件詐騙(BEC),在Deepfake技術加持下,讓身分冒用攻擊的管道從電子郵件延伸至視訊與電話,在2019年下半,有一家英國能源公司的執行長,就因為誤以為接到德國總部執行長的來電,進而聽從對方指示匯錢,因此被訛詐了22萬歐元。其實,這並非真正德國總部執行長的來電,是駭客集團以Deepfake技術偽裝成老板聲音,所下的命令。這是多麼可怕的案例!
當然,我們也不是對Deepfake影片毫無辦法,一篇刊登在 IEEE PAMI (模式分析與機器智能彙刊)上的論文稱,有新的方法能夠準確辨識 DeepFake 影片,甚至能以很高的準確率,辨識出影片採用的是哪種 DeepFake 演算法,辨識的方法也很有趣,不是一層一層分析影片有沒有偽造的痕跡,而是直接辨識「臉部因心跳血流產生的微弱變化」,影片中的人類若是本人,那麼經過一些特定處理後,你會看見像脈搏般一跳一跳的感覺,若是影片有被「加工」過,那麼呈顯出來的便會是不自然、沒有連續性的變化跳動,Apple Watch、血氧儀等也是採用此種方法,有一定的可信度與可行性(詳細比對可參考這篇文章
)。
另外,科技大廠也運用廣大的社會號召力,試圖發展出可辨識惡意惡意偽造影片的偵測模型。例如,在2019年9月,微軟和臉書發起了競賽,名為Deepfake
Detection Challenge,就是希望集眾人之力,找出更好的偵測方式。而在2020年6月,全球2千位AI專家參賽,陣容相當龐大,但從公布的比賽結果來看,辨識假造影片成效最高只能認出8成,而且,參賽模型無法準確判讀未知資料,而這也顯示現有技術辨識假造影片仍有困難,令人遺憾。
而美國華盛頓大學兩名教授─Jevin West與Carl Bergstrom共同設立了一個名為Which Face is
Real的網站,該網站利用對照組的相片,邀請民眾判讀真人照與合成照的差別,並提出「不對稱」以及水漬、眼鏡、頭髮為分辨是否為合成照的線索,希望以此提高民眾對假身分的警戒心。
科技帶來進步,卻也帶來危險,我們不否認Deepfake技術有它的可造之處,但是以現況來看,卻是弊遠遠大於利,正如葛如鈞先生所述:「大家太相信自己的判斷力了。要能真的不上Deepfake的當,每個人都應該自帶一個防禦機制—也就是相信你自己絕對看不出真假,才有辦法抵禦」,以此共勉。
1.
何為Deepfake:(1)
(2)
(3) (4)
(5)
2.
運用深偽技術(Deepfake)相關:(1)
(2) (3)
(4) (5)
(6) (7) (8) (9) (10)
(11)
留言
張貼留言