{ LIFESTYLE }
26 Jan 2021
把Deepfake應用在色情影片上——Deepfake衍生的性暴力問題值得大眾關注

還記得早些日子網上討論度極高的那條「Tzuyu? is the CEO」的影片嗎?這原本是《Start-Up》中一幕姜漢娜的片段,網民運用Deepfake技術把姜漢娜的臉換成TWICE成員周子瑜,真實得引起熱議。近年,越來越多人利用這個技術,把女性名人的臉移花接木到色情影片中。最近,就有大概24萬韓國網民請願,要求嚴厲懲罰和調查Deepfake網站和使用者。

Deepfake 

把Deepfake應用在色情影片上

「Deepfake」是一種深度虛擬的換臉AI技術,可以分析並提取人的面孔,合成到相片或影片中的不同人物身上,效果非常逼真。這個技術除了引起不少「假消息」問題,最令人擔心的是有人把Deepfake應用在色情影片上。根據Deeptrace2019年的報告,網路上有高達96%的Deepfake影片是未經當事人許可下合成的色情影片,而這些影片的「換臉」對象大多都是女明星。當中,有一些受害女明星更是未成年,這些影片令她們心靈嚴重受創,不敢公開露面。早前,韓國傳媒《news1》再揭發「N號房」以外4個「Deep Fake房」,流傳大量女星合成色情照。一系列的問題正正反映了這項新科技所帶來的威脅,所以韓國已經有大約24萬網民請願,要求嚴厲懲罰和調查Deepfake網站和使用者。當然,這個問題不單單發在韓國,外國、台灣也有大量知名女星的臉被移植到色情影片內容。

Deepfake 

Deepfake

報復性色情影片

除了明星,不少普通人也面對Deepfake帶來的傷害和困擾。我們常常看到情侶手分後,以「報復性色情影片」作威脅的新聞。當它們遇上Deepfake,就更是讓人感到害怕。印度記者Rana Ayyub就是Deepfake的其中一名受害者。她替強姦受害者伸張正義之後就遭人報復,把她的臉移植到色情影片上並廣傳出去,不少網民更對她進行人身攻擊,但她不知道如何向別人說明,影片中的人並不是她。事件嚴重打擊她的心靈,長期承受巨大的壓力。

Deepfake 

科技的發展能為我們的生活帶來便利,但往往也會被人利用作不法事情。隨著Deepfake技術日新月異,涉及的犯罪領域也會不停擴大,每個人在運用這些技術時也應該認真想一想你的行為正為這個社會帶來怎樣的影響。

 


Photo Source: Youtube@squaredotfx、Pinterest



News
Feature
Blog
News
Feature
Blog
Load more
 
NOTIFICATION