深偽技術精進 AI自製不雅照

深偽技術精進 AI自製不雅照

文/陳韻涵輯

新聞故事:美國德州達拉斯市14歲少女艾利斯某日早晨起床後,發現手機收到超多訊息,赫然發現有著自己肖像的不雅照正在社群媒體上瘋狂流傳,但她根本沒有拍過這類照片,這些圖片其實是透過「深度偽造」技術(deepfake,簡稱深偽)變造製成。

隨著深偽技術精進,如同艾利斯的受害者愈來愈多,加害人從社群媒體Instagram下載被害人的照片,接著以人工智慧(AI)深偽技術將被害人的臉部與其他人的裸露軀體合成。艾利斯表示,不只她,其他女同學也成為照片竊盜的目標與深偽技術的受害者,這類合成照片在聊天軟體Snapchat上被惡意散布,重創被害人的身心健康。

艾利斯接受《法新社》訪問時說道:「那些不雅照片看起來就像真的一樣,幾乎找不出合成的痕跡。我當時非常害怕,但我真的從來沒有拍攝過任何不雅照。」

AI蓬勃發展讓深偽技術成熟且普及,照片與影片遭盜用、濫用、變造、換臉的事件頻傳。美國多所高中出現騷擾案例,但華府截至11月底尚未針對變造不雅內容的聯邦法律,只有極少數州頒布相關州法規範,讓多數學校難以依法阻止類似情事發生或制裁有心人士。

艾利斯的母親安娜‧麥亞當斯說:「這些青少女泣不成聲,感覺非常羞愧,她們不想上學。」艾利斯就讀的達拉斯郊區學校並非唯一個案,新澤西州東北部一所高中也有類似案例。

14歲受害少女的母親多羅塔‧馬尼指出,校方只有在受害者出面指控時才會啟動調查,根本為時已晚,深偽不雅內容早已在網路上流傳。她說:「很多受害者甚至不知道自己的臉遭盜用合成。」

美國總統拜登10月底簽署一項AI行政命令,呼籲國會通過資料隱私立法,禁止未經同意變造私密圖像。

柏克萊加州大學資工系教授法里德表示,即便難以糾舉變造圖片的幕後黑手,也不能成為產製相關圖片的AI技術公司或散播照片的社群平台卸責的藉口。

維吉尼亞大學AI倫理專家蕾妮‧康明斯表示,「當一個人的臉被合成在不屬於你的身體上」,可能產生「法律矛盾」,現行法律禁止在未經他人同意的情況下傳播不雅照,但可能不適用於深偽圖像。康明斯不諱言表示,「任何擁有智慧型手機和一點小錢的人」,就能使用軟體合成製作圖片,而深偽不雅內容「可能毀掉被害人的生活」,受害人主要是年輕女性,她們可能自此產生焦慮、憂鬱和創傷後壓力症候群,往後的人生都會有陰影、疙瘩且受影響。

原文出自《好讀周報》748期