管制「Deepfake」換臉 現行法律比另立法合適
作者:楊芝青合夥律師
新聞報導去年年中開始,有數名網紅、女明星、女性政治人物的臉部被有心人士利用 Deepfake 技術移花接木到色情影片女優身上,此類經 AI 後製的色情影片並在通訊軟體群組中公開販售。刑事局召開破案記者會後,此案引起社會各界關注、人人自危,本案受害之立法委員表示除將對加害人告到底以外,也因為任何人都可能成為 AI 換臉被害人而名譽嚴重受損,主張對於 AI 換臉另訂法令管制。
「數位性暴力」與傳統「裸照外洩」法益損害幾乎相同
在網際網路社群平台蓬勃發展以後,數位性暴力即層出不窮。常見者莫過於情侶分手後,一方在網路上散佈他方裸照以嚴重打擊其名譽。這樣散佈裸照的行為涉及刑事及民事責任。
刑法規定「意圖散布於眾,而指摘或傳述足以毀損他人名譽之事者,為誹謗罪」;若涉及偷拍,則構成「無故以錄音、照相、錄影或電磁紀錄竊錄他人非公開之活動、言論、談話或身體隱私部位者」之妨害秘密罪;若再於社群中傳播,則涉及「散布、播送或販賣猥褻之文字、圖畫、聲音、影像或其他物品,或公然陳列,或以他法供人觀覽、聽聞者」之妨害風化罪。
最後,若被害人為未滿十八歲之人,上述更涉及兒童及少年性剝削防制條例中加重處罰之規定。以上均為二年或三年以下有期徒刑之刑事罪名。此外,被害人亦得對加害人就名譽權、隱私權、肖像權等人格法益損害請求民事賠償。
Deepfake Media Literacy by Wesley Fryer is licensed under CC BY 2.0(封面)
3D Judges Gavel by ccPixs.com is licensed under CC BY 2.0(內文)
事實上,散佈以 Deepfake 換臉技術製作合成色情影片,相較於傳統之裸照外洩,被害人所受法益之損害幾乎完全相同,故被害人大致均得循上述既有刑、民事法律途徑尋求救濟。此與傳統數位性暴力之差異在於,受害者有二人,即被「竊臉」者以及身體部位被加以合成者。此外,若身體係移接自自願接受錄影的AV女優,該犯罪行為可能不涉及竊錄等妨害秘密罪。
任何人都可能成為「數位性暴力」受害者 立法管制呼聲高
數位性暴力存在已久,但本件引起軒然大波之原因在於,吾人縱使未曾參與容認他人拍攝色情、裸體照片的「危險前行為」,但由於 Deepfake 技術日益發達,仍可能輕易地成為數位性暴力的被害人。因此,除了前述以刑、民事責任追究濫用 Deepfake 技術之加害人以外,對於 Deepfake 技術本身是否需要加以管制、管制之方式及可行性即值得進一步討論。
論者一般認為 Deepfake 技術亦具有正當用途,如當事人本身授權的合成影像、以及無傷大雅的戲謔訪作、謎因等。然而該技術也可能被用於傳播錯、假訊息,延伸族群間的仇恨及對立,並降低人們之間的信賴度。由於資訊傳播快速,錯、假訊息日益氾濫而各國均有立法管制的呼聲,然而若由政府進行言論審查、管制也挑動民主國家敏感的神經。
是故目前較無爭議的因應方式而二,一是對民眾的數位認知教育,使民眾有自行判斷收到訊息真實性的能力,二是對事實查核投入資源,在我國有「Cofacts 真的假的──訊息回報機器人與查證協作社群」及「美玉姨」等,對於有疑問的訊息進行標籤、並搜集其他資訊訊息供使用者自行判斷,而不是直接令平台將其言論刪除、下架。
民事手段下架影片更有效 另立法應深思
以事實查核將二種言論並陳,而不採取直接將言論刪除、下架,為處理政治言論所必須為之妥協。色情言論相對於政治言論來說,在憲法下受保護的程度較低,是以被害人得以前述刑、民事途徑追訴濫用 Deepfake 技術之加害人。
另就促使平台下架虛假色情影片之方式,依我國近期最高法院具參考價值裁判,網路平台倘經檢舉平台上存在侵害其名譽之言論,請求刪除該言論時,應有適當之審核作為義務。
倘網路平台有相當理由足認屬侵害名譽之言論而未為任何防止措施,猶令該侵害名譽之言論繼續存在,可成立不作為侵權行為而負損害賠償責任。直接透過民事手段讓影片下架,相較於單純在平台上將「某名人之色情影片」標示為虛假,應為更有效的救濟。
科技技術日益發達,人們可輕易免費取得如 Snapchat 等具 Deepfake 技術之手機 APP,而此等 APP 又多有通訊等一般正當功能用途,故政府倘欲以禁絕或管制此等 APP 之方式處理 Deepfake 技術濫用,則不但有言論審查疑慮,也實在防不勝防。若嚴格執行,我國既有之刑、民事法律已相當大程度得對應 Deepfake 技術製作、傳播色情影片之數位性暴力,倘若欲另立法令對散佈合成色情影片加重處罰,則須解釋為何此種行為對被害人法益之侵害猶大於散佈真實色情影片,值得再深思。