現如今人工智能讓“換臉”變得輕而易舉,一旦被不法分子利用,會給普通人帶來嚴重傷害。近日,遼寧瀋陽警方公佈了一起利用AI技術合成他人不雅視頻並惡意傳播的案件。
不雅視頻流傳網絡
女子被惡意換臉
今年5月,遼寧的王女士在瀏覽某短視頻平臺時,竟發現自己的“不雅照”被公開傳播。視頻中,她的面部被合成到一個裸體女性的身體上,還配有侮辱性文字。王女士從未拍過類似視頻,隨即選擇報警。
遼寧省瀋陽市康平縣公安局勝利派出所副所長 胡俊焯:報警的時候,因爲感覺這個事比較丟人,她一邊說一邊哭,主要是不知道有多少人看過這視頻,對她影響有多大。

經過技術偵查,警方發現惡意視頻的發佈者指向一個姓劉的男子。到案後據劉某交代,其發佈的不雅視頻是在網絡上找人用AI合成的。
據瞭解,王女士在本地經營着一家理髮店,劉某曾在理髮店短暫試工。由於試工期間的工資問題,兩人產生了分歧,劉某因此萌生了發惡意短視頻報復王女士的念頭。
最終,劉某因觸犯《中華人民共和國治安管理處罰法》,被遼寧警方處以行政拘留十日,罰款500元的處罰。
AI合成有破綻
警方教您來分辨
近年來,利用AI換臉實施的違法犯罪活動不在少數,除了在網上發佈惡意視頻,還有利用AI換臉僞造視頻通話進行欺詐等。日常生活中,被AI換臉有哪些風險?消費者又該如何防範呢?
記者注意到,近年來因AI換臉給消費者造成損失的案件不在少數。
今年五月,上海警方破獲一起專門利用AI生成虛假網戀女友詐騙案,涉案金額達200餘萬元。2024年,內蒙古鄂爾多斯一名消費者曾遭遇AI換臉詐騙,險些損失40萬元。視頻通話中,詐騙人員利用AI換臉技術冒充該名消費者朋友,以資金週轉爲由,誘騙其轉賬40餘萬元。好在警方介入及時才未造成實際損失。 同年,安徽一名消費者也遭遇過相同套路AI換臉詐騙,損失金額達六十餘萬元。

記者調查發現,現如今,AI技術迅速發展的同時,也被一些不法分子盯上,淪爲了非法牟利的工具。
據警方介紹,要想實現AI換臉,過程非常簡單:僅需一張照片,不到十秒就能合成一張換臉圖片。

遼寧省瀋陽市康平縣公安局網絡安全大隊大隊長 鞏超:我們在網上找了一個軟件,先選擇人臉照片,目標照片選擇後,點擊開始生成,這就是一個最初級簡單的AI換臉過程和生成的圖像。
然而,AI換臉視頻雖然迷惑性較強,但也有些破綻。

遼寧省瀋陽市康平縣公安局網絡安全大隊大隊長 鞏超:如果在直播中AI換臉,轉臉的時候,側臉是會虛的。上下左右晃動的時候會有虛影出現。如果是別人和你視頻通話的時候。建議讓對方上下左右晃晃頭,或者用一句方言跟對方說話。他不可能模仿你的聲音,再把你的方言模仿下去。
警方提醒,網絡並非法外之地,任何違法行爲都將留痕,利用AI技術從事非法活動終將會被罰。警方提示消費者應注意保護個人隱私,不隨意上傳包含個人信息的圖片、視頻。

遼寧省瀋陽市康平縣公安局網絡安全大隊大隊長 鞏超:可以去發照片,但不透露個人信息或聯繫方式,還有位置、工作地點。這樣能降低被詐騙的風險。遇到事不要慌,一定要相信,報警一定能幫大家解決問題。