AI合成「裸照」勒索 28西班牙少女受害

左圖:西班牙警方對AI裸照製作和傳播事件召開發布會。右圖:受害少女母親阿迪布在社媒上發貼聲討。\網絡圖片

大公報綜合BBC、歐洲新聞台、西班牙《國家報》報道:西班牙發生一起利用人工智能(AI)的深度偽造技術製作少女裸照的事件,疑犯不僅將裸照在校園內及在網上傳播,更有甚者利用裸照進行勒索。至少有28名11歲至17歲的少女成為受害者,當地警方展開調查後,鎖定嫌犯為11名未成年男孩。此事引起外界震驚,同時也引發人們對AI技術被不法利用的擔憂。

西班牙西南部埃斯特雷馬杜拉的阿爾門德拉萊霍警局日前接獲通報,當地未成年少女的社交媒體照片遭到盜用,並經過AI技術生成裸照,在網上大肆流傳。目前已知受害者多達28人,均未成年,11歲至17歲。裸照的流傳對受害人造成極大的傷害,部分女孩甚至「不敢踏出家門半步」。

事件最開始由當地知名婦科醫生阿迪布(Miriam Al Adib)揭露,她的兩名分別為14歲和17歲的女兒都是受害者。阿迪布在社交媒體平台Instagram上發布了視頻,希望引起大眾關注,呼籲受害女孩和家屬一同報警。她透露,女兒稱有人用應用程式製作了裸照,「那些合成照片超級真實,這令人非常不安和憤怒」,女兒看到後感到困擾,照片在網上瘋傳,還有同學留下帶有惡意的評論,照片甚至有可能已經傳到兒童色情網站上了。

部分嫌犯為受害者同學

經警方調查,至少有11名當地的男孩被確定參與了製作上述裸照,並在社交應用程式WhatsApp和Telegram上傳播,甚至用以威脅敲詐受害人。這些男孩年齡僅12至14歲,據稱部分人是受害少女的同學。

報道稱,這些男孩是使用了一個名叫「ClothOff」的AI應用程式來製作裸照,主要利用深偽技術,該程式的口號則是「脫掉任何人的衣服,免費脫掉女孩的衣服」,用戶需要花費10歐元(約83港元),上傳正常着衣的照片,就可以立馬得到25張裸體的照片,效果極其逼真。

另一名受害少女的母親戈梅茲向當地媒體表示,一名男孩試圖用假裸照勒索她的女兒,和男孩的對話顯示女兒拒絕了男孩要錢的要求,於是男孩便發了一張該女孩的「裸照」。

AI監管法律滯後

在西班牙,只有14歲或以上人士才會面臨刑事指控。西班牙沒有法律監管製作涉及成年人的色情圖像的行為,但利用涉及使用未成年人的照片,有可能會被視為製作兒童色情內容。此案另一項可能會涉及盜用社交媒體照片,觸犯隱私權法。有關涉事男童的處罰比較棘手,目前案件已移交少年檢察院處理。

對於使用AI技術能否受到法律懲罰的問題,更沒有相關的立法。馬德里自治大學刑法教授坎西奧指出,這方面西班牙確實存在法律漏洞,在照片中使用未成年人的臉部會侵犯其隱私,但「由於照片是利用深偽技術產生的,因此人們的實際隱私不會受到影響」,但假裸照和真裸照對受害者的影響非常相似,目前在法律監管方面相對落後。他認為,本案適用的法律應是危害道德誠信的犯罪。

另外,對於這種犯罪是否被視為傳播兒童色情製品,專家們意見不一。Audens律師事務所的律師努涅斯認為,關鍵不在於照片是否百分百真實,而在於看起來是否真實,「最重要的是面部是否可識別」。專門從事數字法的律師事務所Font Advocats的律師豐特認為,這可以歸類為類似於複製未成年人色情圖像的犯罪行為,在這種情況下,刑罰可能是五年至九年的監禁。也有聲音批評這些男孩的家長管教無方。

AI「換臉」或能騙過面部識別系統

隨着人工智能(AI)的快速升級,深偽技術(Deepfake)除了可用來「換臉」,在網上傳播錯誤資訊,更被用於繞過面部識別系統,進行身份盜竊和欺詐。銀行等金融機構因此面臨的風險日增,引起監管部門和警方的關注。

3月20日,由AI生成的特朗普與警方衝突的照片在網上瘋傳。(美聯社照片)

自從深度偽造技術用於電影剪輯以來,專家們就擔心該技術可能被濫用,被用來在網上傳播錯誤資訊。隨着聊天機器人ChatGPT和AI生成圖片Midjourney等工具出現,深偽技術不但變得更強大,也降低了使用的技術門檻,更容易被犯罪分子快速大規模利用。

另外,眾多金融機構目前將部分業務從櫃枱轉向線上,使得網絡詐騙的風險進一步增加。傳輸安全公司在6月的一份報告發現,深偽內容可以用來繞過生物識別安全系統,比如保護客戶賬戶的面部識別系統,甚至偽造的身份。不法分子通過讓聊天機器人扮演客戶聯絡員,向受害者套取隱私資訊,來實施犯罪。

為了打擊利用深偽技術所實施的網絡犯罪,業界正在考慮進一步提升反AI檢測系統,例如升級用戶活動檢測系統,詳細記錄用戶的使用習慣,一旦發現有輕微變化即刻提出警告,又或者通過要求客戶眨眼、噘嘴等動態反饋來確保是真人操作。

何謂深偽技術?

•深偽技術(Deepfake),是指利用人工智能深度學習(deep learning)創造出來偽造(fake)信息,專指基於人工智能的人體圖像合成技術的應用。偽造視頻中人面部表情的技術出現在2016年,目前深偽技術已可以用於「換臉」和「換聲」。

•深偽技術過去多用於影視作品,例如在不進行重拍的情況下替換演員角色;但近年隨着AI技術發展,該技術經常被犯罪分子利用,如偽造性愛視頻敲詐勒索、假扮親屬朋友行騙等案件層出不窮。

近期AI造假層出不窮

•8月,香港警方通報,有詐騙分子利用AI換臉技術冒充報失身份證的市民,繞過面部識別系統以申請貸款,警方已逮捕6人。

•5月,中國福建省某科技公司負責人郭某被詐騙團夥利用AI換臉技術騙走了430萬元人民幣(約460.8萬港元),對方在視頻通話中冒充郭某的朋友獲取了他的信任。

•5月,一張據稱是美國國防部五角大樓着火的圖片在網上流傳,導致美股短暫下挫。這張圖片最後被揭發是由人工智能生成。

•3月,社交媒體用戶分享了人工智能生成的圖片,顯示前美國總統特朗普被紐約市執法部門逮捕,這些圖片是使用AI工具Midjourney製作的。

如何防範AI「換臉」「換聲」騙案?

•深偽技術用於詐騙,正在迅速蔓延,香港警方上月提醒市民提高防範意識,例如要求對方在鏡頭前做指定動作或提問,測試真偽,避免接聽陌生人的視像電話,並切勿輕易向陌生人提供人臉、指紋等生物辨識資料。

(來源:大公報A23:國際 2023/09/25)