返回網站
返回網站

「創造即傷害」:AI性影像的法律真空與企業責任

AI性影像的法律真空與企業責任

· 科技與AI,人權社會-數位人權

撰稿人:Lia / 責任編輯:Zaphyra

明尼亞波利斯,一場長達21年的友誼因一次毀滅性的發現而告終。三名女性—茉莉·凱莉(Molly Kelly)、梅根·赫爾利(Megan Hurley)與潔西卡·古斯特(Jessica Gustles)—偶然得知,她們的一位親密共同友人「班」(Ben),利用「Deep Swap」等AI應用程式,將她們的臉部圖像,與色情影像和影片進行了合成。受害者名單最終擴及了她們緊密社交圈中的80多名女性。班所使用的素材,僅是她們在Facebook、LinkedIn或婚禮上發布的、完全無害的生活照片。這起事件赤裸裸地揭示了一個正迅速失控的全球性危機:AI技術的普及,已將「性影像虐待」(image-based sexual abuse)的武器,交到了任何一個擁有網路瀏覽器的人手中。凱莉在檢視那些影像時所感受到的衝擊,是這場技術暴行的核心:「我的臉,非常逼真地出現在別人的身體上……它粉碎了你的大腦。」 這場背叛所造成的創傷,遠非數位騷擾所能概括。受害者們將其比擬為「等同於性虐待倖存者的創傷」,引發了自殺意念、自我傷害、長期的恐慌發作,以及嚴重的職業焦慮。身為按摩治療師的赫爾利,便活在擔心客戶可能看過這些影像,並前來「再次加害」的恐懼之中。古斯特甚至因此停止在社交媒體上活動,從未公開宣布她第二個孩子的誕生。

這起明尼亞波利斯的背叛事件,並非孤立的犯罪;它是一個年產值高達數千萬美元、由全球科技巨頭共同滋養的龐大產業生態系的必然產物。根據一份2023年的產業研究報告,僅是排名前85個「Nudifier」(一鍵裸體)網站,每年就至少創造3600萬美元的收入,每月吸引高達1860萬的獨立訪客。而這尚不包括Google Play和Apple App Store中數以百計、偽裝成「趣味換臉」或照片編輯器的惡意應用程式。分析師已在兩大應用程式商店中發現了約400個此類應用程式。這個生態系之所以能猖獗發展,依賴於一個完整的「共犯結構」:基礎設施由亞馬遜(AWS)和Cloudflare等公司提供雲端主機;廣告由Meta(Facebook/Instagram)和Google的平台推播;社群則由Discord和Telegram等平台提供客製化服務的交易市場。科技巨頭們的反應,是典型的「打地鼠」(whack-a-mole)。Meta雖然在2024年6月對「Crush AI」這款應用程式提起了訴訟,但受害者批評,這不過是公關作秀:「他們本可以輕易地僱用一個團隊來檢查所有廣告,他們可以編寫程式碼來檢查這些功能。」 與此同時,如伊隆·馬斯克(Elon Musk)的xAI,其Grok模型甚至內建了能生成公眾人物部分裸照的「辛辣模式」(spicy mode),顯示了這種濫用在主流科技文化中的常態化。

這場危機的核心,在於美國法律的系統性失靈。目前,美國的「報復性色情」(revenge porn)法律,以及2024年5月新通過的聯邦《將其下架法案》(Take It Down Act),都只針對非自願性影像的「散布」(distribution)行為定罪。這創造了一個致命的法律真空:在美國,僅僅「創造」這些偽造的性影像並將其儲存在個人設備上(如班所聲稱的),是完全合法的。茉莉·凱莉一語道破了這個荒謬的困境:「他贏了。根據法律,他沒有做錯任何事。」 現行法律將舉證和尋找的責任,完全丟給了受害者。凱莉被迫「一頭扎進網際網路非常黑暗的角落,尋找我自己並未製作的色情作品」,這本身就是一種殘酷的二次創傷。為此,明尼蘇達州參議員艾琳·梅·奎德(Erin Maye Quade)正推動一項革命性的州級立法。該法案的核心是「向上游追溯」(go upstream),不再追逐無數的個人使用者,而是直接追究「企業」的責任。該法案提議,對任何提供「Nudify」功能的公司,每一次非自願性影像的「創造」,處以50萬美元的罰款。這項法案迫使人們回答一個根本問題—正如受害者所質問的:「為什麼『裸體化』功能需要存在?請告訴我,作為一個受害者,為什麼這項技術需要被輕易取得,又為什麼公司需要用這種方式賺錢?」

全文

Lia. Independent Media 台北報導

在2025年的數位景觀中,人工智慧(AI)不再是未來的承諾,而是當下的現實。然而,伴隨其強大能力而來的,是一種新型態的、大規模製造的暴力。在明尼亞波利斯,三位女性—茉莉·凱莉(Molly Kelly)、梅根·赫爾利(Megan Hurley)與潔西卡·古斯特(Jessica Gustles)—的生活,因這項技術而徹底脫軌。

她們陷入了一場超現實的噩夢。她們發現,一位認識長達21年的親密友人「班」(Ben),在數年間,系統性地使用Deep Swap等AI工具,將她們的臉—取自Facebook個人資料、LinkedIn頭像,乃至家庭婚禮照片—嫁接到極端露骨的色情影像和影片上。受害者名單最終擴及了80多名女性。

這起事件撕開了一個長期被忽視的真相:AI驅動的「性影像虐待」(Image-Based Sexual Abuse, IBSA)已不僅僅是針對名人(如2018年的史嘉蕾·喬韓森或近期的泰勒·絲薇芙特)的零星騷擾。在生成式AI於2022年爆炸性普及後,這已演變為一場針對普通人、尤其是婦女和兒童的全球性流行病。

這場危機的核心,並非單一犯罪者的惡意,而是一個由科技巨頭的冷漠、法律的真空、以及巨額利潤所共同構築的龐大產業生態系。

數位創傷—「它粉碎了你的大腦」

要理解這場危機的嚴重性,必須先理解其傷害的本質。這不是單純的「偽造」或「誹謗」;受害者和專家一致認為,這種經歷所造成的創傷,等同於「實際性虐待倖存者的創傷」。

當茉莉·凱莉第一次看到那些影像時,她描述道:「我的臉,非常逼真地出現在別人的身體上……它粉碎了你的大腦。」

這種「大腦被粉碎」的感覺,源於對現實感和自我認同的根本性剝奪。

恐慌與焦慮: 潔西卡·古斯特在事發後,「有一段時間無法離開家門」,「焦慮感衝破了屋頂」,並且至今「仍會恐慌發作」。

社會性死亡: 這種創傷不僅是內在的,更是社會性的。古斯特停止了所有公開的社交活動,她「從未宣布我第二個孩子的誕生」。她害怕任何公開的資訊,都可能成為下一次攻擊的素材。

職業威脅與再次加害: 梅根·赫爾利是一名按摩治療師。她的恐懼更為具體:「我擔心有人會看到我的這些色情作品,使用反向圖像搜尋,找到我們的工作網站(那裡有我的照片),然後來到我的工作場所—一個他們可以裸體的地方並可能再次加害於我。」 這種恐懼迫使她「有很長一段時間停止了親自工作」。

潔西卡·古斯特的另一段話,總結了所有女性在AI時代面臨的新恐懼:「我以為,因為我從未拍過裸照,我從未交換或發送過裸照給任何人,至少我不用擔心我的裸照會外流。嗯,那不是真的了。這對任何人來說,都不再是真的了。」

年收3600萬美元的虐待生態系

班的罪行之所以能夠實現,是因為他背後有一個年產值數千萬美元、高度成熟的產業生態系在為他「賦能」。

根據網路安全公司Graphika在2023年發布的一份關鍵報告,全球存在一個龐大的「Nudification」(裸體化)生態系。

市場規模: 報告指出,僅排名前85個「Nudifier」網站,每年就創造至少3600萬美元的收入,每月合計吸引高達1860萬的獨立訪客。

易取得性: 市場存在至少200種此類軟體,它們以「Undress」、「DeepNude」、「Crush AI」等煽動性名稱自我推銷。使用者只需支付低廉的訂閱費(如每月19.99美元),或在Discord等伺服器上支付平均約87.5美元的價格,就能客製化他人的性影像。

這個龐大產業的運作,完全依賴主流科技巨頭的基礎設施與平台。這是一個環環相扣的「共犯結構」:

基礎設施 (IaaS): 史丹佛大學網路觀測站(Stanford Internet Observatory)在2023年的研究證實,包括亞馬遜網路服務(AWS)和Cloudflare在內的雲端服務商,是這些「非自願私密影像」(NCII)網站的主要託管者。當CNBC就此問題聯繫AWS時,AWS僅提供了制式回應:「我們迅速採取行動進行審查……如果任何人懷疑AWS資源被用於濫用活動,他們可以……舉報。」

廣告平台 (Meta / Google): 這些服務如何找到客戶?透過在Facebook、Instagram和Google上的精準廣告。為了規避審查,它們常偽裝成「良性、好玩的」、「無辜的換臉」應用程式。Meta(Facebook的母公司)直到2024年6月,才遲遲對在香港註冊的「Crush AI」提起訴訟。 受害者茉莉·凱莉對此類公關行動嗤之以鼻:「太好了,他們起訴了那個應用程式……但他們本可以輕易地僱用一個團隊來檢查所有在Facebook上投放廣告的應用程式,確保它們沒有裸體化功能。他們可以編寫程式碼來檢查,對吧?」

應用程式商店 (Apple / Google): 分析師在兩大官方應用程式商店中,就發現了約400個此類惡意應用程式。儘管蘋果和Google聲稱其政策禁止「冒犯性、過度性化或色情」的內容,但顯然,其篩選流程存在巨大漏洞。

AI模型 (xAI / OpenAI): 更令人不安的是,這種功能的開發正從地下轉向主流。伊隆·馬斯克(Elon Musk)的xAI在2024年8月發布的Grok Imagine模型,被發現擁有一種「辛辣模式」(spicy mode),能夠生成公眾人物的部分裸照。這表明,將AI用於生成非自願性影像,在部分主流科技文化中甚至不被視為一個嚴重的倫G理問題。

法律的真空—「創造」為何合法?

這個價值數千萬美元的產業之所以能蓬勃發展,其根源在於美國法律的一個系統性、災難性的漏洞:創造(Creation)與散布(Distribution)的脫鉤。

在明尼亞波利斯,當三名受害者向警方報案時,她們震驚地發現,班的行為—儘管在道德上應受譴責—在法律上卻幾乎無懈可擊。班聲稱他只是將這些影像「本地儲存」(stored locally)。

在美國,幾乎所有的「報復性色情」法律,都只針對非自願性影像的「散布、分享或威脅散布」行為定罪。2024年5月,美國聯邦通過了《將其下架法案》(Take It Down Act),這確實是重要的一步,它將「未經同意散布真實或偽造的性影像」定為聯邦犯罪。

然而,這部法律是完全不夠的。

首先,它依然只懲罰「散布」。茉莉·凱莉尖銳地指出了這個荒謬的現實:「他贏了。根據法律,他沒有做錯任何事。」

其次,它將所有的舉證、發現和移除責任,全部壓在了受害者身上。凱莉描述了她試圖利用該法案的經歷:「我試著找了一段時間,這真是太糟糕了—你必須一頭扎進網際網路非常黑暗的角落,尋找你自己並未製作的色情作品。這太瘋狂了。」

這種法律設計,本質上就是一種制度化的二次創傷。它要求受害者在遭受了第一次(創造)的傷害後,必須等待第二次(散布)的傷害發生,然後親自去驗證這場傷害,才能啟動微弱的法律保護。而傷害一旦發生,影像在網際網路上的傳播是永久且不可逆的。

「向上游追溯」—明尼蘇達州的企業責任法案

面對聯邦法律的失能,明尼蘇達州參議員艾琳·梅·奎德(Erin Maye Quade)決定從一個根本不同的角度解決問題。她意識到,試圖起訴成千上萬的個人使用者(如「班」)是徒勞的;真正的症結,在於那些從中獲利的「企業」。

梅·奎德參議員在2024年提出了一項州級法案(HF 3479 / SF 3543),其核心理念是「向上游追溯」(go upstream)。

法案核心: 該法案不再關注「散布」,而是直指「創造」。它提議,任何公司或平台,只要其AI工具被用於「創造」非自願的深度偽造色情影像,每「創造」一張影像,該公司將面臨50萬美元的鉅額罰款。

哲學轉變: 梅·奎德參議員解釋了她的立法邏輯:「我一直在思考,我們該如何讓個人為『企業』所創造的傷害負責……我們想往上游去,因為『傷害在於創造』,如果公司允許它被創造出來,我們為什麼不追究他們的責任?」

這項法案,是美國第一部試圖將法律責任從「使用者」轉移至「工具製造者」的立法。

科技的傲慢—「阻礙進步」或「道德發展」

梅·奎德的法案立刻引來了科技遊說團體與部分國會議員的強烈反對。 反對的理由主要有二:

言論自由(Free Speech): 反對者試圖將「創造」AI影像的行為,納入言論自由的保護傘下。梅·奎德對此反駁道:「(人們)普遍同意這不是那個問題,對吧?這是關於科技的監管,與言論無關。」

阻礙AI進步: 這是科技產業最常使用的論點—任何監管都會「阻礙AI的進步」。

對於第二點,受害者茉莉·凱莉的回應最為有力。當被問及她對科技公司擔憂的看法時,她說:

「我所聽到的只是:『我們不想為我們以任何方式、形態或形式所造成的任何傷害負責』

他們說『阻礙』,我們說『合乎道德地發展』(develop ethically)。」

這場辯論的核心,暴露了矽谷長期以來的心態:在「AI競賽」 和追求「強大AI」的祭壇上,普通人(尤其是女性)的尊嚴和安全,是可以被犧牲的。

一個必須回答的問題

梅·奎德參議員的法案雖然在明尼蘇達州參議院獲得通過,但仍在眾議院面臨阻力。與此同時,由於許多開發者位於海外,執法的困難性(如澳洲政府在2024年9月宣布的禁令)依然巨大。

但明尼蘇達州的立法嘗試,至少迫使整個社會開始面對一個最根本的問題。這個問題,由茉莉·凱莉在專訪的最後提出,它應該被刻在每一間AI實驗室的牆上:

「我非常想聽聽政治家和從事這項技術創新的人的回答:為什麼『裸體化』功能需要存在?你告訴我,作為一個受害者,為什麼這項技術需要被輕易取得,又為什麼公司需要用這種方式賺錢?」

在AI技術以「親吻App」(kissing apps,可生成任意兩人接吻的逼真影片)等形式不斷進化的今天,如果社會無法回答這個問題,那麼我們就是在默許這種行為的正常化。而下一個受害者,可能是任何人。

資料來源

CNBC: How AI-powered ‘nudify’ apps are ruining women’s lives
https://www.cnbc.com/2024/10/01/how-ai-powered-nudify-apps-are-ruining-womens-lives.html

Graphika: The Nudification Ecosystem: An Analysis of the Websites and Services Creating Non-Consensual Nudity
https://graphika.com/reports/the-nudification-ecosystem

U.S. Congress (Congress.gov): S.3682 - Take It Down Act (118th Congress)
https://www.congress.gov/bill/118th-congress/senate-bill/3682

Minnesota Legislature: HF 3479 / SF 3543 (As introduced) - "A bill relating to artificial intelligence; prohibiting the creation or dissemination of nonconsensual deep fake sexual images..."
https://www.revisor.mn.gov/bills/bill.php?b=house&f=HF3479&ssn=0&y=2023

Reuters: Meta sues developer in Hong Kong over 'Crush AI' nudify app https://www.reuters.com/technology/meta-sues-developer-hong-kong-over-crush-ai-nudify-app-2024-06-21/

Stanford Internet Observatory: The Ecosystem of Nonconsensual Intimate Imagery (NCII)

Cyber Civil Rights Initiative (CCRI): U.S. State Laws (Image-Based Sexual Abuse) https://cybercivilrights.org/us-state-laws-ibsa/

上一篇
「先買後付」模式重塑消費金融,傳統銀行面臨挑戰
下一篇
中國跨境金融駭侵與數位憑證中繼攻擊之技術路徑解析
 返回網站
Cookie的使用
我們使用cookie來改善瀏覽體驗、保證安全性和資料收集。一旦點擊接受,就表示你接受這些用於廣告和分析的cookie。你可以隨時更改你的cookie設定。 了解更多
全部接受
設定
全部拒絕
Cookie 設定
必要的Cookies
這些cookies支援安全性、網路管理和可訪問性等核心功能。這些cookies無法關閉。
分析性Cookies
這些cookies幫助我們更了解訪客與我們網站的互動情況,並幫助我們發現錯誤。
偏好的Cookies
這些cookies允許網站記住你的選擇,以提升功能性與個人化。
儲存