我是廣告 請繼續往下閱讀
在持有傳票和搜查令的情況下,警方搜查發現沃倫拍攝鄰居女童的照片後,利用AI技術將這些照片製作成色情影像,根據《CBS》和《NBC》報導,沃倫在會將鄰居女童的原始照片經由AI技術移除身上的衣物,不僅製作成裸露影像,還能生成讓女童擺出各種姿勢,甚至是虛擬的性行為場景。
佛羅里達州馬丁郡警官布勞頓(Brian Broughton)稱,如果只是簡單一瞥根本無法察覺這是經過AI生成的影像,製作性影像的技術已經逼真到讓他感到害怕。報導稱,沃倫在居住的社區當中表現得相當友善,鄰居對他印象良好,然而在他持有的影像當中,最年幼的受害者甚至還不到5歲。
當局稱,調查單位針對超過39個電子設備進行詳細分析,最終發現的影像讓人感到不適,「這些孩子甚至不知道自己成為受害者,所以我們正在打擊的是一種新型態的犯罪形式。」
沃倫目前面臨著17項幾乎都是重罪的兒童性犯罪指控,由於付不出高達150萬美元的保釋金,目前他仍被當局羈押,等候5月2日出庭受審。
這是美國第一起涉及運用AI技術的性犯罪事件,警方正在調查他是否還有涉及其他性影像的製造傳遞或交易,目前美國有9個州已經制定法律,禁止生成或共享未經同意的深偽影像,預計本案將會受到外界高度關注。