我是廣告 請繼續往下閱讀
AI可以成為寄託思念的工具,也能成為詐騙的手段。藝人王仁甫曾經受訪提到,女兒接到過一通市調電話,對方提問「你家在哪?」等問題,女兒當時裝傻回應「不知道」,但沒過幾天,老婆季芹就接到詐騙電話,電話那頭傳來像是女兒的聲音說,「媽媽我現在需要錢,可以轉錢給我嗎?」,好在季芹警覺性高並未因此受騙,但也讓王仁甫直呼「恐怖」,提醒民眾當心聲紋詐騙。
關於聲紋詐騙、AI模擬語音詐騙等,國際上確實時有所聞,台灣事實查核中心曾經做過相關的查核中,台灣警方尚未接獲相關詐騙案例,但別因此卸下心防,因為這樣的詐騙行為確實有可能,專家指出,用短短幾分鐘的錄音去模擬人聲,技術上可行,而擬仿出來的聲音,若仔細聽雖可能聽出破綻,但民眾若在焦慮的情緒下,通話過程不見得能辨識聲音的真假,因此專家建議,民眾在掛上電話後,提高資安意識,養成查證習慣。
為了避免有心人士使用AI語音模擬進行不法行為,這邊來介紹AI影片翻譯「Rask AI」,只要上傳影片,就可透過AI轉譯成其他數十國的語音,同時還會學習影片人物的聲調,變換嘴型等,讓影片中的人物就像是會講其他國語言一樣,被稱之為AI世代的「翻譯蒟蒻」。