我是廣告 請繼續往下閱讀
即使ChatGPT快速導入了新的訂閱模式,但許多付費使用者,目前仍常遇到服務滿載的卡頓狀況。謝昀澤認為,「答案有感的機器人,會取代只是歷史讀稿的機器人」、「反應快速的機器人,會取代頁面自轉圈圈的機器人」,但是如何判斷答案是「正確」且「適用」的機器人,將會是使用者的最大挑戰。
謝昀澤分析,各大廠生成式人工智慧大對決的後續觀察重點,除了在採用訂閱營利或廣告營利?如何以API創造生態圈?如何與瀏覽器或辦公室軟體整合?等「商業模式」比拚外,誰能持續稱霸AI進化世界的關鍵,還是在有沒有足夠的AI「科技治理」能力上。而影響未來生成式AI風險,需要被嚴格治理的「暗黑情境」,包含「更迷離的深假(Deepfake)」、「更智慧的駭客」及「更暴露的使用者隱私」等危機。
以「深假技術」為例,目前已經可以做到,使用甲的臉孔,搭配乙的身材與動作,自然的用丙的嘴型說出的變造的內容。然而,生成式AI技術大躍進,就像是雙面刃,如果駭客或是犯罪組織使用相同的技術,將會造成重大的損失。
他舉例,駭客用ChatGPT針對不同企業,產生數萬封釣魚郵件後,再運用偽造聲紋假冒財務長致電財務人員進行匯款;或駭客用生成式AI的強大分析與歸納功能,找出藏於企業內部未曾發現的弱點,藉此進行網路進階攻擊或機密竊取。同時,因為生成式AI也具備程式撰寫的優異能力,惡意程式開發門檻將大幅降低,連不會寫程式的人都可能當駭客等危機。
雖然各AI系統都訂有使用規則與迴避有害內容的功能,但目前還是有許多控管措施的漏洞,都可能被有心人士繞過。安侯企業管理公司執行副總經理林大馗預測,如果生成式AI連動既有的深假技術威脅,可能導致風險加乘,未來AI所創造的假文章、假程式、假郵件、假影片將大量湧現且難以識別,進而影響到生成式AI的正確性。企業資安除了標配防火牆與防毒軟體外,可能還需透過「人工加工人智慧」的打假工具及內容確認工程師等協作,才能有效降低AI所帶來的資安風險。
林大馗建議,在新興的風險治理工具尚未成熟前,一般企業成可建立「智慧型主動式」的防護能量,例如在公開影片中添加專屬的雜湊值或安全憑證,或利用深假技術尚未能完整學習受複製對象側面的技術缺陷,於視訊會議中請客戶往左或右轉頭90度並維持一小段時間等。如果是深假影片,可能會有人臉閃爍的情況,這除確保來源的真實性並防止駭客暗中蒐集與惡意竄改,更可避免駭客用以對其他消費者進行欺詐。
此外,也可擴大運用「MFA多因子認證」讓消費者透過2種以上的認證機制,才能取得授權,如再搭配實體安全金鑰等控制技術與避免單一持有設備(像是手機)取得所有認證資訊等方式,應可有效降低「深假技術」與「更智慧的駭客」帶來的威脅。
為了降低駭客攻擊的的風險及提升使用者隱私安全性,企業亦可參考零信任(Zero Trust)資訊架構,避免以一次驗證後即可長時間與完全取用所有服務的傳統做法,改採依據不同的服務風險等級、搭配多次且不同方式驗證,降低單一識別方法失效的災損程度,確保適當與匹配的風險控管。
針對「深假進化」危機,林大馗也提醒網路使用者,開始要建立「眼見不為憑」的警覺,一般民眾必須理解,過去習慣的「有圖有真相」有可能會變成「看片都上當」。網路收到影片時,應該先收起對主題、內容的好奇心、也要杜絕「先睹為快」的心態、更要盡量避免「呷好道相報」的習慣,除了選擇安全可靠的科技應用廠商或服務外,更應該避免於網路、社群媒體上過度揭露個人資料,對個人行動裝置的防護認知也要強化。