NOWNEWS舉辦「跨世代AI青年力國際論壇」於2025年12月9日登場,聚焦青年AI應用,邀請美國Z世代網路安全領導者Kyla Guru出席,她在論壇發表談話,向在場年輕學子談及如何正確使用AI,她將AI使用分為綠區、黃區、與紅區,呼籲學生們在使用模型時應不斷辯證。

我是廣告 請繼續往下閱讀
AI如同工業革命,只是性質不同

Kyla Guru在《AI青年力論壇》發表演說,首先談到工業革命對人類世界帶來的影響,機器能摸得到,這些機器讓人與人的互動乃至於世界產生巨大轉變,1990年代後的數位革命,有手機或硬碟、ipod等多種裝置,而現在我們經歷的是AI革命,現在的AI革命其實與工業革命類似,只是型態有所不同,因為AI看不到,我們無法觸摸,甚至不知道他是如何運作,即使是建造這些機器的人,也不能完全理解人工智慧的大腦是如何運作的。Kyla也笑稱,台灣在1980年代發明珍珠奶茶,對於全球也是一項重要的發明。

Kyla表示,現在的AI革命,完全改變社會運作方式,沒有實體運作的機器,可以看到GPT生成的答案,為社會帶來許多可能性;但同時,我們需要在最短的時間來適應AI所帶來的影響。AI是指數級增長的,短短兩個月內,用戶從零增加到了一億。

Kyla回顧,自己理解到資安和數位安全性的時候才14歲,她到世界許多地方與學生分享,讓各地學生理解關於資安的知識。她從史丹佛大學取得了電腦科學的學士和碩士學位,並在美國的一家大型語言模型公司工作,在模型中植入人工智慧安全,每天都在研究和思考很多安全問題。

Kyla也表示,台積電製造的晶片影響了全世界,這些晶片也有許多的運算,讓這些AI能夠了解大家的問題,她舉例,如「天空是什麼顏色?」這樣的問題,晶片會運行計算,模型生成「藍色」這個詞語,然後這個詞語會被發送給另一端的用戶。

正確使用AI的方式

Kyla指出大多數人都曾使用ChatGPT,18至24歲的年輕人是人工智慧模型最活躍的用戶。她回溯,在60年代,許多老師擔憂,計算機普及會讓學生不會學數學,但後來發現計算機並不是老師的敵人,而更能把問題放在困難的部份上。AI也是如此,能解決結構性問題,讓我們能夠思考得更遠大。

Kyla也提到應用AI的正確方式,不是直接叫他寫一篇論文,她坦言自己也曾這樣做過,但如何善用?她舉例,可讓ChatGPT以台灣半導體為例進行解釋並比較優勢,試著讓模型與你辯論;她又舉例,又如外國出口管制這一問題,也可讓GPT試著辯論,以經濟學方法論的觀點試著與你交談,為它打造一個身分。

她又舉例,例如行銷課程設計LOGO,當我們設計出10個LOGO,可能是草圖或初步藍圖,我們預設TA或消費者,請GPT提供建議,接下來可詢問,設計是否有忽略到任何無障礙設計原則;她強調,要將AI當作夥伴或隊友,不要反讓她掌握你自己的學習狀況。

在準備這次演講時,Kyla坦言,自己也讓Claude審查了演講稿,並告訴它:「嘿,Claude,這對台灣學生觀眾合適嗎?」

Kyla以綠燈、黃燈、紅燈三個燈號來歸類使用AI的自我警示,在綠燈區,就像是某件事你第一次聽到時不太理解,可以去問模型請它解釋,並試著來回交談,最後請它總結交談的要點。而在黃燈區,你可以考慮使用人工智慧模型為你總結閱讀材料,也許你沒有閱讀,但你要求模型總結閱讀材料,或者為你的論文提出核心假設,或者撰寫段落。

至於AI使用的紅區,Kyla指出,如果你將所有內容丟給GPT請它撰寫,且不反覆驗證,也未向你陳述事實,進而讓模型代表你做出決定,這可能不太行,我們需要進一步參與這個決策。

AI不能取代人類的關鍵在人性與創意

Kyla表示,使用AI有很多創意方式,可以當作夥伴,它不會批判你,可以問任何問題,將課堂不敢問的問題都問她,儘管教授向你解釋過,還是能問,但AI並不是完全正確,學習還是要靠自己。

Kyla舉例,如果要創立公司,真正的執行長是你,AI只是你的共同創辦人,AI與你找到一些複雜的問題,一起解決,也許能幫你打造網站或APP,針對公司內部財務進行管理,還有很多關於AI我們無法回答的問題,有許多創意的方法還能夠應用,甚至包含心理健康部分。

當然,隱私權也是非常重要的層面,Kyla強調,使用AI需要謹慎,我們要去提問前述綠區、黃區、紅區的問題。

Kyla表示,AI能給你資訊,指導你該怎麼做,AI也可以寫程式碼,幾乎完成所有工作,但這樣表示人類沒價值了嗎?她認為當然不是,我們之所以為人,是因我們的好奇心,既然AI能做那麼多事,現在的我們應該要有那些重要的技能?她認為其中一個是創造力,AI無法識別問題,需要給提示才能找解決方法,所以必須先找到問題,作為使用者,你必須注意到存在哪些問題,將遙遠的點連接起來,並追求價值驅動的創新。

此外,還有批判性思考,AI有時很自信給出一個答案,但當你在告訴AI這是錯誤的時候,AI也會轉變答案,她舉例,台灣也會AI誤認為泰國,批判的思考求證,因為AI是被訓練的資料,仍需透過GOOGLE或其他來源佐證。

Kyla指出,AI可以修改文法或語氣,但無法做到讓人感受到現場的氛圍,還有建立長期的信任,AI也無法展現同理心,這是AI做不到的人性層面。

最後,她強調,AI或許會在某些情況下給你建議,但人與人的連結關懷同理,這是AI做不到的,我們應該真正展現的是更有價值的人的技能,關懷與理解。

Kyla Guru小檔案

年僅22歲的Kyla Guru是國際矚目的青年資安與科技教育倡議者。她在 14 歲時創立非營利組織 Bits N’ Bytes Cybersecurity Education (BNBCE),致力於推動弱勢族群與青少年族群的資安教育;同時也是著重女性科技領域參與的 GirlCon Conference 共同創辦人。

她曾於 Apple Security Operations、美國網路安全與基礎設施安全局(CISA) 等單位任職,經歷橫跨科技產業與政府部門,並受邀至全球各地進行資安與科技倫理演講,包括 RSA Conference、TEDx 舞台等,是新世代中最具代表性的 Gen Z 科技領袖之一。

更多「2025AI青年力」相關新聞。