top of page

當 AI 生成色情 Deepfake 被封鎖:AI 安全比你想像更重要


當 AI 生成色情 Deepfake 被封鎖:AI 安全比你想像更重要
當 AI 生成色情 Deepfake 被封鎖:AI 安全比你想像更重要

在香港積極推動人工智能轉型之際,AI 的安全與倫理規範已成為職場應用中不可忽視的一環。本文旨在探討近期國際間對 AI 工具的法律限制,並從專業背景出發,為非工程背景人士解析 AI 技術落地時應具備的判斷力與社會責任,協助讀者將 AI 工具正確且安全地融入日常工作。


最近 AI 世界又有一單大新聞:印尼政府宣布暫時封鎖馬斯克旗下 xAI 出品嘅聊天機械人 Grok。原因好簡單(但好嚴重):佢會被人用嚟生成不經同意嘅色情 Deepfake 影像,甚至包括女性同未成年人嘅不雅照。這個決定係全球首例,令 AI 安全同倫理問題再次被推上舞台。


而且唔止印尼一個 — 馬來西亞都跟住限制 Grok 嘅使用,因為現有嘅安全措施未能阻止相關濫用。各國政府指出,AI 生成呢類內容係對人權、人格尊嚴同數位空間安全嘅嚴重侵犯。


1) AI 唔止係工具 — 佢係一面鏡

好多時我哋喺香港教學生、教用 AI 嘅時候,都會強調一樣嘢:AI 反映出嘅唔係科技本身,而係人類點樣用佢。Grok 嘅案例正正就係一個警號 — AI 生成嘅內容,如果冇好好規範同監控,就可能被用嚟做犯罪、侵害、甚至心理傷害。呢啲唔係抽象嘅風險,係真實影響真實人嘅生活。


2) 技術落地以前,安全規範先要到位

印尼同馬來西亞嘅做法係一個重要示範:政府唔係講 AI 差,而係講 AI 應該要有安全 guardrail(安全護欄)。當 AI 令一件事變得好容易,例如一鍵生成 Deepfake 圖片,如果冇好嘅審查機制、人權考量同公共安全標準,就好可能變成傷害嘅源頭。


3) AI 安全係整個社會嘅責任

AI 唔係一個人嘅問題,唔係公司嘅問題,佢係一個整個社會要共同面對嘅課題:


開發者要建立更完善嘅防護同監管流程。


使用者要對自己同他人負責。


政府要訂立合理法規同執法標準。


教育要教人識得判斷 AI 生成嘅內容係咪可信。 呢啲係唔可以靠「AI 自己聰明」解決嘅問題 — 係靠人類設計、規範同文化判斷力。


4) 我哋教學生同社會嘅,唔只係用 AI

之前我哋成日講,你唔使驚 AI 搶你咩工作,你要驚嘅係如果你唔識用 AI 判斷真假同意義。Grok 事件亦再次提醒我哋:AI 生成嘅唔一定係事實;AI 可以做到,但唔一定係應該做。因此,除咗教學生點樣用 prompt、用 model,我哋更應該教佢哋:


什麼係負責任使用 AI。


AI 生成內容背後嘅倫理與法律考量。


如何判斷內容是否傷害他人,守住人性底線。


5) 結語:AI 安全唔係「應該」,係「必須」

印尼暫時封鎖 Grok,唔係要「講大話話 AI 差」,而係要提醒全世界:AI 安全規範要先於技術落地,否則傷害會快過效益。真正成熟嘅 AI 社會,唔係靠科技天才,而係靠有判斷、有責任、有同理心嘅人。


關於作者 [林漢然 Leonard Lam | 香港AI培訓學院導師]


關於 HK AI-SOLVE Academy HK AI-SOLVE Academy 是一個以實際應用為導向的香港人工智能教育平台,專注於人工智能在職場與創作流程中的實際應用,協助非工程背景人士將 AI 工具融入日常工作。我們致力於提供最前沿、最實用的 AI 知識與技能培訓,幫助業界人士和未來領袖駕馭這場變革。 免費課程講座報名連結:

留言


© 2025 香港AI培訓學院 

 

聯絡我們 

  • Whatsapp
  • Instagram
  • Facebook

+852 6757 7206     admin@hkai-solve.com

九龍灣常悦道21號Eastmark6樓601室     Unit 601, 6/F, Eastmark,No. 21 Sheung Yuet Road, Kowloon Bay

bottom of page