當 AI 生成色情 Deepfake 被封鎖:AI 安全比你想像更重要
- 林漢然 Leonard

- 1月14日
- 讀畢需時 3 分鐘

在香港積極推動人工智能轉型之際,AI 的安全與倫理規範已成為職場應用中不可忽視的一環。本文旨在探討近期國際間對 AI 工具的法律限制,並從專業背景出發,為非工程背景人士解析 AI 技術落地時應具備的判斷力與社會責任,協助讀者將 AI 工具正確且安全地融入日常工作。
最近 AI 世界又有一單大新聞:印尼政府宣布暫時封鎖馬斯克旗下 xAI 出品嘅聊天機械人 Grok。原因好簡單(但好嚴重):佢會被人用嚟生成不經同意嘅色情 Deepfake 影像,甚至包括女性同未成年人嘅不雅照。這個決定係全球首例,令 AI 安全同倫理問題再次被推上舞台。
而且唔止印尼一個 — 馬來西亞都跟住限制 Grok 嘅使用,因為現有嘅安全措施未能阻止相關濫用。各國政府指出,AI 生成呢類內容係對人權、人格尊嚴同數位空間安全嘅嚴重侵犯。
1) AI 唔止係工具 — 佢係一面鏡
好多時我哋喺香港教學生、教用 AI 嘅時候,都會強調一樣嘢:AI 反映出嘅唔係科技本身,而係人類點樣用佢。Grok 嘅案例正正就係一個警號 — AI 生成嘅內容,如果冇好好規範同監控,就可能被用嚟做犯罪、侵害、甚至心理傷害。呢啲唔係抽象嘅風險,係真實影響真實人嘅生活。
2) 技術落地以前,安全規範先要到位
印尼同馬來西亞嘅做法係一個重要示範:政府唔係講 AI 差,而係講 AI 應該要有安全 guardrail(安全護欄)。當 AI 令一件事變得好容易,例如一鍵生成 Deepfake 圖片,如果冇好嘅審查機制、人權考量同公共安全標準,就好可能變成傷害嘅源頭。
3) AI 安全係整個社會嘅責任
AI 唔係一個人嘅問題,唔係公司嘅問題,佢係一個整個社會要共同面對嘅課題:
開發者要建立更完善嘅防護同監管流程。
使用者要對自己同他人負責。
政府要訂立合理法規同執法標準。
教育要教人識得判斷 AI 生成嘅內容係咪可信。 呢啲係唔可以靠「AI 自己聰明」解決嘅問題 — 係靠人類設計、規範同文化判斷力。
4) 我哋教學生同社會嘅,唔只係用 AI
之前我哋成日講,你唔使驚 AI 搶你咩工作,你要驚嘅係如果你唔識用 AI 判斷真假同意義。Grok 事件亦再次提醒我哋:AI 生成嘅唔一定係事實;AI 可以做到,但唔一定係應該做。因此,除咗教學生點樣用 prompt、用 model,我哋更應該教佢哋:
什麼係負責任使用 AI。
AI 生成內容背後嘅倫理與法律考量。
如何判斷內容是否傷害他人,守住人性底線。
5) 結語:AI 安全唔係「應該」,係「必須」
印尼暫時封鎖 Grok,唔係要「講大話話 AI 差」,而係要提醒全世界:AI 安全規範要先於技術落地,否則傷害會快過效益。真正成熟嘅 AI 社會,唔係靠科技天才,而係靠有判斷、有責任、有同理心嘅人。
關於作者 [林漢然 Leonard Lam | 香港AI培訓學院導師]
關於 HK AI-SOLVE Academy HK AI-SOLVE Academy 是一個以實際應用為導向的香港人工智能教育平台,專注於人工智能在職場與創作流程中的實際應用,協助非工程背景人士將 AI 工具融入日常工作。我們致力於提供最前沿、最實用的 AI 知識與技能培訓,幫助業界人士和未來領袖駕馭這場變革。 免費課程講座報名連結:
https://www.hkai-solve-academy.com/ai-superpower?utm_source=blogpost 新聞來源:Yahoo,作者 東森新聞,連結:https://tw.news.yahoo.com/%E5%85%A8%E7%90%83%E9%A6%96%E4%BE%8B-%E5%8D%B0%E5%B0%BC%E5%B0%81%E9%8E%96%E9%A6%AC%E6%96%AF%E5%85%8Bgrok-ai-%E9%98%BB%E7%94%9F%E6%88%90%E6%B7%B1%E5%81%BD%E4%B8%8D%E9%9B%85%E7%85%A7-152100469.html?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAAA7Ew8tab8Sq6x_fiArYeaiHIBnoqf5jLwv-bXOa4zdLD5AB5GIi67vTpkEWMf879BjDza_tEJ4uJxAEf_C8j7uhg_pwanUD7NqKeejHuW4ApfSXKxtfNkEZhRzkxeq8WJtDW4Mc_dcqV9m7p0gaZ_VhtbNkmld23KxpG8IFlraB







留言