top of page


當 AI 生成色情 Deepfake 被封鎖:AI 安全比你想像更重要
當 AI 生成色情 Deepfake 被封鎖:AI 安全比你想像更重要 在香港積極推動人工智能轉型之際,AI 的安全與倫理規範已成為職場應用中不可忽視的一環。本文旨在探討近期國際間對 AI 工具的法律限制,並從專業背景出發,為非工程背景人士解析 AI 技術落地時應具備的判斷力與社會責任,協助讀者將 AI 工具正確且安全地融入日常工作。 最近 AI 世界又有一單大新聞:印尼政府宣布暫時封鎖馬斯克旗下 xAI 出品嘅聊天機械人 Grok。原因好簡單(但好嚴重):佢會被人用嚟生成不經同意嘅色情 Deepfake 影像,甚至包括女性同未成年人嘅不雅照。這個決定係全球首例,令 AI 安全同倫理問題再次被推上舞台。 而且唔止印尼一個 — 馬來西亞都跟住限制 Grok 嘅使用,因為現有嘅安全措施未能阻止相關濫用。各國政府指出,AI 生成呢類內容係對人權、人格尊嚴同數位空間安全嘅嚴重侵犯。 1) AI 唔止係工具 — 佢係一面鏡 好多時我哋喺香港教學生、教用 AI 嘅時候,都會強調一樣嘢:AI 反映出嘅唔係科技本身,而係人類點樣用佢。Grok 嘅案例正正就係一個

林漢然 Leonard
1月14日


AI責任制的革命:從一次性合規到持續控制的新框架
面對AI部署後持續演化的倫理挑戰,滑鐵盧大學提出「社會責任堆疊 (SRS)」新框架,取代傳統的一次性合規思維。SRS將AI治理視為持續的閉環控制問題,包含價值基礎定錨、影響建模、設計時保護、行為回饋、持續審計及頂層治理等六層。此框架旨在將公平性等抽象價值轉化為可量化的工程約束與動態干預機制,確保AI系統在整個生命週期中維持社會責任,實現真正的實質問責。

AI-SOLVE 小編
2025年12月30日


HoundDog.ai 賦能 Replit AI 應用程式生成平台 實踐「隱私設計」
AI 浪潮下,資料隱私安全日益關鍵。隱私導向的程式碼掃描公司 HoundDog.ai 現已整合至 Replit 的 AI 應用程式生成平台。此次合作的核心目標是將「隱私設計」概念嵌入開發流程的最前端,自動識別並追蹤敏感資料(如 PII、PHI)在日誌、檔案或第三方 SDK 中的流動路徑。用戶可透過「一鍵修復」解決潛在隱私洩漏,確保開發效率的同時,提高醫療、金融等敏感領域應用程式的合規性,樹立負責任 AI 開發的新標竿。

AI-SOLVE 小編
2025年11月27日
bottom of page
