top of page


當 AI 生成色情 Deepfake 被封鎖:AI 安全比你想像更重要
當 AI 生成色情 Deepfake 被封鎖:AI 安全比你想像更重要 在香港積極推動人工智能轉型之際,AI 的安全與倫理規範已成為職場應用中不可忽視的一環。本文旨在探討近期國際間對 AI 工具的法律限制,並從專業背景出發,為非工程背景人士解析 AI 技術落地時應具備的判斷力與社會責任,協助讀者將 AI 工具正確且安全地融入日常工作。 最近 AI 世界又有一單大新聞:印尼政府宣布暫時封鎖馬斯克旗下 xAI 出品嘅聊天機械人 Grok。原因好簡單(但好嚴重):佢會被人用嚟生成不經同意嘅色情 Deepfake 影像,甚至包括女性同未成年人嘅不雅照。這個決定係全球首例,令 AI 安全同倫理問題再次被推上舞台。 而且唔止印尼一個 — 馬來西亞都跟住限制 Grok 嘅使用,因為現有嘅安全措施未能阻止相關濫用。各國政府指出,AI 生成呢類內容係對人權、人格尊嚴同數位空間安全嘅嚴重侵犯。 1) AI 唔止係工具 — 佢係一面鏡 好多時我哋喺香港教學生、教用 AI 嘅時候,都會強調一樣嘢:AI 反映出嘅唔係科技本身,而係人類點樣用佢。Grok 嘅案例正正就係一個

林漢然 Leonard
1月14日


AI責任制的革命:從一次性合規到持續控制的新框架
面對AI部署後持續演化的倫理挑戰,滑鐵盧大學提出「社會責任堆疊 (SRS)」新框架,取代傳統的一次性合規思維。SRS將AI治理視為持續的閉環控制問題,包含價值基礎定錨、影響建模、設計時保護、行為回饋、持續審計及頂層治理等六層。此框架旨在將公平性等抽象價值轉化為可量化的工程約束與動態干預機制,確保AI系統在整個生命週期中維持社會責任,實現真正的實質問責。

AI-SOLVE 小編
2025年12月30日


Anthropic 及其 Claude 恐涉入中國間諜案 國會傳喚 CEO 作證
開發Claude AI模型的Anthropic公司因涉及一起複雜的中國網路間諜活動,面臨美國國土安全委員會的嚴正關切。攻擊者據稱利用Claude的代理編碼工具滲透全球目標,事件被定義為「Vibe Hacking」的黑暗面。委員會已傳喚Anthropic CEO Dario Amodei於12月17日出席作證,討論AI被國家級對手利用的風險及公司的防禦措施。這起事件凸顯了AI在網路攻防中的潛在威脅與監管的急迫性。

AI-SOLVE 小編
2025年11月29日


Entrust 2026 報告揭示:深度偽造與社交工程攻擊激增,AI 時代的身份驗證面臨嚴峻考驗
Entrust 2026 身份詐欺報告指出,AI 驅動下深度偽造(Deepfakes)和注入攻擊顯著增加,其中深度偽造自拍照增長 58%。報告揭示詐欺活動高度組織化,高峰期集中在 UTC 凌晨。在客戶生命週期方面,加密貨幣產業面臨高入職詐欺,而金融業則以帳戶接管(ATO)為主。此外,社交工程攻擊正鎖定人類心理弱點。專家強調,應採用分層、以身份為中心的策略來應對這場數位信任危機。

AI-SOLVE 小編
2025年11月27日


AI 圖像辨識的黑暗面:用於偵測裸露的資料集驚爆內含兒童性虐待材料
廣泛用於訓練AI裸露偵測工具的NudeNet資料集,被加拿大兒童保護中心(C3P)調查發現,竟夾帶超過120張兒童性虐待材料(CSAM)。該資料集自2019年發布後,已被超過250篇學術著作引用,引發對AI數據來源、審核機制的嚴厲質疑。事件暴露了AI資料治理的巨大漏洞,迫使業界必須強化數據責任制,確保技術發展不以犧牲弱勢群體權益為代價。

AI-SOLVE 小編
2025年10月30日
bottom of page
