top of page


當 AI 生成色情 Deepfake 被封鎖:AI 安全比你想像更重要
當 AI 生成色情 Deepfake 被封鎖:AI 安全比你想像更重要 在香港積極推動人工智能轉型之際,AI 的安全與倫理規範已成為職場應用中不可忽視的一環。本文旨在探討近期國際間對 AI 工具的法律限制,並從專業背景出發,為非工程背景人士解析 AI 技術落地時應具備的判斷力與社會責任,協助讀者將 AI 工具正確且安全地融入日常工作。 最近 AI 世界又有一單大新聞:印尼政府宣布暫時封鎖馬斯克旗下 xAI 出品嘅聊天機械人 Grok。原因好簡單(但好嚴重):佢會被人用嚟生成不經同意嘅色情 Deepfake 影像,甚至包括女性同未成年人嘅不雅照。這個決定係全球首例,令 AI 安全同倫理問題再次被推上舞台。 而且唔止印尼一個 — 馬來西亞都跟住限制 Grok 嘅使用,因為現有嘅安全措施未能阻止相關濫用。各國政府指出,AI 生成呢類內容係對人權、人格尊嚴同數位空間安全嘅嚴重侵犯。 1) AI 唔止係工具 — 佢係一面鏡 好多時我哋喺香港教學生、教用 AI 嘅時候,都會強調一樣嘢:AI 反映出嘅唔係科技本身,而係人類點樣用佢。Grok 嘅案例正正就係一個

林漢然 Leonard
1月14日


Flock AI 監視器驚爆大規模外洩:數十台人臉追蹤攝影機直播至公網,我們親自測試並追蹤自己 - AI 監控資安漏洞
Flock 公司專門為執法單位提供的 AI 驅動 Condor PTZ 攝影機,被發現數十台直接暴露於開放網際網路,無須密碼即可觀看即時影像並下載歷史錄影。調查記者親自實測,驗證了攝影機能遠端追蹤行人、變焦鎖定人臉的能力。此漏洞凸顯了 AI 監控技術在安全配置上的嚴重疏忽,引發了對公共隱私與人身安全的深切憂慮。文章同時強調掌握 AI 技術與防禦機制的必要性。

AI-SOLVE 小編
2025年12月30日


AI責任制的革命:從一次性合規到持續控制的新框架
面對AI部署後持續演化的倫理挑戰,滑鐵盧大學提出「社會責任堆疊 (SRS)」新框架,取代傳統的一次性合規思維。SRS將AI治理視為持續的閉環控制問題,包含價值基礎定錨、影響建模、設計時保護、行為回饋、持續審計及頂層治理等六層。此框架旨在將公平性等抽象價值轉化為可量化的工程約束與動態干預機制,確保AI系統在整個生命週期中維持社會責任,實現真正的實質問責。

AI-SOLVE 小編
2025年12月30日


科學家對AI操縱選舉的擔憂日益加劇:聊天機器人已展現驚人影響力
最新研究指出,科學界對AI在選舉中發揮影響力的擔憂急遽升溫。AI聊天機器人已被證實能比傳統廣告更有效地推動選民轉向特定候選人,尤其在美國、加拿大和波蘭的實地測試中,候選人支持度轉變幅度高達10個百分點。研究同時揭示,AI代理人正大規模滲透民調數據,使偵測失效,對民主程序構成雙重威脅。專家呼籲應透過提高AI使用透明度來應對此數位洪流。

AI-SOLVE 小編
2025年12月8日


Anthropic 及其 Claude 恐涉入中國間諜案 國會傳喚 CEO 作證
開發Claude AI模型的Anthropic公司因涉及一起複雜的中國網路間諜活動,面臨美國國土安全委員會的嚴正關切。攻擊者據稱利用Claude的代理編碼工具滲透全球目標,事件被定義為「Vibe Hacking」的黑暗面。委員會已傳喚Anthropic CEO Dario Amodei於12月17日出席作證,討論AI被國家級對手利用的風險及公司的防禦措施。這起事件凸顯了AI在網路攻防中的潛在威脅與監管的急迫性。

AI-SOLVE 小編
2025年11月29日


AI 圖像辨識的黑暗面:用於偵測裸露的資料集驚爆內含兒童性虐待材料
廣泛用於訓練AI裸露偵測工具的NudeNet資料集,被加拿大兒童保護中心(C3P)調查發現,竟夾帶超過120張兒童性虐待材料(CSAM)。該資料集自2019年發布後,已被超過250篇學術著作引用,引發對AI數據來源、審核機制的嚴厲質疑。事件暴露了AI資料治理的巨大漏洞,迫使業界必須強化數據責任制,確保技術發展不以犧牲弱勢群體權益為代價。

AI-SOLVE 小編
2025年10月30日
bottom of page
