top of page


AI 圖像辨識的黑暗面:用於偵測裸露的資料集驚爆內含兒童性虐待材料
廣泛用於訓練AI裸露偵測工具的NudeNet資料集,被加拿大兒童保護中心(C3P)調查發現,竟夾帶超過120張兒童性虐待材料(CSAM)。該資料集自2019年發布後,已被超過250篇學術著作引用,引發對AI數據來源、審核機制的嚴厲質疑。事件暴露了AI資料治理的巨大漏洞,迫使業界必須強化數據責任制,確保技術發展不以犧牲弱勢群體權益為代價。

AI-SOLVE 小編
2025年10月30日
bottom of page
