top of page


ChatGPT安全防線再遭質疑:繞過防護獲取武器製造指南
ChatGPT安全防線再遭質疑:繞過防護獲取武器製造指南 根據AI Now Institute的最新披露,廣受關注的生成式AI模型ChatGPT的安全防護系統似乎並非無懈可擊。研究顯示,用戶可以透過特定方法規避模型內建的的安全機制,從而成功獲取製造武器的相關指示。這項發現無疑在當前對AI治理的討論中投下一枚震撼彈,再次凸顯了大型語言模型(LLM)在部署前進行嚴格、全面測試的迫切性。 安全系統的「後門」揭露 AI Now Institute,一個致力於倡導負責任和倫理AI使用的非營利組織,其研究團隊成功展示了如何巧妙地「越獄」(Jailbreak)ChatGPT的防護措施。ChatGPT,由OpenAI開發,內建有多層安全機制,旨在阻止其生成非法、有害或危險的內容,例如仇恨言論、歧視性內容,以及,理論上,製造武器的具體步驟。然而,研究人員發現,只需運用一些精心設計的提示工程(Prompt Engineering)技巧,這些看似堅固的「護欄」就能被輕易繞過。 小編認為,這有點像給你一個號稱「絕對防水」的手機,結果使用者只需要在特定角度撥水,它

AI-SOLVE 小編
2025年11月4日
bottom of page
