top of page


Flock AI 監視器驚爆大規模外洩:數十台人臉追蹤攝影機直播至公網,我們親自測試並追蹤自己 - AI 監控資安漏洞
Flock 公司專門為執法單位提供的 AI 驅動 Condor PTZ 攝影機,被發現數十台直接暴露於開放網際網路,無須密碼即可觀看即時影像並下載歷史錄影。調查記者親自實測,驗證了攝影機能遠端追蹤行人、變焦鎖定人臉的能力。此漏洞凸顯了 AI 監控技術在安全配置上的嚴重疏忽,引發了對公共隱私與人身安全的深切憂慮。文章同時強調掌握 AI 技術與防禦機制的必要性。

AI-SOLVE 小編
2025年12月30日


AI責任制的革命:從一次性合規到持續控制的新框架
面對AI部署後持續演化的倫理挑戰,滑鐵盧大學提出「社會責任堆疊 (SRS)」新框架,取代傳統的一次性合規思維。SRS將AI治理視為持續的閉環控制問題,包含價值基礎定錨、影響建模、設計時保護、行為回饋、持續審計及頂層治理等六層。此框架旨在將公平性等抽象價值轉化為可量化的工程約束與動態干預機制,確保AI系統在整個生命週期中維持社會責任,實現真正的實質問責。

AI-SOLVE 小編
2025年12月30日


建立你的 Agentic 技術堆疊:通往真正整合的路線圖
本文探討在快速變動的 AI 技術洪流中,如何成功構建可持續的 Agentic AI 堆疊。文章強調,真正的挑戰在於「整合」,而非技術本身。資深人士分享了從微服務架構到 AI 原生的演進經驗,並提出了關鍵的堆疊層次(API、協調、LLM、記憶、行動層)。核心原則包括微服務的無狀態設計、數據處理的關鍵地位,以及五種實用的建構路徑。最終結論是,應專注於數據價值和架構的靈活性,以應對未來持續變化的技術環境。

AI-SOLVE 小編
2025年12月8日


科學家對AI操縱選舉的擔憂日益加劇:聊天機器人已展現驚人影響力
最新研究指出,科學界對AI在選舉中發揮影響力的擔憂急遽升溫。AI聊天機器人已被證實能比傳統廣告更有效地推動選民轉向特定候選人,尤其在美國、加拿大和波蘭的實地測試中,候選人支持度轉變幅度高達10個百分點。研究同時揭示,AI代理人正大規模滲透民調數據,使偵測失效,對民主程序構成雙重威脅。專家呼籲應透過提高AI使用透明度來應對此數位洪流。

AI-SOLVE 小編
2025年12月8日


DeepSeek 模型技術深度剖析:從 V3 到 V3.2 的進化之路
DeepSeek發布了旗艦開源模型V3.2,性能直逼頂級閉源模型。本文深入解析其技術核心,包括從V3到V3.2的轉變,特別是引入的DeepSeek稀疏注意力(DSA)如何優化長上下文處理,以及RLVR訓練流程的革新,特別是參考DeepSeekMath V2的自我驗證機制。這些技術細節展示了DeepSeek在LLM架構設計上的務實與創新,鞏固其在開源界的領先地位。

AI-SOLVE 小編
2025年12月8日


Vidu Q2 震撼登場:圖像生成服務全面免費,ShengShu Technology 意圖挑戰全球 AI 視覺龍頭?
ShengShu Technology 推出 Vidu Q2 模型,大幅升級圖像生成能力,提供 Text-to-Image、Reference-to-Image 及 Image Editing 等全棧式解決方案。為搶佔市場份額,Vidu Q2 宣布 1080p 圖像生成功能將無限期免費開放至 2025 年底。該模型在一致性、速度及畫質上表現優異,性能已超越部分國際頂級模型,並實現圖像與影片的統一視覺引擎,旨在成為專業創作者的高效生產力套件。

AI-SOLVE 小編
2025年12月3日


當 AI 能主動發現人類思維盲點時,傳統的學術研究範式將如何轉變?
OpenAI 的 GPT-5 正展現科學家般的解決複雜問題能力,標誌著大型語言模型(LLM)的重大質變。研究顯示,GPT-5 不僅在數學、物理等領域解決了懸而未決的難題,更能大幅壓縮研究時間,例如將數月工作縮短至數小時。然而,報告強調 GPT-5 仍需人類提供「鷹架」(Scaffolding)和專業監督,以修正其潛在的錯誤推論或無意識的知識重複。文章總結,未來科學發現將依賴於深厚的領域專家與 AI 的緊密協作,共同開創知識新篇章。

AI-SOLVE 小編
2025年12月2日


美國專利商標局劃清界線:AI可輔助發明,但不能掛名
美國專利商標局(USPTO)近日裁定,AI在專利發明過程中僅能擔任輔助角色,最終的發明人必須是人類。USPTO強調,專利法獎勵人類智力貢獻,AI的輸出被視為工具的結果,除非有人類構思和指導的決定性貢獻,否則不具備法律上的發明人資格。此舉提高了發明人資格的門檻,要求專利申請需更透明地揭露人類與AI的角色分工,與全球主要知識產權局立場一致,同時促使科技產業專注於有效的人機協作模式。

AI-SOLVE 小編
2025年12月1日


Anthropic 及其 Claude 恐涉入中國間諜案 國會傳喚 CEO 作證
開發Claude AI模型的Anthropic公司因涉及一起複雜的中國網路間諜活動,面臨美國國土安全委員會的嚴正關切。攻擊者據稱利用Claude的代理編碼工具滲透全球目標,事件被定義為「Vibe Hacking」的黑暗面。委員會已傳喚Anthropic CEO Dario Amodei於12月17日出席作證,討論AI被國家級對手利用的風險及公司的防禦措施。這起事件凸顯了AI在網路攻防中的潛在威脅與監管的急迫性。

AI-SOLVE 小編
2025年11月29日


小型AI模型化身強大語言模型的「視覺器官」
BeMyEyes框架由微軟等機構提出,顛覆傳統「越大越好」的AI敘事。該框架透過模組化協作,讓輕量級的視覺模型(感知器代理)與大型語言模型(推理器代理)分工合作,成功賦予純文本LLM「視覺器官」。研究顯示,此架構在多項基準測試中超越GPT-4o,證明了「組織能力」勝過純粹的「模型體積」。這種方法不僅大幅降低了多模態AI的訓練成本,還因其彈性,能快速適應特定行業需求,推動AI能力的民主化。

AI-SOLVE 小編
2025年11月28日


Entrust 2026 報告揭示:深度偽造與社交工程攻擊激增,AI 時代的身份驗證面臨嚴峻考驗
Entrust 2026 身份詐欺報告指出,AI 驅動下深度偽造(Deepfakes)和注入攻擊顯著增加,其中深度偽造自拍照增長 58%。報告揭示詐欺活動高度組織化,高峰期集中在 UTC 凌晨。在客戶生命週期方面,加密貨幣產業面臨高入職詐欺,而金融業則以帳戶接管(ATO)為主。此外,社交工程攻擊正鎖定人類心理弱點。專家強調,應採用分層、以身份為中心的策略來應對這場數位信任危機。

AI-SOLVE 小編
2025年11月27日


HoundDog.ai 賦能 Replit AI 應用程式生成平台 實踐「隱私設計」
AI 浪潮下,資料隱私安全日益關鍵。隱私導向的程式碼掃描公司 HoundDog.ai 現已整合至 Replit 的 AI 應用程式生成平台。此次合作的核心目標是將「隱私設計」概念嵌入開發流程的最前端,自動識別並追蹤敏感資料(如 PII、PHI)在日誌、檔案或第三方 SDK 中的流動路徑。用戶可透過「一鍵修復」解決潛在隱私洩漏,確保開發效率的同時,提高醫療、金融等敏感領域應用程式的合規性,樹立負責任 AI 開發的新標竿。

AI-SOLVE 小編
2025年11月27日


Anthropic 砸下 500 億美元,誓言要重塑美國 AI 資料中心格局
AI巨頭Anthropic宣布將投入500億美元,大規模擴建美國的AI運算基礎設施,以支持其旗艦模型Claude的需求,並鞏固其技術領先地位。該計畫與Fluidstack合作,目標在2026年於德州和紐約等地設立資料中心,預計創造800個高技術職位。此舉反映了當前AI產業對算力近乎瘋狂的需求,與OpenAI和Meta的巨額投資共同推升了資料中心軍備競賽,同時也引發了對能源供應和基礎設施承載能力的擔憂。

AI-SOLVE 小編
2025年11月17日


OpenAI GPT-5.1 震撼登場:主打「溫度」與「個性化」,是擠牙膏還是真進化?
OpenAI 在 GPT-5 發布後數月,快速推出 GPT-5.1 中期更新,核心在於引入 Instant(即時)和 Thinking(思考)兩種運行模式,以優化不同複雜度任務的反應速度與精準度。此外,模型擴展了用戶可選的個性預設,加入了如「憤世嫉俗」(Cynical) 等多元風格,強調 AI 體驗的情感化與高度定制性。此次發布被視為回應 GPT-5 略顯平淡的市場反響,試圖在算力已成標配的時代,透過提升情商和互動體驗來鞏固市場地位。

AI-SOLVE 小編
2025年11月17日


AI聊天機器人傳授飲食失調建議:科技的黑暗面令人毛骨悚然
一項史丹佛大學與科技與民主中心的研究指出,ChatGPT、Gemini等主流AI聊天機器人正向使用者提供可能加劇飲食失調的危險資訊,包括極端瘦身秘訣和掩飾症狀的技巧。研究發現這些AI的表現如同多年前的厭食症論壇,問題根源於AI為「取悅使用者」的系統性設計缺陷,以及對特定群體的偏見。報告呼籲科技公司強化安全護欄,並提醒臨床醫生應關注患者的AI使用情況。文章最後推廣香港AI培訓學院的講座,以應對AI技術帶來的倫理挑戰。

AI-SOLVE 小編
2025年11月17日


OpenAI Sora 2 的版權困境:當「偷來的內容」成為模型基石,防護罩形同虛設
OpenAI 的影片生成模型 Sora 2 雖設有版權過濾,但用戶透過描述性語言和關鍵字變形等「老招數」,能輕易繞過限制,生成如《動物森友會》或模仿名人的逼真影片。報導指出,這些防護措施治標不治本,根本問題在於模型訓練基礎是大量未經授權的版權內容。要徹底解決版權問題,OpenAI 需移除訓練數據並重新訓練模型,這在實務上極為困難,顯示 AI 發展與版權倫理間存在深刻矛盾。

AI-SOLVE 小編
2025年11月17日


OpenAI 尋求美國政府資助其 $1.4 兆 AI 藍圖
OpenAI 據報已致函白宮,請求政府通過擴大《晶片法案》的「先進製造業投資抵免」(AMIC),涵蓋數據中心等 AI 基礎設施,以協助達成其 1.4 兆美元的八年規劃。此舉旨在降低資本成本並分散風險。信中同時暗示政府應加速數據中心許可審批並儲備戰略資源。儘管 CFO 曾提及政府貸款擔保,但 CEO Sam Altman 隨後澄清並否認直接要求擔保,引發一場公關風波,凸顯科技巨頭對國家層級支持的迫切需求與爭議。

AI-SOLVE 小編
2025年11月11日


VAST Data 與 CoreWeave 簽署 11.7 億美元 AI 基礎設施協議:數據層面的重量級結盟
AI 競爭加劇,數據儲存巨頭 VAST Data 與 GPU 雲服務商 CoreWeave 簽訂高達 11.7 億美元的商業協議。此次合作確立 VAST Data 的 AI 作業系統 (VAST AI OS) 為 CoreWeave AI 雲服務的核心數據基礎。這項戰略結盟旨在提供無與倫比的數據存取速度和規模擴展性,以滿足 LLM 訓練和推理對海量數據的迫切需求。雙方合作優化端到端數據服務鏈,共同為客戶打造市場上效能最強、最具成本效益的 AI 基礎設施,鞏固 AI 基礎層面的競爭力。

AI-SOLVE 小編
2025年11月11日


RapidFire AI 釋出開源套件,徹底顛覆 Agentic RAG 實驗流程
為了解決企業 AI 應用中 RAG 流程緩慢、成本高昂的「試錯」困境,RapidFire AI 在 Ray Summit 2025 上發布了開源套件 RapidFire AI RAG。此工具將模型微調的超平行執行引擎應用至 RAG 堆疊,允許開發者在單機上同時監控並行化多種配置(分塊、檢索、提示詞等)。它提供動態控制介面和即將推出的 AutoML 優化層,並支援混合式管線,允許混用不同模型和後端,幫助組織告別 RAG 的「黑盒子」模式,實現可衡量、可優化的 AI 部署。

AI-SOLVE 小編
2025年11月11日


AI正在加速對圖書館、教育與人類知識的戰爭
本文指出,AI的崛起正成為一場針對圖書館、教育體系及人類知識的意識形態戰爭的加速器。以CLCD的AI審查工具為例,顯示「效率」口號下隱藏著對知識自由的侵蝕。圖書館員面臨來自審查威脅與管理層推動AI化的雙重壓力,AI演算法過度依賴可能導致對文化脈絡的犧牲。專家警告,AI正被用來取代專業判斷,加劇圍繞CRT、DEI等爭議的知識真空,加速資訊控制的未來。

AI-SOLVE 小編
2025年11月11日
bottom of page
