敏感數據的洩漏風險
一份由 Harmonic Security 今天發布的報告指出,與生成式人工智慧(AI)工具共享的數據量正在以指數級速度增加,這將不可避免地導致更多的安全漏洞和合規問題。2025年,有分析顯示,使用在六種生成式 AI 應用中的22.4億次提示中,71%的數據暴露涉及 ChatGPT。
數據暴露的具體分析
在所發現的數據暴露中,17%涉及個人或免費帳戶,這些帳戶中組織無法監控,沒有審計追蹤,且數據可能用於訓練公共模型。在涉及敏感數據的98,034個實例中,大多數(87%)是通過 ChatGPT Free 分享的,其次是 Google Gemini(6%)、Microsoft Copilot(3.5%)、Claude(2.5%)和 Perplexity(1.3%)。
在分析的22.4億次提示中,有579,000次(2.6%)含有公司敏感數據。其中,代碼暴露佔30%,其次是法律文件(22.3%)、合併與收購數據(12.6%)、財務預測(7.8%)、以及投資組合數據(5.5%)。
數據存儲地點的隱患
Harmonic Security 的產品行銷副總裁 Michael Marriott 指出,許多數據最終儲存在不尊重數據隱私的國家數據中心。例如,能夠追蹤的生成式 AI 工具中,4%的使用涉及將數據儲存在中國的應用程式。許多應用並未明確標示其數據儲存位置。
預防措施與建議
網路安全團隊面臨的挑戰在於,與生成式 AI 工具共享的數據可能需數月甚至數年後才會被察覺出現漏洞。若最終敏感數據出現在生成的 AI 模型輸出中,可能會導致重大罰款。理想情況下,更多組織應依賴有防護措施的商業版工具,這些工具能幫助防止敏感數據被分享。即便如此,許多防護措施可能被繞過,因此需要監控員工如何使用這些工具,以減少數據洩漏事件的發生。