首頁>資訊 >
環(huán)球熱資訊!微軟用GPT-4再下一城:發(fā)布生成式AI安全助手Security Copilot 2023-03-30 07:01:31  來源:36氪


【資料圖】

最近 OpenAI ChatGPT 的漏洞,讓不少人可以看到他人的聊天標題,引發(fā)了用戶的焦慮,在 AIGC、大模型時代,如果安全做不到保證,如何能讓人放心的使用?

近日,微軟為解決安全的后顧之憂,推出了一款名為Microsoft Security Copilot 的全新生成式 AI 安全助手,旨在幫助安全技術專家更快地識別漏洞和免受黑客攻擊。

據悉,Microsoft SecurityCopilot 將 GPT-4 的強大功能與微軟的安全特定模型相結合。它的界面就是如下圖所示的一個簡單的提示輸入框:

這款工具使用方式和 ChatGPT 有些類似,支持自然語言輸入。當你問它安全問題時,SecurityCopilot 會使用 LLM 和特定于安全的模型來部署技能和查詢,可以幫助安全員更快、更準確地檢測和響應安全威脅。事實上,在這款工具的背后,由微軟的全球威脅情報系統(tǒng)提供支持,微軟聲稱該系統(tǒng)每天解析超過 65 萬億個信號。

借助 Microsoft Security Copilot,安全防御者可以在幾分鐘內對事件快速做出響應,并通過基于自然語言的調查獲得關鍵的分步指導,捕捉平時無法檢測到的內容,并實時就能獲得任何過程或事件的摘要。

與此同時,安全技術人員可以利用提示詞向 Security Copilot 詢問有關漏洞、企業(yè)安全事件的介紹,也能輸入文件、URL 或者代碼片段讓Security Copilot 幫助分析,最終結果可以固定并匯總到一個共享的工作區(qū)中,這樣不同的研究人員也可以進行相同的安全威脅事件分析和調查。

微軟表示,與大多數 AI 模型一樣,它不會總是完美地執(zhí)行,并且可能會出錯。不過,Security Copilot 在一個閉環(huán)學習系統(tǒng)中工作,該系統(tǒng)包括一個內置工具,供用戶直接提供反饋。雖然在發(fā)布時它將整合微軟的安全產品,但微軟聲稱隨著時間的推移它也將“擴展到不斷壯大的第三方產品生態(tài)系統(tǒng)中”。

此外,微軟也向用戶保證,優(yōu)先考慮用戶的數據隱私問題,他們的數據不會被用來訓練或豐富其他人工智能模型,并將受到未指定的企業(yè)合規(guī)控制的保護。

目前,Security Copilot 僅面向“少數用戶”開放了預覽,微軟表示,「我們還沒有討論它全面面世的時間。我們認為重要的是將它提供給一小群人并開始迭代與反饋,并使其成為最好的產品最終確保我們能夠負責任地交付它?!?/p>

對于這款工具感興趣的安全研究人員也可以通過微軟上線的官網一探究竟了:https://www.microsoft.com/en-us/security/business/ai-machine-learning/microsoft-security-copilot

關鍵詞:

相關閱讀:
熱點
圖片