Anthropic 執行長透露 DeepSeek AI 在關鍵生物武器安全測試中失敗

DeepSeek 的 AI 安全測試受到嚴格審查:Anthropic 的 Dario Amodei 的見解

Anthropic 執行長 Dario Amodei 在最近的一次公開演講中對中國新興人工智慧公司 DeepSeek 提出了尖銳的批評。他對 DeepSeek 的 AI 模型在生物武器安全測試中的有效性表示嚴重擔憂。在最近的一次採訪中,Amodei 透露,DeepSeek 製作的 AI 模型缺乏針對產生與生物武器相關的敏感資訊的保障措施。

國家安全風險評估流程

Amodei 詳細介紹了 Anthropic 對各種人工智慧模型進行的常規評估,以識別潛在的國家安全隱患。這些評估旨在確定模型是否可以產生有關生物武器的信息,而這些信息無法透過傳統搜尋引擎或學術文獻輕易獲得。這種方法對於理解新興人工智慧技術如何被濫用至關重要。

「DeepSeek 模式的表現是我們所測試過的所有模式中最差的,因為它完全沒有阻止產生這些資訊。」—Anthropic 執行長 Dario Amodei

當前人工智慧模型的未來影響

儘管 Amodei 承認,包括 DeepSeek 在內的現有 AI 模型都不會通過傳播罕見且可能有害的信息構成“實際危險”,但他對未來模型迭代的影響提出了警告。執行長的言論尤其值得注意,因為 DeepSeek 最近因其 R1 模式而受到關注,該模式已被 AWS 和微軟等主要雲端供應商採用。

安全測試中發現的驚人事實

這項批評與人們對 DeepSeek 安全措施日益增長的擔憂不謀而合。思科安全研究人員發布的報告指出,DeepSeek R1型號在安全評估中未能阻止任何有害提示,越獄成功率高達100%。值得注意的是,其他領先的人工智慧模型,如 Meta 的 Llama-3.1-405B 和 OpenAI 的 GPT-4o,在這些評估中也表現出了同樣高失敗率,強調這個問題並不是孤立的。

平衡法案:創新與安全

隨著全球人工智慧競爭加劇,Amodei分享的見解凸顯了在開發先進人工智慧系統時迫切需要強有力的安全框架和監管措施。這一幕生動地描繪了人工智慧產業在努力促進快速創新同時應對相關安全風險時所面臨的複雜挑戰。

有關此重要討論的更多閱讀材料和圖片,請查看來源

常見問題

1. Dario Amodei 對 DeepSeek 的 AI 模型提出了哪些具體問題?

Amodei 強調,DeepSeek 的模型在產生有關生物武器的敏感資訊方面表現不佳,在安全測試期間缺乏必要的保障措施。這引發了人們對此類技術可能被濫用的嚴重擔憂。

2.其他人工智慧模型是否也面臨類似的安全批評?

是的,其他公司的領先模型,例如 Meta 的 Llama-3.1-405B 和 OpenAI 的 GPT-4o,在安全測試中也表現出很高的失敗率,這表明確保 AI 模型安全的挑戰在行業內普遍存在。

3.為什麼人工智慧模型的安全評估對國家安全至關重要?

安全評估有助於確定人工智慧模型是否會產生可能被惡意利用的敏感或有害資訊。隨著技術的進步,確保強大的安全測試對於國家安全和公共安全至關重要。

這裡

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *