Anthropic CEO, DeepSeek AI의 핵심 생물학 무기 안전 테스트 실패 폭로

DeepSeek의 AI 안전 테스트가 면밀히 조사 중입니다: Anthropic의 Dario Amodei의 통찰력

최근 대중에게 한 연설에서 Anthropic의 CEO인 Dario Amodei는 중국의 급성장하는 AI 회사인 DeepSeek에 날카로운 비판을 가했다.그는 생물무기 안전 테스트의 맥락에서 DeepSeek의 AI 모델의 효능에 대해 상당한 우려를 표명했다.최근 인터뷰 에서 Amodei는 DeepSeek에서 제작한 AI 모델에는 생물무기와 관련된 민감한 정보를 생성하는 것을 방지하는 보호 장치가 없다고 밝혔다.

국가 안보 위험에 대한 평가 프로세스

Amodei는 잠재적인 국가 안보 위험을 파악하기 위해 다양한 AI 모델에 대한 Anthropic의 일상적인 평가에 대해 자세히 설명했습니다.이러한 평가는 모델이 기존 검색 엔진이나 학술 문헌을 통해 쉽게 접근할 수 없는 생물 무기에 대한 정보를 생성할 수 있는지 여부를 결정하도록 설계되었습니다.이러한 접근 방식은 새로운 AI 기술이 어떻게 오용될 수 있는지 이해하는 데 필수적입니다.

“DeepSeek 모델은 우리가 테스트한 모든 모델 중에서 가장 나쁜 성과를 보였습니다.즉, 이 정보를 생성하는 데 전혀 방해가 되지 않았습니다.”— Dario Amodei, Anthropic CEO

현재 AI 모델의 미래적 의미

Amodei는 DeepSeek를 포함한 현재의 AI 모델이 희귀하고 잠재적으로 유해한 정보를 유포함으로써 “문자 그대로의 위험”을 초래하지 않는다는 것을 인정했지만, 미래 모델 반복의 의미에 대해 경고했습니다. DeepSeek가 최근 AWS와 Microsoft와 같은 주요 클라우드 공급업체에서 채택한 R1 모델로 주목을 받고 있기 때문에 CEO의 발언은 특히 주목할 만합니다.

안전 테스트에서 놀라운 발견

이러한 비판은 DeepSeek의 안전 조치에 대한 우려가 높아지는 것과 일치합니다. Cisco 보안 연구원이 발행한 보고서에 따르면 DeepSeek R1 모델은 안전 평가 중에 유해한 프롬프트를 차단하지 못했으며, 이는 100%의 엄청난 탈옥 성공률을 나타냅니다.놀랍게도 Meta의 Llama-3.1-405B와 OpenAI의 GPT-4o와 같은 다른 주요 AI 모델도 이러한 평가에서 비슷하게 높은 실패율을 보였으며, 이는 이 문제가 고립된 것이 아니라는 것을 강조합니다.

균형 잡기: 혁신 대 보안

AI의 글로벌 경쟁이 가속화됨에 따라 Amodei가 공유한 통찰력은 고급 AI 시스템 개발에 있어 견고한 안전 프레임워크와 규제 조치에 대한 시급한 필요성을 강조합니다.이 시나리오는 AI 산업이 관련 보안 위험을 탐색하면서 빠른 혁신을 촉진하기 위해 노력하면서 직면한 복잡한 과제에 대한 생생한 그림을 그려냅니다.

이 중요한 토론과 관련된 추가 자료 및 이미지는 출처를 확인하세요.

자주 묻는 질문

1. Dario Amodei는 DeepSeek의 AI 모델에 대해 어떤 구체적인 문제를 제기했습니까?

Amodei는 DeepSeek의 모델이 생물 무기에 대한 민감한 정보를 생성하는 데 있어 성능이 좋지 않고 안전 테스트 중에 필요한 보호 장치가 부족하다고 강조했습니다.이는 이러한 기술의 잠재적 오용에 대한 심각한 우려를 불러일으켰습니다.

2.다른 AI 모델도 비슷한 안전성 비판을 받고 있습니까?

네, Meta의 Llama-3.1-405B와 OpenAI의 GPT-4o 등 다른 회사의 주요 모델도 안전성 테스트에서 높은 실패율을 보였습니다.이는 AI 모델의 안전성을 보장하는 과제가 업계 전반에 널리 퍼져 있음을 보여줍니다.

3. AI 모델의 안전성 평가가 국가 안보에 왜 중요한가요?

안전성 평가는 AI 모델이 악의적으로 악용될 수 있는 민감하거나 유해한 정보를 생성할 수 있는지 여부를 식별하는 데 도움이 됩니다.기술이 발전함에 따라 견고한 안전성 테스트를 보장하는 것은 국가 안보와 공공 안전에 필수적입니다.

여기

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다