Antropiskais izpilddirektors atklāj DeepSeek AI neveiksmi svarīgajā bioieroču drošības pārbaudē

DeepSeek AI drošības pārbaude tiek rūpīgi pārbaudīta: Anthropic Dario Amodei ieskats

Nesenā uzrunā sabiedrībai Anthropic izpilddirektors Dario Amodei vērsa asu kritiku pret DeepSeek, plaukstošo AI uzņēmumu no Ķīnas. Viņš pauda nopietnas bažas par DeepSeek AI modeļu efektivitāti bioieroču drošības testu kontekstā.Nesenā intervijā Amodei atklāja, ka DeepSeek ražotajiem AI modeļiem trūka aizsardzības līdzekļu pret sensitīvas informācijas ģenerēšanu saistībā ar bioieročiem.

Nacionālās drošības risku novērtēšanas procesi

Amodei izstrādāja Anthropic dažādu AI modeļu ikdienas novērtējumus, lai identificētu iespējamos valsts drošības apdraudējumus.Šie novērtējumi ir paredzēti, lai noteiktu, vai modeļi var radīt informāciju par bioieročiem, kas nav viegli pieejama, izmantojot parastās meklētājprogrammas vai akadēmisko literatūru.Šī pieeja ir ļoti svarīga, lai saprastu, kā jaunās AI tehnoloģijas var tikt ļaunprātīgi izmantotas.

“DeepSeek modelim bija vissliktākais no visiem modeļiem, ko mēs jebkad bijām testējuši, jo tam nebija nekādu šķēršļu, kas liegtu šīs informācijas ģenerēšanu.” – Dario Amodei, Anthropic izpilddirektors

Pašreizējo AI modeļu nākotnes ietekme

Lai gan Amodejs atzina, ka neviens pašreizējais AI modeļi, tostarp DeepSeek’s, nerada “burtiskus draudus”, izplatot retu un potenciāli kaitīgu informāciju, viņš brīdināja par turpmāko modeļu iterāciju sekām. Izpilddirektora komentāri ir īpaši ievērības cienīgi, jo DeepSeek nesen ir guvis atbalstu savam R1 modelim, ko ir pieņēmuši lielākie mākoņdatošanas pakalpojumu sniedzēji, piemēram, AWS un Microsoft.

Satraucoši atklājumi drošības pārbaudēs

Šī kritika sakrīt ar pieaugošajām bažām par DeepSeek drošības pasākumiem. Cisco drošības pētnieku publicētajā ziņojumā norādīts, ka DeepSeek R1 modelis drošības novērtējuma laikā nespēja bloķēt nekādus kaitīgus norādījumus, atspoguļojot satriecošu 100% jailbreak panākumu līmeni. Jāatzīmē, ka citos vadošajos mākslīgā intelekta modeļos, piemēram, Meta’s Llama-3.1-405B un OpenAI’s GPT-4o, šajos novērtējumos bija līdzīgi augsts atteices līmenis, uzsverot, ka problēma nav izolēta.

Līdzsvarošanas akts: Inovācija pret drošību

Paātrinoties globālajai konkurencei mākslīgā intelekta jomā, Amodei kopīgotās atziņas liecina par steidzamu nepieciešamību pēc stingrām drošības sistēmām un reglamentējošiem pasākumiem progresīvu AI sistēmu izstrādē.Šis scenārijs sniedz spilgtu priekšstatu par sarežģītajiem izaicinājumiem, ar kuriem saskaras AI nozare, cenšoties veicināt ātru inovāciju, vienlaikus pārvarot saistītos drošības riskus.

Lai iegūtu papildu informāciju un attēlus, kas saistīti ar šo kritisko diskusiju, skatiet avotu

Bieži uzdotie jautājumi

1. Kādas konkrētas problēmas Dario Amodei izvirzīja saistībā ar DeepSeek AI modeļiem?

Amodei uzsvēra, ka DeepSeek modeļi slikti darbojās, ģenerējot sensitīvu informāciju par bioieročiem, jo ​​drošības testu laikā trūka nepieciešamo drošības pasākumu. Tas radīja nopietnas bažas par iespējamu šādas tehnoloģijas ļaunprātīgu izmantošanu.

2. Vai citi AI modeļi saskaras ar līdzīgu drošības kritiku?

Jā, citu uzņēmumu vadošie modeļi, piemēram, Meta’s Llama-3.1-405B un OpenAI’s GPT-4o, arī ir uzrādījuši augstu neveiksmju līmeni drošības pārbaudēs, norādot, ka problēmas, kas saistītas ar drošības nodrošināšanu AI modeļos, ir plaši izplatītas nozarē.

3. Kāpēc AI modeļu drošības novērtējumiem ir izšķiroša nozīme valsts drošībai?

Drošības novērtējumi palīdz noteikt, vai AI modeļi var radīt sensitīvu vai kaitīgu informāciju, ko var ļaunprātīgi izmantot. Attīstoties tehnoloģijai, stingras drošības pārbaudes nodrošināšana ir ļoti svarīga valsts un sabiedrības drošībai.

šeit

Atbildēt

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti kā *