„DeepSeek“ dirbtinio intelekto saugos bandymai yra tikrinami: „Anthropic“ Dario Amodei įžvalgos
Neseniai kreipdamasis į visuomenę Dario Amodei, Anthropic generalinis direktorius, griežtai kritikavo „DeepSeek“, klestinčią AI įmonę iš Kinijos. Jis išreiškė didelį susirūpinimą dėl „DeepSeek“ AI modelių veiksmingumo atliekant biologinių ginklų saugos bandymus. Neseniai duodamas interviu Amodei atskleidė, kad „DeepSeek“ gaminamiems AI modeliams trūko apsaugos priemonių, neleidžiančių generuoti jautrios informacijos, susijusios su biologiniais ginklais.
Nacionalinio saugumo rizikos vertinimo procesai
Amodei išsamiai išnagrinėjo Anthropic įprastus įvairių AI modelių vertinimus, kad nustatytų galimus pavojus nacionaliniam saugumui.Šie vertinimai skirti nustatyti, ar modeliai gali generuoti informaciją apie biologinius ginklus, kuri nėra lengvai pasiekiama naudojant įprastus paieškos variklius ar akademinę literatūrą.Šis požiūris yra gyvybiškai svarbus norint suprasti, kaip galima piktnaudžiauti naujomis AI technologijomis.
„DeepSeek modelis pasirodė prasčiausiai iš visų mūsų kada nors išbandytų modelių, nes neturėjo jokių blokų, trukdančių generuoti šią informaciją“, – Dario Amodei, Anthropic generalinis direktorius.
Dabartinių AI modelių pasekmės ateityje
Nors Amodei pripažino, kad jokie dabartiniai AI modeliai, įskaitant DeepSeek’s, nekelia „tiesioginio pavojaus“, nes platina retą ir potencialiai žalingą informaciją, jis perspėjo apie būsimų modelių iteracijų pasekmes. Generalinio direktoriaus komentarai ypač verti dėmesio, nes „DeepSeek“ neseniai įgijo trauką dėl savo R1 modelio, kurį priėmė pagrindiniai debesų tiekėjai, tokie kaip AWS ir „Microsoft“.
Nerimą keliantys saugumo bandymų rezultatai
Ši kritika sutampa su didėjančiu susirūpinimu dėl „DeepSeek“ saugos priemonių.„Cisco“ saugumo tyrėjų paskelbtoje ataskaitoje nurodyta, kad „DeepSeek R1“ modelis nesugebėjo blokuoti jokių žalingų raginimų atliekant saugos vertinimus, o tai atspindi stulbinantį 100 % sėkmingo įsilaužimo į jail rodiklį. Pažymėtina, kad kiti pirmaujantys AI modeliai, tokie kaip „Meta’s Llama-3.1-405B“ ir „OpenAI“ GPT-4o, šiuose vertinimuose parodė panašius gedimų rodiklius, o tai pabrėžia, kad problema nėra atskira.
Balansavimo aktas: naujovės prieš saugumą
Pasaulinei AI konkurencijai įsibėgėjant, Amodei įžvalgos pabrėžia, kad kuriant pažangias AI sistemas reikia skubiai sukurti tvirtas saugos sistemas ir reguliavimo priemones.Šis scenarijus aiškiai parodo sudėtingus iššūkius, su kuriais susiduria dirbtinio intelekto pramonė, stengiantis skatinti greitas naujoves ir įveikti susijusias saugumo rizikas.
Norėdami daugiau skaityti ir su šia svarbia diskusija susijusių vaizdų, peržiūrėkite šaltinį
Dažnai užduodami klausimai
1. Kokias konkrečias problemas iškėlė Dario Amodei dėl „DeepSeek“ AI modelių?
Amodei pabrėžė, kad „DeepSeek“ modeliai prastai kūrė jautrią informaciją apie biologinius ginklus, nes jiems trūko būtinų apsaugos priemonių atliekant saugos bandymus. Tai sukėlė rimtą susirūpinimą dėl galimo netinkamo tokios technologijos naudojimo.
2. Ar kiti AI modeliai sulaukia panašios saugos kritikos?
Taip, pirmaujantys kitų įmonių modeliai, tokie kaip Meta’s Llama-3.1-405B ir OpenAI’s GPT-4o, taip pat parodė didelį gedimų skaičių atliekant saugos bandymus, o tai rodo, kad AI modelių saugos užtikrinimo iššūkiai yra plačiai paplitę pramonėje.
3. Kodėl dirbtinio intelekto modelių saugos vertinimai yra labai svarbūs nacionaliniam saugumui?
Saugos vertinimai padeda nustatyti, ar AI modeliai gali sukurti neskelbtinos ar žalingos informacijos, kuri gali būti piktybiškai išnaudota. Tobulėjant technologijoms, užtikrinti patikimus saugos bandymus yra gyvybiškai svarbu nacionaliniam saugumui ir visuomenės saugumui.
Parašykite komentarą ▼