Antropisk administrerende direktør avslører DeepSeek AIs feil i Crucial Bioweapons Safety Test

DeepSeeks AI-sikkerhetstesting under gransking: Innsikt fra Anthropics Dario Amodi

I en nylig tale til publikum rettet Dario Amodei, administrerende direktør i Anthropic, skarp kritikk mot DeepSeek, et spirende AI-firma fra Kina. Han uttrykte betydelige bekymringer angående effektiviteten til DeepSeeks AI-modeller i sammenheng med sikkerhetstesting av biovåpen. I et nylig intervju avslørte Amodei at AI-modellene produsert av DeepSeek manglet beskyttelse mot å generere sensitiv informasjon relatert til biovåpen.

Evalueringsprosesser for nasjonale sikkerhetsrisikoer

Amodei utdypet Anthropics rutinemessige evalueringer av ulike AI-modeller for å identifisere potensielle nasjonale sikkerhetsfarer. Disse vurderingene er utformet for å avgjøre om modellene kan generere informasjon om biovåpen som ikke er lett tilgjengelig gjennom konvensjonelle søkemotorer eller akademisk litteratur. Denne tilnærmingen er avgjørende for å forstå hvordan nye AI-teknologier kan misbrukes.

«DeepSeek-modellen gjorde det verste av praktisk talt alle modeller vi noen gang hadde testet ved at den absolutt ikke hadde noen som helst blokkeringer mot å generere denne informasjonen.» – Dario Amodi, Anthropic CEO

Fremtidige implikasjoner av nåværende AI-modeller

Mens Amodei erkjente at ingen nåværende AI-modeller, inkludert DeepSeeks, utgjør en «bokstavelig fare» ved å spre sjelden og potensielt skadelig informasjon, advarte han om implikasjonene av fremtidige modelliterasjoner. Konsernsjefens kommentarer er spesielt bemerkelsesverdige ettersom DeepSeek nylig har fått gjennomslag for sin R1-modell, som har blitt tatt i bruk av store skyleverandører som AWS og Microsoft.

Alarmerende funn i sikkerhetstesting

Denne kritikken faller sammen med økende bekymringer angående DeepSeeks sikkerhetstiltak. En rapport utstedt av Cisco-sikkerhetsforskere indikerte at DeepSeek R1-modellen ikke klarte å blokkere noen skadelige meldinger under sikkerhetsvurderingene, noe som gjenspeiler en svimlende 100 % suksessrate for jailbreak. Bemerkelsesverdig nok viste andre ledende AI-modeller, som Metas Llama-3.1-405B og OpenAIs GPT-4o, tilsvarende høye feilrater i disse vurderingene, noe som understreker at problemet ikke er isolert.

Balanseloven: Innovasjon vs.sikkerhet

Ettersom den globale konkurransen innen AI akselererer, fremhever innsikten som deles av Amodei det presserende behovet for robuste sikkerhetsrammeverk og regulatoriske tiltak i utviklingen av avanserte AI-systemer. Dette scenariet tegner et levende bilde av de intrikate utfordringene AI-industrien står overfor når den streber etter å fremme rask innovasjon mens den navigerer i de tilhørende sikkerhetsrisikoene.

For ytterligere lesing og bilder relatert til denne kritiske diskusjonen, sjekk ut kilden

Ofte stilte spørsmål

1. Hvilke spesifikke problemer reiste Dario Amodei om DeepSeeks AI-modeller?

Amodei fremhevet at DeepSeeks modeller presterte dårlig med å generere sensitiv informasjon om biovåpen, og manglet nødvendige sikkerhetstiltak under sikkerhetstesting. Dette vakte alvorlige bekymringer om potensiell misbruk av slik teknologi.

2. Står andre AI-modeller overfor lignende sikkerhetskritikk?

Ja, ledende modeller fra andre selskaper, som Metas Llama-3.1-405B og OpenAIs GPT-4o, har også vist høye feilrater i sikkerhetstester, noe som indikerer at utfordringene med å sikre sikkerhet i AI-modeller er utbredt i bransjen.

3. Hvorfor er sikkerhetsvurderinger av AI-modeller avgjørende for nasjonal sikkerhet?

Sikkerhetsvurderinger hjelper til med å identifisere om AI-modeller kan produsere sensitiv eller skadelig informasjon som kan utnyttes ondsinnet. Med avansert teknologi er det avgjørende for nasjonal sikkerhet og offentlig sikkerhet å sikre robust sikkerhetstesting.

her

Legg att eit svar

Epostadressa di blir ikkje synleg. Påkravde felt er merka *