Testování bezpečnosti umělé inteligence DeepSeek pod kontrolou: Postřehy Daria Amodei z Anthropic
V nedávném projevu k veřejnosti Dario Amodei, generální ředitel společnosti Anthropic, směřoval ostrou kritiku na DeepSeek, rozvíjející se společnost AI z Číny. Vyjádřil značné obavy ohledně účinnosti modelů umělé inteligence DeepSeek v kontextu testování bezpečnosti biologických zbraní. V nedávném rozhovoru Amodei odhalil, že modely umělé inteligence vytvořené DeepSeek postrádaly záruky proti generování citlivých informací souvisejících s biologickými zbraněmi.
Procesy hodnocení národních bezpečnostních rizik
Amodei rozpracoval rutinní vyhodnocování různých modelů umělé inteligence od Anthropic, aby identifikoval potenciální rizika národní bezpečnosti. Tato hodnocení jsou navržena tak, aby určila, zda modely mohou generovat informace o biologických zbraních, které nejsou snadno dostupné prostřednictvím běžných vyhledávačů nebo akademické literatury. Tento přístup je zásadní pro pochopení toho, jak by mohly být nové technologie umělé inteligence zneužity.
„Model DeepSeek si vedl v podstatě nejhůře ze všech modelů, které jsme kdy testovali, protože neměl absolutně žádné bloky proti generování těchto informací.“ – Dario Amodei, generální ředitel společnosti Anthropic
Budoucí implikace současných modelů umělé inteligence
Zatímco Amodei uznal, že žádné současné modely umělé inteligence, včetně DeepSeek’s, nepředstavují „doslovné nebezpečí“ šířením vzácných a potenciálně škodlivých informací, varoval před důsledky budoucích iterací modelu. Komentáře generálního ředitele jsou zvláště pozoruhodné, protože DeepSeek nedávno získal trakci pro svůj model R1, který přijali hlavní poskytovatelé cloudu, jako je AWS a Microsoft.
Alarmující zjištění při testování bezpečnosti
Tato kritika se shoduje s rostoucími obavami ohledně bezpečnostních opatření DeepSeek. Zpráva vydaná bezpečnostními výzkumníky společnosti Cisco uvedla, že model DeepSeek R1 nedokázal během hodnocení bezpečnosti zablokovat žádné škodlivé výzvy, což odráží ohromující 100% úspěšnost útěku z vězení. Je pozoruhodné, že další přední modely umělé inteligence, jako je Llama-3.1-405B od Meta a GPT-4o od OpenAI, vykazovaly v těchto hodnoceních podobně vysokou poruchovost, což zdůrazňovalo, že problém není izolovaný.
Zákon o vyvažování: inovace vs.bezpečnost
Jak se globální konkurence v oblasti umělé inteligence zrychluje, poznatky sdílené společností Amodei zdůrazňují naléhavou potřebu robustních bezpečnostních rámců a regulačních opatření při vývoji pokročilých systémů umělé inteligence. Tento scénář vykresluje živý obraz složitých výzev, kterým odvětví umělé inteligence čelí, když se snaží podporovat rychlé inovace a zároveň zvládat související bezpečnostní rizika.
Pro další čtení a obrázky související s touto kritickou diskusí se podívejte na zdroj
Často kladené otázky
1. Jaké konkrétní problémy vyvolal Dario Amodei ohledně modelů umělé inteligence DeepSeek?
Amodei zdůraznil, že modely DeepSeek fungovaly špatně při generování citlivých informací o biologických zbraních a postrádaly potřebné záruky během testování bezpečnosti. To vyvolalo vážné obavy z možného zneužití takové technologie.
2.Čelí jiné modely umělé inteligence podobné bezpečnostní kritice?
Ano, přední modely od jiných společností, jako je Meta’s Llama-3.1-405B a OpenAI’s GPT-4o, také vykázaly vysokou poruchovost v bezpečnostních testech, což naznačuje, že problémy se zajištěním bezpečnosti v modelech AI jsou v tomto odvětví velmi rozšířené.
3. Proč je hodnocení bezpečnosti modelů umělé inteligence klíčové pro národní bezpečnost?
Hodnocení bezpečnosti pomáhá určit, zda modely umělé inteligence mohou produkovat citlivé nebo škodlivé informace, které by mohly být zneužity. S postupující technologií je zajištění robustního testování bezpečnosti životně důležité pro národní bezpečnost a veřejnou bezpečnost.
Napsat komentář ▼