Globālajiem līderiem Parīzē pulcējoties galvenajam samitam, kurā galvenā uzmanība pievērsta mākslīgajam intelektam, dažādu nozaru eksperti iestājas par nepieciešamību pēc stingriem mākslīgā intelekta noteikumiem, lai saglabātu šīs spēcīgās tehnoloģijas cilvēka uzraudzību.
Šī gada pulcēšanās, ko kopīgi rīko Francija un Indija, iezīmē pāreju no iepriekšējiem notikumiem, piemēram, pulcēšanās Bletchley parkā un Seulā, kur galvenokārt tika pievērsta uzmanība AI drošībai.2024.gada samita mērķis ir ietvert plašāku skatījumu uz AI pārvaldību, ilgtspējību un nozares atbildību.
Pāreja uz AI pārvaldību un iespējām
Francijas darba kārtība apzināti uzsver ne tikai riskus, bet arī AI sniegtās iespējas.“Mēs nevēlamies runāt tikai par riskiem.Šeit ir arī ļoti reālu iespēju aspekts, ” sacīja Anne Buvero, Francijas prezidenta Emanuela Makrona AI sūtne.
Tomēr ap šo optimistisko skatījumu valda skepse. Dzīvības nākotnes institūta prezidents Makss Tegmarks brīdina, ka, lai gan iespējas pastāv, tās nedrīkst aizēnot steidzamas darbības pret pieaugošajiem AI radītajiem draudiem.“Francija ir bijusi brīnišķīga starptautiskās sadarbības čempione, un tagad tai ir iespēja vadīt globālo sabiedrību, “ komentēja ievērojamais MIT fiziķis.
AI risku novēršana ar globālām iniciatīvām
Proaktīvi samits ir ieviesis globālās riska un AI drošības sagatavotības (GRASP) sistēmu.Šī iniciatīva, ko atbalsta Future of Life institūts, cenšas analizēt un mazināt ar AI saistītos riskus, nosakot efektīvus globālās drošības risinājumus.“Mēs esam identificējuši aptuveni 300 rīkus un tehnoloģijas, lai novērstu šos riskus, “ paskaidroja GRASP koordinators Sairuss Hodess.
Nesen publicētajā revolucionārajā starptautiskajā mākslīgā intelekta drošības ziņojumā — 96 ekspertu atziņu apkopojums, ko apstiprinājušas valstis, tostarp 30 valstis, kā arī lielas organizācijas, piemēram, ANO un ESAO, ir uzsvērti dažādi riski, sākot no dezinformācijas līdz nopietniem draudiem, piemēram, bioloģiskiem uzbrukumiem un kiberkaram.
Ievērojams mākslīgā intelekta pētnieks un Tjūringa balvas saņēmējs Jošua Bengio pauda bažas par risku zaudēt kontroli pār AI tehnoloģijām, apgalvojot, ka “pierādījumi pastāvīgi parādās papildu riskiem, un ilgtermiņā AI var attīstīt savus izdzīvošanas instinktus, izraisot neparedzētas sekas.”
Paredzamie mākslīgā vispārējā intelekta draudi
Viena no galvenajām AI speciālistu bažām ir strauja virzība uz mākslīgo vispārējo intelektu (AGI), kas spēj pārspēt cilvēka intelektu dažādās jomās. Sems Altmans, OpenAI izpilddirektors, kopā ar Dario Amodei no Anthropic ir ierosinājuši, ka AGI ierašanās varētu sakrist ar nākamajiem gadiem.
“Ja paskatās tikai uz progresa tempu, tas liek domāt, ka mēs to sasniegsim līdz 2026.vai 2027.gadam, ” novembrī atzīmēja Amodei. Tomēr Tegmark izdeva stingru brīdinājumu par iespējamo scenāriju, kurā AI līderi, īpaši ASV un Ķīnā, zaudēs kontroli pār AGI, kas, iespējams, novedīs pie pasaules, kurā dominē viedās mašīnas.
AI karā: pieaugošas bažas
Viens no nozīmīgākajiem tūlītējiem draudiem ir autonomo ieroču jomā, ko darbina AI. Stjuarts Rasels, UC Berkeley profesors un Starptautiskās drošas un ētiskas AI asociācijas (IASEI) koordinators, uzsvēra savas bažas par AI sistēmām, kas pieņem kaujas lauka lēmumus.“Lielākās bailes rada AI kaujas lauka lēmumu pieņemšanu — izvēloties, kam un kad uzbrukt — bez cilvēka uzraudzības, “ viņš norādīja.
Eksperti vienbalsīgi apgalvo, ka valdībām ir nekavējoties jārīkojas, lai regulētu mākslīgo intelektu ar tādu pašu stingrību kā citas augsta riska nozares.“Ja kāds vēlas būvēt kodolreaktoru, viņam pirms būvniecības jāpierāda, ka tas ir drošs. AI ir jāizturas tāpat, “ uzsvēra Tegmarks.
Parīzē risinot diskusijas, aktuāls paliek jautājums: kā pasaule var izmantot milzīgo AI potenciālu, vienlaikus nodrošinot, ka tas neizvairās no cilvēka kontroles? Nākamie mēneši ir izšķiroši, lai noteiktu, vai efektīva AI pārvaldība var iet kopsolī ar straujo tehnoloģiju attīstību, vai arī cilvēce riskēs atpalikt.
Bieži uzdotie jautājumi
1. Kāpēc Parīzes samits par AI ir nozīmīgs?
Parīzes samits ir ļoti svarīgs, jo tajā tiek risināts gan mākslīgā intelekta potenciāls, gan riski, galveno uzmanību pievēršot starptautisku noteikumu izveidei, lai nodrošinātu, ka mākslīgais intelekts joprojām ir cilvēka kontrolē, vienlaikus veicinot novatoriskas pārvaldības stratēģijas.
2. Kādas iniciatīvas tika uzsāktas, lai novērstu AI drošības riskus?
Global Risk and AI Safety Preparedness (GRASP) platforma tika ieviesta, lai analizētu un mazinātu ar AI tehnoloģiju saistītos riskus. Tās mērķis ir identificēt aptuveni 300 rīkus un stratēģijas, lai efektīvi cīnītos pret iespējamiem draudiem.
3. Kādas ir bažas saistībā ar mākslīgo vispārējo intelektu (AGI)?
Eksperti pauž bažas, ka AGI var pārspēt cilvēka intelektu, izraisot scenārijus, kad AI sistēmas darbojas autonomi, kas var izraisīt neparedzētas sekas un kontroles pār kritiskajām sistēmām zaudēšanu.
Atbildēt ▼