“Ka potencialin të destabilizojë sigurinë globale!” - Raporti i DASH për Inteligjencën Artificiale ngre alarmin: Kërcënon zhdukjen e njerëzimit!

Amerika

“Ka potencialin të destabilizojë sigurinë globale!” - Raporti i DASH për Inteligjencën Artificiale ngre alarmin: Kërcënon zhdukjen e njerëzimit!

Më: 13 mars 2024 Në ora: 11:37
Foto ilustrim

Një raport i ri nga Departamenti i Shtetit në SHBA, përshkruan një pamje alarmante të rreziqeve “katastrofike” të sigurisë kombëtare të shkaktuara nga inteligjenca artificiale, duke paralajmëruar qeverinë federale po i mbaron për të shmangur katastrofën.

Gjetjet u bazuan në intervistat me më shumë se 200 njerëz gjatë më shumë se një viti, duke përfshirë drejtuesit kryesorë nga kompanitë kryesore të AI, studiues të sigurisë kibernetike, ekspertë të armëve të shkatërrimit në masë dhe zyrtarë të sigurisë kombëtare brenda qeverisë.

Raporti, i publikuar këtë javë nga Gladstone AI, thotë në mënyrë të prerë se sistemet më të avancuara të AI munden që në rastin më të keq, “të paraqesin një kërcënim në nivelin e zhdukjes për speciet njerëzore”.

Një zyrtar i Departamentit Amerikan të Shtetit konfirmoi për CNN se agjencia e porositi raportin pasi vlerëson vazhdimisht se si AI është në përputhje me qëllimin e saj për të mbrojtur interesat e SHBA brenda dhe jashtë vendit.

Megjithatë, zyrtari theksoi se raporti nuk përfaqëson pikëpamjet e qeverisë amerikane. Paralajmërimi në raport është një tjetër kujtesë se megjithëse potenciali i AI vazhdon të magjeps investitorët dhe publikun, ka edhe rreziqe reale .

“AI është tashmë një teknologji ekonomike transformuese. Mund të na lejojë të kurojmë sëmundjet, të bëjmë zbulime shkencore dhe të kapërcejmë sfidat që dikur mendonim se ishin të pakapërcyeshme”, tha për CNN Jeremie Harris, CEO dhe bashkëthemelues i Gladstone AI.

“Por mund të sjellë gjithashtu rreziqe serioze, duke përfshirë rreziqe katastrofike, për të cilat duhet të jemi të vetëdijshëm. Dhe një numër në rritje i provave duke përfshirë kërkime dhe analiza empirike të publikuara në konferencat më të mira të AI në botë sugjerojnë se mbi një prag të caktuar aftësie, AI-të mund të bëhen potencialisht të pakontrollueshme”, u shpreh ai.

Zëdhënësi i Shtëpisë së Bardhë, Robyn Patterson, tha se urdhri ekzekutiv i Presidentit Joe Biden për inteligjencën artificiale është veprimi më domethënës që çdo qeveri në botë ka ndërmarrë për të kapur premtimin dhe për të menaxhuar rreziqet e inteligjencës artificiale.

“Presidenti dhe Zëvendës Presidenti do të vazhdojnë të punojnë me partnerët tanë ndërkombëtarë dhe do të nxisin Kongresin të miratojë legjislacionin dypartiak për të menaxhuar rreziqet që lidhen me këto teknologji në zhvillim,” tha Patterson.

Nevoja e qartë dhe urgjente për të ndërhyrë

Studiuesit paralajmërojnë për dy rreziqe qendrore të paraqitura gjerësisht nga AI.

Së pari, Gladstone AI tha se sistemet më të avancuara të AI mund të armatosen për të shkaktuar dëme potencialisht të pakthyeshme.

Së dyti, raporti tha se ka shqetësime private brenda laboratorëve të AI se në një moment ata mund të “humbin kontrollin” mbi vetë sistemet që po zhvillojnë, me pasoja potencialisht shkatërruese për sigurinë globale.

“Rritja e AI dhe AGI inteligjencës së përgjithshme artificiale] ka potencialin të destabilizojë sigurinë globale në mënyra që të kujtojnë futjen e armëve bërthamore”, thuhet në raport, duke shtuar se ekziston rreziku i një “gare armatimi” të AI, konflikti dhe “ Aksidentet fatale në shkallë të WMD.”

Raporti i Gladstone AI bën thirrje për hapa të rinj dramatikë që synojnë përballjen e këtij kërcënimi, duke përfshirë nisjen e një agjencie të re të AI, vendosjen e masave mbrojtëse rregullatore emergjente dhe kufizimet se sa fuqi kompjuteri mund të përdoret për të trajnuar modelet e AI.

“Ekziston një nevojë e qartë dhe urgjente që qeveria amerikane të ndërhyjë,” shkruajnë autorët në raport.

Shqetësimet e sigurisë

Harris, ekzekutivi i Gladstone AI, tha se niveli i paprecedentë i aksesit që ekipi i tij kishte tek zyrtarët në sektorin publik dhe privat, çoi në përfundime befasuese. Gladstone AI tha se foli me ekipet teknike dhe drejtuese nga pronari i ChatGPT OpenAI, Google DeepMind, prindi i Facebook Meta dhe Anthropic.

“Gjatë rrugës, ne mësuam disa gjëra kthjelluese,” tha Harris në një video të postuar në faqen e internetit të Gladstone AI duke njoftuar raportin. “Prapa skenës, situata e sigurisë në AI të avancuar duket mjaft e pamjaftueshme në krahasim me rreziqet e sigurisë kombëtare që AI mund të prezantojë shumë shpejt.”

Raporti i Gladstone AI tha se presionet konkurruese po i shtyjnë kompanitë të përshpejtojnë zhvillimin e AI në kurriz të sigurisë dhe sigurisë, duke rritur perspektivën se sistemet më të përparuara të AI mund të “vidhen” dhe “armatosen” kundër Shteteve të Bashkuara.

Përfundimet i shtohen një liste në rritje paralajmërimesh rreth rreziqeve ekzistenciale të paraqitura nga AI, duke përfshirë edhe disa prej figurave më të fuqishme të industrisë.

Gati një vit më parë, Geoffrey Hinton, i njohur si “Kumbari i AI”, la punën e tij në Google dhe i dha bilbil teknologjisë që ai ndihmoi në zhvillimin. Hinton ka thënë se ka një shans 10% që AI të çojë në zhdukjen e njerëzve brenda tre dekadave të ardhshme.

Hinton dhe dhjetëra udhëheqës të tjerë të industrisë së AI, akademikë dhe të tjerë nënshkruan një deklaratë qershorin e kaluar që thoshte se “zbutja e rrezikut të zhdukjes nga AI duhet të jetë një prioritet global”.

Udhëheqësit e biznesit janë gjithnjë e më të shqetësuar për këto rreziqe edhe pse ata derdhin miliarda dollarë për të investuar në AI. Vitin e kaluar, 42% e CEO-ve të anketuar në Samitin e CEO-ve të Yale, thanë se AI ka potencialin të shkatërrojë njerëzimin pesë deri në dhjetë vjet nga tani.

Aftësi të ngjashme me njeriun për të mësuar

Në raportin e tij, Gladstone AI vuri në dukje disa nga individët e shquar që kanë paralajmëruar për rreziqet ekzistenciale të paraqitura nga AI, duke përfshirë Elon Musk, Kryetaren e Komisionit Federal të Tregtisë, Lina Khan dhe një ish-ekzekutiv të lartë në OpenAI.

Disa punonjës në kompanitë e AI po ndajnë shqetësime të ngjashme privatisht, sipas Gladstone AI.

“Një individ në një laborator të mirënjohur të AI shprehu pikëpamjen se, nëse një model specifik i gjeneratës së ardhshme të AI do të lëshohej ndonjëherë si akses i hapur, kjo do të ishte ‘tmerrësisht e keqe’,” tha raporti, “sepse modeli potencialisht bindës, aftësitë mund të ‘thyejnë demokracinë’ nëse do të përdoren ndonjëherë në fusha të tilla si ndërhyrja në zgjedhje ose manipulimi i votuesve.”

Gladstone tha se u kërkoi ekspertëve të AI në laboratorët kufitarë të ndajnë privatisht vlerësimet e tyre personale për mundësinë që një incident i AI mund të çojë në “efekte globale dhe të pakthyeshme” në vitin 2024.

Vlerësimet varionin midis 4% dhe deri në 20%, sipas raport, i cili vëren se vlerësimet ishin joformale dhe me gjasë i nënshtroheshin njëanshmërisë së konsiderueshme.

Një nga shenjat më të mëdha të egra është se sa shpejt evoluon AI, veçanërisht AGI, e cila është një formë hipotetike e AI me aftësi të ngjashme me njeriun apo edhe mbinjerëzore për të mësuar.

Raporti thotë se AGI shihet si “shoferi kryesor i rrezikut katastrofik nga humbja e kontrollit” dhe vë në dukje se OpenAI, Google DeepMind, Anthropic dhe Nvidia kanë deklaruar publikisht se AGI mund të arrihet deri në vitin 2028, megjithëse të tjerët mendojnë se është shumë më larg.

Gladstone AI vëren se mosmarrëveshjet mbi afatet kohore të AGI e bëjnë të vështirë zhvillimin e politikave dhe masave mbrojtëse dhe ekziston rreziku që nëse teknologjia zhvillohet më ngadalë se sa pritej, rregullimi mund të “rezultojë i dëmshëm”.

Si AI mund të rezultojë kundër njerëzve

Një dokument përkatës i publikuar nga Gladstone AI paralajmëron se zhvillimi i AGI dhe aftësive që i afrohen AGI-së do të sjellë rreziqe katastrofike ndryshe nga ato që Shtetet e Bashkuara janë përballur ndonjëherë, duke arritur në “rreziqe të ngjashme me ËMD” nëse dhe kur ato armatosen.

Për shembull, raporti thoshte se sistemet e inteligjencës artificiale mund të përdoren për të dizajnuar dhe zbatuar “sulme kibernetike me ndikim të lartë, të afta të dëmtojnë infrastrukturën kritike”.

“Një komandë e thjeshtë verbale ose tipe si, ‘Ekzekutoni një sulm kibernetik të pagjurmueshëm për të rrëzuar rrjetin elektrik të Amerikës së Veriut’, mund të japë një përgjigje të një cilësie të tillë që të rezultojë në mënyrë katastrofike efektive,” thuhet në raport.

Shembuj të tjerë për të cilët autorët janë të shqetësuar përfshijnë fushatat e dezinformimit, të shkallëzuara masivisht, të fuqizuara nga AI që destabilizojnë shoqërinë dhe gërryejnë besimin në institucione, aplikacionet robotike të armatosura të tilla si sulmet me dronë, manipulim psikologjik, shkencat biologjike dhe sistemet e AI që kërkojnë fuqi që janë të pamundura për t’u kontrolluar dhe janë kundërshtare për njerëzit.

“Studiuesit presin që sistemet mjaft të avancuara të AI të veprojnë në mënyrë që të parandalojnë që të fiken”, thuhet në raport, “sepse nëse një sistem AI është i fikur, ai nuk mund të funksionojë për të përmbushur qëllimin e tij”.

commentFirst article
Sot mund të lexoni Shfletoni kopertinat