15 Nentor 2025

Superinteligjenca artificiale mund të jetë mjeti më i fuqishëm që ka krijuar ndonjëherë njerëzimi, ose sfida më e madhe e tij. Le të ndalemi dhe të vlerësojmë arsyet e këtij zhvillimi, argumentet pro dhe kundër.

Shkencëtarë dhe figura publike po kërkojnë të ngadalësohet gara drejt superinteligjencës, duke paralajmëruar se pa rregulla të përshtatshme ajo mund të përbëjë rrezik për njerëzimin.

Një grup i madh shkencëtarësh, pionierë të teknologjisë, akademikë, figura politike dhe komunikues publikë, kërkojnë që të bllokohet zhvillimi i sistemeve të Inteligjencës Artificiale të karakterizuara nga një “superinteligjencë” deri sa të ketë prova, studime të plota dhe të qarta që tregojnë se kjo teknologji sjell më shumë përfitime se sa rreziqe për njerëzimin.

Kërkesa është formalizuar në një deklaratë të nënshkruar nga mbi 1.500 ekspertë dhe personalitete publike.

Dokumenti pranon se AI mund të sjellë përparime të paprecedenta në shumë fusha në dobi të shoqërisë, por paralajmëron se zhvillimi i një superinteligjence e njohur edhe si AI e Përgjithshme (AGI), pa masa sigurie dhe kontrolli të mjaftueshëm përbën një rrezik shumë të madh, ndoshta të pakonceptuar më parë që mund të kërcënojë madje mbijetesën e njeriut.

Në krye të listës janë Geoffrey Hinton, fitues i Çmimit Nobel dhe profesor emeritus i Shkencave Kompjuterike në Universitetin e Torontos, dhe Yoshua Bengio, profesor në Universitetin e Montrealit, i konsideruar si shkencëtari më i cituar në botë. Të dy njihen si “kumbarët e Inteligjencës Artificiale moderne”.

Ndër nënshkruesit janë gjithashtu Steve Wozniak, bashkëthemelues i Apple dhe Richard Branson, themelues i Virgin Group. Peticionin e mbështesin edhe figura politike e ushtarake të profilit të lartë si Susan Rice (ish-këshilltare për Sigurinë Kombëtare të SHBA-së), Steve Bannon (këshilltar politik i Donald Trump), Admirali Michael G. Mullen (ish-kryetar i Shefave të Shtabit të Përbashkët të SHBA-së, njihet për fokusin e tij në udhëheqje, etikë dhe strategji në sigurinë kombëtare).

Listën e plotë e përmbyllin personalitete nga bota e kulturës dhe komunikimit, si Glenn Beck, Yuval Noah Harari, si dhe dukët e Sussex-it, Harry dhe Meghan Markle.

Një thirrje globale për të ndalur garën drejt superinteligjencës

Në deklaratë thuhet se, “shumë nga kompanitë kryesore të Inteligjencës Artificiale kanë si objektiv të deklaruar zhvillimin e një superinteligjence brenda dhjetëvjeçarit të ardhshëm, e aftë të tejkalojë ndjeshëm logjikën njerëzore në pothuajse të gjitha aktivitetet njohëse.

Kjo ka shkaktuar frikë pasi mund të ndikojë në humbjen e autonomisë njerëzore, në kufizimin e lirive dhe të drejtave civile, në cenimin e sigurisë kombëtare dhe në fund, te shfarosja e mundshme e njerëzimit”,

Përballë këtyre shqetësimeve nënshkruesit kërkojnë që zhvillimi i sistemeve AGI të kufizohet, derisa të ekzistojë një konsensus shkencor mbi sigurinë dhe kontrollin e tyre, si dhe një pranim i gjerë publik.

Mark Beall, ish-drejtor i strategjive të AI në Departamentin e Mbrojtjes së SHBA-së, thekson:

“Kur studiuesit e Inteligjencës Artificiale paralajmërojnë për rrezikun e shfarosjes dhe liderët teknologjikë ndërtojnë bunkerë për skenarë katastrofikë, kujdesi na detyron t’i dëgjojmë. Superinteligjenca pa masa sigurie mund të përfaqësojë shprehjen më të lartë të arrogancës njerëzore, një fuqi pa kufij moralë”.

Nisma është promovuar nga Future of Life Institute, një organizatë jofitimprurëse që prej më shumë se një dekade, studion rreziqet e mëdha që lidhen me Inteligjencën Artificiale, me qëllim që ta drejtojë zhvillimin e saj në dobi të njerëzimit.

Dy vite më parë, e njëjta organizatë kishte publikuar një letër të nënshkruar nga shumë ekspertë teknologjie ku kërkohej një pauzë në zhvillimin e sistemeve të fuqishme të AI.

Këtë herë, kërkesa është për ndalim të plotë dhe dallohet jo vetëm për numrin por edhe për fushat e ndryshme nga vijnë nënshkruesit e dokumentit.

Dyshime dhe shqetësime për zhvillimin e AGI

Deklarata thekson se në Shtetet e Bashkuara ekziston një pakënaqësi e gjerë ndaj përparimit të shpejtë të Inteligjencës Artificiale dhe mungesës së rregullave të forta.

Citohet një sondazh i fundit me 2.000 të rritur amerikanë, sipas të cilit vetëm 5% e të anketuarve mbështesin zhvillimin e shpejtë dhe pa rregullime të kësaj teknologjie.

Përkundrazi, një përqindje e madhe, rreth 64% e tyre, mendojnë se superinteligjenca nuk duhet të zhvillohet derisa të provohet se është e sigurt dhe e kontrollueshme pro rregullave të rrepta ndaj sistemeve të avancuara.

Yoshua Bengio thekson se “për të ecur përpara në mënyrë të sigurt drejt superinteligjencës, duhet të përcaktojmë shkencërisht se si të projektojmë sisteme AI që të jenë të paafta të dëmtojnë njerëzit, duke vlerësuar edhe përdorimin keqdashës.

Duhet të sigurojmë që qytetarët të kenë pjesëmarrje shumë më të fortë në vendimet që do të përcaktojnë të ardhmen tonë të përbashkët”.

Ekspertët e fushës besojnë se zhvillimi i AGI është më afër se sa mendohej, ndër ta Elon Musk parashikon që aftësitë e AI do të tejkalojnë inteligjencën njerëzore në fund të këtij viti, ose në fillim të 2026, ndërsa shkencëtarë të tjerë deklarojnë se këto programe të avancuara mund të bëhen realitet deri në 2030.

Deri tani nuk është dëshmuar zhvillimi i AI të këtij niveli, por shumë ekspertë paralajmërojnë se pa kontrolle të rrepta, përdorimi i teknologjive kaq të avancuara mund të dalë jashtë kontrollit dhe të sjellë rreziqe të konsiderueshme për sigurinë dhe shoqërinë.

Stuart Russell, profesor i Shkencave Kompjuterike në Universitetin e Berkeley-t dhe një nga nënshkruesit, përfundon: “Kjo kërkesë e re nuk është ndalim apo moratorium në kuptimin tradicional. Është thjesht një propozim për masa sigurie të përshtatshme për një teknologji që sipas vetë zhvilluesve, ka një mundësi domethënëse për të shkaktuar shfarosjen e njerëzimit.

A është kjo e tepërt për ta kërkuar?”/MONITOR