Pas entuziazmit vijnë kufizimet: Sistemet e Inteligjencës Artificiale, më të rrezikshme nga sa mendoheshin

Pinterest LinkedIn Tumblr +
Pas entuziazmit vijnë kufizimet: Sistemet e Inteligjencës Artificiale, më të rrezikshme nga sa mendoheshin

The Economist 

Përktheu: Vizionplus.tv 

“Më vjen keq Dave, kam frikë se nuk mund ta bëj këtë.” hal 9000, kompjuteri vrasës në “2001: A Space Odyssey” është një nga shembujt e shumtë në “fiction” mbi shkencën shkencore kur inteligjenca artificiale tejkalon krijuesin e saj njerëzor me pasoja vdekjeprurëse.

Progresi i fundit në AI, veçanërisht futja në përdorim e Chatgpt, e ka shtyrë para sensibilizimin mbi “rrezikut ekzistencial” në axhendën ndërkombëtare.

Advertisement

Në mars 2023, një mori kompanish dhe individësh të famshëm të teknologjisë, përfshirë Elon Musk, kërkuan një ndalimprej të paktën gjashtë muajsh në zhvillimin e AI për shkak të shqetësimeve mbi sigurinë.

Në një samit për sigurinë e ajrit në Britani vjeshtën e kaluar, politikanët diskutuan mënyrën më të mirë për të rregulluar këtë teknologji potencialisht të rrezikshme.

Frika se teknologjia po lëvizte shumë shpejt janë zëvendësuar nga shqetësimet se AI mund të jetë më pak i dobishëm, në formën e tij aktuale, sesa pritej.

Në të njëjtën kohë, procesi i hartimit të rregullave i ka bërë politikëbërësit të njohin nevojën për t’u përballur me problemet ekzistuese që lidhen me AI, si paragjykimi, diskriminimi dhe shkelja e të drejtave të pronësisë intelektuale.

Advertisement

Fokusi është zhvendosur nga rreziqet e paqarta, hipotetike në ato specifike dhe të menjëhershme. Kjo është një gjë e mirë.

Për shembull, sistemet e bazuara në AI që vlerësojnë kredimarrësit  apo që shpërndajnë bonuse te punonjësit është zbuluar se shfaqin paragjykime racore ose ka raste kur sistemet AI që analizojnë CV-të gjatë rekrutimeve në punë favorizojnë burrat.

Po ashtu, sistemet e njohjes së fytyrës të përdorura nga agjencitë e zbatimit të ligjit kanë më shumë gjasa të keqidentifikojnë njerëzit me ngjyrë. Platformat AI mund të përdoren për të krijuar video “deepfake”, duke përfshirë ato pornografike.

Artistët, muzikantët dhe organizatat e lajmeve thonë se puna e tyre është përdorur, pa leje, për të trajnuar modele AI.

Advertisement

Rezultati ka qenë një tufë ligjesh të reja. Përdorimi i sistemeve të drejtpërdrejta të njohjes së fytyrës nga agjencitë e zbatimit të ligjit do të ndalohet sipas ligjit të Bashkimit Evropian, për shembull, së bashku me përdorimin e AI për policimin parashikues, njohjen e emocioneve dhe apo edhe në disa sektorë të reklamimit.

Shumë vende kanë futur rregulla që kërkojnë të etiketohen videot e krijuara nga AI. Koreja e Jugut ka ndaluar videot e rrejshme të politikanëve në 90 ditë para zgjedhjeve; Singapori mund ta ndjekë këtë shembull.

Apple ashtu edhe Meta kanë thënë se nuk do të fusin në përdorim disa nga produktet e tyre ai në BE për shkak të paqartësisë në rregullat për përdorimin e të dhënave personale.

Disa nga këto përpjekje për t’u marrë me problemet ekzistuese me AI do të funksionojnë më mirë se të tjerat. Por ato pasqyrojnë mënyrën se si ligjvënësit po zgjedhin të fokusohen në rreziqet e jetës reale që lidhen me sistemet ekzistuese të AI.

Advertisement

Siç qëndrojnë gjërat, është e vështirë të shihet se si një model i madh AI mund të shkaktojë vdekje ose shkatërrim fizik.

Por ka shumë mënyra në të cilat sistemet AI tashmë mund dhe shkaktojnë forma jo-fizike të dëmtimit—kështu që ligjvënësit, tani për tani, kanë të drejtë të fokusohen në to. /vizionplus.tv

Advertisement
Share.

Comments are closed.

Copyright © 2024 Struga.info | Privacy policy