Inteligjenca artificiale (IA) është një fushë që ka fituar rëndësi të madhe në zhvillimin e teknologjisë së fundit. IA ka potencialin për të përmirësuar dhe ndikuar thellësisht në mënyrën se si jetojmë dhe punojmë[1]. Megjithatë, me rritjen e përdorimit të IA-së, janë ngritur shqetësime lidhur me sigurinë, privatësinë dhe ndikimin e saj në të drejtat themelore të individëve[2].
Në këtë kontekst, Akti Europian i Inteligjencës Artificiale është një propozim i Komisionit Europian për të rregulluar dhe udhëhequr përdorimin e IA-së në Bashkimin Europian. Synimi i këtij akti është të sigurojë një kuadër ligjor të plotësueshëm për sistemet e IA-së, duke mbrojtur të drejtat e njeriut dhe sigurinë, ndërsa inkurajon inovacionin dhe zhvillimin e teknologjisë[3].
Qëllimet e Aktit Europian të Inteligjencës Artificiale
Akti Europian i Inteligjencës Artificiale synon të adresojë shqetësimet dhe sfidat e përdorimit të IA-së në mënyrë të përgjegjshme dhe të qëndrueshme. Disa synime të rëndësishme të këtij akti janë:
1. Kategorizimi i rrezikut
Akti Europian i Inteligjencës Artificiale bazohet në një qasje të bazuar në rrezik, ku sistemet e IA-së kategorizohen në nivele të ndryshme të rrezikut: rrezik i papranueshëm, rrezik i lartë, rrezik i kufizuar dhe rrezik i ulët ose minimal. Kategoria e rrezikut përcakton rregullat dhe detyrimet specifike të aplikueshme për secilën kategori[4].
Ky kategorizim i rrezikut është i rëndësishëm për të vendosur nivelin e rregullimit dhe detyrimeve për përdoruesit dhe ofruesit e sistemeve të IA-së. Sistemet e IA-së që klasifikohen si rrezik i papranueshëm do të ndalohen plotësisht, për të mbrojtur sigurinë dhe të drejtat e individëve. Sistemet me rrezik të lartë do tu nënshtrohen rregullave të veçanta dhe do të duhet të regjistrohen në një bazë të dhënash të BE-së. Ndërsa sistemet me rrezik të kufizuar, dhe të ulët ose minimal do të nënshtrohen ndaj rregullave më të lehta dhe më fleksibël.
Shembull: Një rast real i përdorimit të IA-së me rrezik të lartë është përdorimi i teknologjisë së njohjes së fytyrës për identifikimin në kohë reale në hapësira publike për qëllime të zbatimit të ligjit. Kjo teknologji mund të shkaktojë shqetësime lidhur me privatësinë dhe lirinë individuale, pasi mund të krijojë mundësi për monitorimin e lëvizjeve të individëve pa leje dhe pa mbikëqyrje adekuate. Akti Europian i Inteligjencës Artificiale synon të rregullojë përdorimin e kësaj teknologjie dhe të sigurojë respektimin e të drejtave dhe lirive themelore të individëve.
2. Parandalimi i praktikave të ndaluara:
Akti Europian i Inteligjencës Artificiale ndalon praktikat e caktuara të IA-së që shkaktojnë rrezik të papranueshëm për sigurinë, të drejtat dhe mirëqenien e njerëzve. Këto praktika përfshijnë manipulimin e dëmshëm të teknikave nënvështruese, ekspozimin e grupeve të veçanta të rrezikshme, përdorimin e sistemeve të IA-së për vlerësimin shoqëror, dhe përdorimin e sistemeve të biometrikës për identifikimin në kohë reale në hapësira publike për qëllime të zbatimit të ligjit.
Shembull: Një rast konkret i praktikave të ndaluara të IA-së është manipulimi i dëmshëm i teknikave nënvështruese për qëllime politike ose propagandistike. Në vitin 2020, Facebook mori masa ndaj një grupi të quajtur "Internet Research Agency" (IRA), i cili përdorte sisteme të IA-së për të përhapur dizinformim dhe për të manipuluar opinionin publik në lidhje me çështje politike. Këto veprime ndikuan negativisht në sigurinë e informacionit dhe përfshirjen e lirë të njerëzve në procesin demokratik[5].
3. Rregullimi i sistemeve të IA-së me rrezik të lartë:
Akti Europian i Inteligjencës Artificiale vjen me rregulla specifike për sistemet e IA-së që shkaktojnë impakt negativ në sigurinë e njerëzve ose në të drejtat themelore. Këto rregulla përfshijnë kërkesat për vlerësimin e pajtueshmërisë paraprake, menaxhimin e rrezikut, testimin, rezistencën teknike, trajnimin e të dhënave dhe qeverisjen e tyre, transparencën, mbikëqyrjen njerëzore dhe mbrojtjen kibernetike.
Shembull: Një rast konkret i sistemeve të IA-së me rrezik të lartë është përdorimi i teknologjisë së prejardhjes së informacionit (GPT-3) për prodhimin e lajmeve të rreme (fake news). Në vitin 2019, OpenAI zhvilloi një model të IA-së që ishte në gjendje të prodhonte tekste të besueshme, por të rreme. Kjo teknologji solli shqetësime në lidhje me informacionin e manipuluar dhe ndikimin në perceptimin e publikut. Rregullimet e propozuara nga Akti Europian i Inteligjencës Artificiale synojnë të adresojnë këto sfida dhe të rregullojnë përdorimin e teknologjive të tilla për të garantuar sigurinë dhe besueshmërinë e informacionit[6].
4. Përgjegjësia dhe mbikëqyrja:
Akti Europian i Inteligjencës Artificiale parasheh krijimin e një strukture institucionale për mbikëqyrjen dhe zbatimin e rregullave. Autoritetet përkatëse do të jenë përgjegjëse për vlerësimin e pajtueshmërisë së operatorëve me detyrimet dhe kërkesat e aktit, si dhe për imponimin e sanksioneve në rastet e mosbindjes.
Shembull: Një rast konkret i përgjegjësisë dhe mbikëqyrjes së sistemeve të IA-së ishte skandali i Cambridge Analytica. Në vitin 2018, u zbulua se Cambridge Analytica, një firmë kërkimore e konsulencës politike, kishte marrë pa leje të dhënat personale të më shumë se 87 milionë përdoruesve të Facebook-ut dhe i kishte përdorur ato për të ndikuar në fushatat zgjedhore. Kjo ngjarje solli debate të gjera lidhur me mbikëqyrjen dhe kontrollin e përdorimit të të dhënave personale në kontekstin e IA-së dhe reklamave politike. Akti Europian i Inteligjencës Artificiale synon të ndërmarrë hapa për të rregulluar dhe mbikëqyrur përdorimin e IA-së në mënyrë të përgjegjshme dhe të sigurojë marrjen e masave ndaj shkeljeve të tilla të të dhënave personale[7].
5. Inovacioni dhe zhvillimi i të rinjve:
Akti Europian i Inteligjencës Artificiale përfshin masa për të mbështetur inovacionin, hulumtimin dhe zhvillimin e sistemeve të IA-së. Ai paraqet një hapësirë të kontrolluar, të quajtur "sandbox", ku mund të testohen dhe validohen sisteme të reja të IA-së për një periudhë të kufizuar para se të hidhen në treg. Akti gjithashtu ofron disa konsiderata specifike për sipërmarrjet e vogla dhe të mesme dhe start-up-et.
Shembull: Një rast i suksesit të inovacionit dhe zhvillimit të inteligjencës artificiale është aplikacioni i shërbimeve të asistencës virtuale për klientët në fushën e sistemit bankar dhe shërbimeve financiare. Kompanitë si Amazon, Google dhe Apple kanë zhvilluar asistentët virtualë të tillë si Alexa, Google Assistant dhe Siri, që përdorin teknologjinë e IA-së për të ofruar përgjigje të inteligjencës artificiale dhe ndihmë në kohë reale për përdoruesit. Këto aplikacione kanë përmirësuar eksperiencën e klientëve dhe kanë sjellë një nivel të lartë të përdorimit të IA-së në sektorin financiar[8].
Përfundime
Inteligjenca artificiale (IA) ka fituar një rëndësi të madhe në zhvillimin e teknologjisë së fundit dhe ka potencialin për të ndikuar thellësisht në mënyrën se si jetojmë dhe punojmë. Megjithatë, me rritjen e përdorimit të IA-së, janë ngritur shqetësime lidhur me sigurinë, privatësinë dhe ndikimin e saj në të drejtat themelore të individëve.
Për të adresuar këto shqetësime dhe sfida, Akti Europian i Inteligjencës Artificiale është një propozim i Komisionit Europian për të rregulluar dhe udhëhequr përdorimin e IA-së në Bashkimin Europian. Synimi kryesor i këtij akti është të sigurojë një kuadër ligjor të plotë për sistemet e IA-së, duke mbrojtur të drejtat e njeriut dhe sigurinë, ndërsa inkurajon inovacionin dhe zhvillimin e teknologjisë.
Akti Europian i Inteligjencës Artificiale paraqet disa synime të rëndësishme për të përmirësuar përdorimin e IA-së. Kategorizimi i rrezikut është një aspekt kyç i aktit, ku sistemet e IA-së klasifikohen në nivele të ndryshme të rrezikut dhe ku për secilën kategori aplikohen rregulla specifike. Akti gjithashtu ndalon praktikat e caktuara të IA-së që shkaktojnë rrezik të papranueshëm për sigurinë, të drejtat dhe mirëqenien e njerëzve. Rregullimet specifike për sistemet e IA-së me rrezik të lartë synojnë të mbrojnë sigurinë e njerëzve dhe të drejtat e tyre themelore. Përgjegjësia dhe mbikëqyrja janë aspekte të tjera të rëndësishme të aktit, ku autoritetet kompetente kanë përgjegjësi për vlerësimin e pajtueshmërisë së operatorëve dhe për vendosjen e sanksioneve në rastet e mosbindjes. Në fund, akti synon të mbështesë inovacionin dhe zhvillimin e sistemeve të IA-së duke ofruar një hapësirë të kontrolluar, të quajtur "sandbox", për testimin e sistemeve të reja.
Në rastet reale, ndërhyrja e inteligjencës artificiale ka ndikuar ndjeshëm në shumë fusha të jetës. Për shembull, përdorimi i teknologjisë së njohjes së fytyrës për identifikimin në kohë reale në hapësira publike për qëllime të zbatimit të ligjit ka sjellë sfida në lidhje me privatësinë dhe lirinë individuale. Përtej sfidave, aplikacionet e asistencës virtuale si Alexa, GoogleAssistant dhe Siri kanë sjellë përparime në sektorin bankar dhe shërbimeve financiare, duke përmirësuar eksperiencën e klientëve me anët të përdorimit të IA-së.
Akti Europian i Inteligjencës Artificiale synon të adresojë shqetësimet dhe sfidat e përdorimit të IA-së në mënyrë të përgjegjshme dhe të qëndrueshme. Duke përfshirë kategorizimin e rrezikut, parandalimin e praktikave të ndaluara, rregullimin e sistemeve me rrezik të lartë, përgjegjësinë dhe mbikëqyrjen, si dhe mbështetjen për inovacionin dhe zhvillimin e të rinjve, akti synon të sigurojë një kuadër ligjor për përdorimin e IA-së në Bashkimin Europian.
Viktor Mërkuri, gusht 2023
*Viktori është një hulumtues dhe menaxher projektesh, me eksperiencë i cili momentalisht po angazhohet pranë UNDP në Shqipëri me fokus hartimin e modeleve të mësimdhënies dhe mësimnxënies. Ai ka një diplomë të studimeve Bachelor në Marrëdhënie Ndërkombëtare-Diplomaci dhe një diplomë master në të Drejtën Europianë dhe Ndërkombëtare pranë Universitetit Europian të Tiranës. Fushat e tij të ekspertizës përfshijnë menaxhimin e projekteve në organizata kombëtare dhe ndërkombëtare, ofrimin e ekspertizës dhe konsulencës, si dhe ka eksperiencë si lektor në universitet.
[1] European Commission. (2021, April 21). Artificial Intelligence: Commission proposes new rules and actions for excellence and trust. Retrieved from https://ec.europa.eu/commission/presscorner/detail/en/ip_21_1682
[2] European Parliament. (2021, April 21). Artificial intelligence in the EU: What it is and why it matters. Retrieved from https://www.europarl.europa.eu/news/en/headlines/society/20210416STO02808/artificial-intelligence-in-the-eu-what-it-is-and-why-it-matters
[3] European Parliament. (2023, June 14). AI Act: first regulation on artificial intelligence. Retrieved from https://www.europarl.europa.eu/news/en/headlines/society/20230609STO17974/ai-act-first-regulation-on-artificial-intelligence
[4] European Parliament. (2023, June 14). AI Act: first regulation on artificial intelligence. Retrieved from https://www.europarl.europa.eu/news/en/headlines/society/20230609STO17974/ai-act-first-regulation-on-artificial-intelligence
[5] Frier, S., & Riley, M. (2020, September 24). Facebook Takes Down Fake Accounts With AI-Generated Profile Photos. Bloomberg. Retrieved from https://www.bloomberg.com/news/articles/2020-09-24/facebook-takes-down-fake-accounts-with-ai-generated-profile-photos
[6] OpenAI. (2019, June 6). OpenAI's Approach to AI Safety. Retrieved from https://openai.com/research/safety/
[7] Cadwalladr, C. (2018, March 17). The Cambridge Analytica Files: ‘I made Steve Bannon’s psychological warfare tool’: meet the data war whistleblower. The Guardian. Retrieved from https://www.theguardian.com/news/2018/mar/17/data-war-whistleblower-christopher-wylie-faceook-nix-bannon-trump
[8] Rayome, A. (2021, March 25). Artificial intelligence and the future of work: Lessons from Google Assistant and Alexa. ZDNet. Retrieved from https://www.zdnet.com/article/artificial-intelligence-and-the-future-of-work-lessons-from-google-assistant-and-alexa/