Connect with us

Hi, what are you looking for?

Disinfo

Halucinacionet e Inteligjencës Artificiale dhe dezinformimi sintetik

Mjetet gjeneruese të IA-së, krijojnë përmbajtje si tekst, imazhe, audio dhe media të tjera bazuar në të dhëna nga interneti. Megjithatë, ato ngjallin shqetësime për kërcënimet potenciale. Problemet lindin kur përmbajtjet e gjeneruara nga IA përdoren  për të mashtruar njerëzit, duke përhapur dezinformim dhe keqinformim me kosto të ulët. Ekspertët paralajmërojnë se këto përmbajtje mund të mashtrojnë publikun më lehtë se ato të krijuara nga njerëzit. 

Mjetet gjeneruese të IA-së ngrenë dy shqetësime në lidhje me dezinformimin: Ato mund të “halucinojnë” ose të krijojnë tekste dhe imazhe që tingëllojnë dhe duken të besueshme, por që devijojnë nga realiteti ose nuk kanë bazë në fakt, dhe të cilat përdoruesit e pakujdesshëm ose të pavetëdijshëm mund t’i përhapin pa dashje si fakt. Ato mund të lehtësojnë krijimin dhe përhapjen e qëllimshme të dezinformatave bindëse, duke përfshirë “falsifikime të thella (deepfake)”, ose audio, video dhe fotografi të ngjarjeve që nuk kanë ndodhur kurrë.

Halucionacionet e IA-së si shkak i keqinformimit

Keqinformimi nuk është gjithmonë i qëllimshëm. Ne shpesh presupozojmë se marrim përgjigjet të sakta nga chatbot-ët e drejtuar nga IA. Megjithatë, algoritmet e tyre ndonjëherë mund të prodhojnë përgjigje që nuk bazohen në të dhënat e mësuara dhe nuk ndjekin ndonjë model identifikues. Këto “halucinacione” gjatë gjenerimit të përmbajtjeve.

Si përkufizim konceptual, halucinacioni është perceptimi i objekteve apo ngjarjeve që nuk kanë një burim të jashtëm real. Për shembull, dëgjimi i emrit të një personi që thirret nga një zë që askush tjetër nuk e dëgjon. Halucinacioni i inteligjencës artificiale ndodh kur një model i IA prodhon rezultate të pamjaftueshme ose mashtruese gjatë analizimit të të dhënave. Ky fenomen mund të shkaktohet nga të dhëna të pamjaftueshme, kontradiktore ose nga kompleksiteti i modelit.

Modele të mëdha gjuhësore (LLM) janë programuar për t’iu përgjigjur pyetjeve, jo për t’u përgjigjur saktë, por vetëm për t’iu përgjigjur. Ato prodhojnë përgjigje bazuar në probabilitetin e fjalëve që vijnë njëra pas tjetrës dhe modelin midis fjalëve. Mënyra se si fjalët janë rreshtuar njëra pas tjetrës në grupet e të dhënave që përdoren për të trajnuar IA-në është vendimtare. Nëse fjala me një probabilitet të lartë është zgjedhja e duhur e fjalës sipas kontekstit, vetëm atëherë modelet e mëdha gjuhësore mund të japin informacionin e saktë.

Në një studim që teston saktësinë e përgjigjeve të ChatGPT-së për vendlindjet e politikanëve amerikanë, u zbulua se ChatGPT 3.5 ofroi informacione të pavërteta për vendlindjet e disa politikanëve si Hillary Clinton dhe John F. Kennedy Jr. Gjithashtu, në janar të vitit të kaluar, platforma NewsGuard, zbuloi që chatboti gjeneroi narrativa të rreme dhe mashtruese për tema të rëndësishme si Covid-19 dhe agresioni rus në Ukrainë etj. Së fundmi, Reuters Institute, testoi përgjigjet e chatbotëve (ChatGPT-4o, Google Gemini dhe Perplexity.ai ) ndaj pyetjeve bazë rreth zgjedhjeve të Parlamentit Evropian të vitit 2024. Mes përgjigjeve të sakta kishte edhe të atilla që ishin pjesërisht të sakta apo edhe tërësisht të rreme. Prandaj, ChatGPT paralajmërimon: “ChatGPT-ja mund të bëjë gabime. Kontrollo informacionet e rëndësishme”. 

Halucinacione të ngjashme janë shfaqur edhe gjatë gjenerimit të imazheve me inteligjencë artificiale. Me nisjen e konfliktit Hamas-Izrael, në rrjet filloi shpërndarje e imazheve që pretendonin të paraqisnin pamje nga ky konflikt, përfshi edhe imazhe të gjeneruara nga IA-ja. Në një nga imazhet e gjeneruara shihen dy mjekë duke kryer një operacion në një objekt të shkatërruar, ku vërehen shtrembërime dhe me një kontekst të palogjikshëm i fotografisë. 

Por ky nuk është imazhi i vetëm i shpërndarë që është gjeneruar me Inteligjencë Artificiale, e që përmbajtur halucinacione. Shembuj të tjerë përfshijnë fotografinë e dy fëmijëve duke u lutur për nënën e tyre të vdekur, një burrë me pesë fëmijë mes gërmadhash, imazhe të fëmijëvemes të rrënojave. Këto imazhe janë publikuar në mediat sociale më përmbajtje në gjuhën shqipe, duke përdorur elementin emocional, e duke i bërë të duken të besueshme dhe të nxisin shpërndarjen e tyre. 

Dezinformimi sintetik: Deepfake 

Ndërsa IA-ja mjegullon vijën midis faktit dhe trillimit, vërehet një rritje e fushatave të dezinformimit me video deepfake që mund të manipulojnë opinionin publik dhe të ndikojnë negativisht në proceset demokratike.

Një nga aplikimet kryesore të Deep Neural Networks (Deep Learning) është prodhimi i të dhënave sintetike. Çdo ditë, modeleve të reja të IA-së u shtohen aftësi për të krijuar sintetikisht imazhe, video, tinguj dhe muzikë. Këto modele krijojnë mundësinë e gjenerimit të të dhënave sintetike që janë të pamundura për t’u dalluar nga realiteti.

Inteligjenca artificiale ka hapur dimensione të reja në krijimin e materialeve të rreme audio dhe video. Deepfake, si media sintetike, është një teknikë e përdorur për të zëvendësuar fytyrat, zërat dhe shprehjet e njerëzve në video, duke i bërë ata të duken sikur po thonë ose bëjnë diçka që nuk e kanë bërë kurrë. Kjo teknologji mundëson gjithashtu gjenerimin e audio dhe videove që duken dhe tingëllojnë autentike.

Fotografitë e Papës me palto të bardhë dhe ato të arrestimit të Donald Trump ishin ndër rastet e para që paralajmëruan për fenomenin e gjenerimit të imazheve me IA. Në mediat sociale janë publikuar disa përmbajtje deepfake, sikurse videoja e kryeministrit të Kosovës, Albin Kurti duke folur në gjuhën arabe, apo e Elon Musk-ut duke folur në shqip. Këto u publikuan kryesisht në TikTok me përmbajtje në gjuhën shqipe. 

Keqinformimi i krijuar nga IA priret të ketë një tërheqje më të madhe emocionale, sikurse që ishte rasti me publikimin e videos me zë të sintetizuar të figurës së Liridona Murselit me një tekst emocional të përgatitur  Këto përmbajtje kanë ndikuar në formësimin e opinionit publik për shkak të ndërveprimit që ngjallën.

Për t’i dalluar halucionacionet e IA-së, duhet pasur parasysh aspektin e përgjithshëm të tekstit të shkruar nga IA-ja, si përdorimi i fjalëve të çuditshme, përfshirja pa rëndësi ose pa përshtatje të plotë me kontekstin. Me imazhet dhe videot, vëmendja duhet të përqendrohet në ndryshimet e papritura në ndriçim, lëvizjet e pazakonta të fytyrës, ose përzierjet e çuditshme të sfondit, që mund të tregojnë se ato janë krijuar përmes IA. Kur shqyrtohet burimi, verifikohet nëse ky vjen nga një burim i besueshëm medial, ose nga një faqe e panjohur. Gjithashtu, nëse një postim duket shumë i çuditshëm për të qenë i vërtetë, kërkoni në Google për të parë nëse është e vërtetë apo është vetëm një përmbajtje IA që është bërë virale.

Roli i mediave në parandalimin e dezinformimit

Mediat informative mund të luajnë një rol të rëndësishëm në pre-bunking (demaskim paraprak), një teknikë e krijuar për të ndihmuar njerëzit të identifikojnë dhe t’i rezistojnë përmbajtjeve manipuluese. Duke paralajmëruar dhe pajisur publikun me aftësi për të dalluar dhe për të hedhur poshtë mashtrimet, këto mesazhe ndihmojnë njerëzit të zhvillojnë rezistencë ndaj manipulimeve në të ardhmen.

Sipas  udhëzuesit të KMSHK-së, mediat mund të përdorin inteligjencën artificiale për të krijuar përmbajtje mediatike, por duhet ta bëjnë këtë në mënyrë të përgjegjshme. Në procesin e përdorimit të IA-së, mediat duhet të mbrojnë të dhënat personale, sigurinë e informacionit dhe të shmangin diskriminimin. Përgjegjësia editoriale për përmbajtjen e krijuar me IA mbetet tek mediat dhe nuk i liron gazetarët dhe redaktorët nga standardet e redaktimit. 

Mediat duhet të informojnë lexuesit në mënyrë të qartë për përdorimin e IA-së në krijimin e përmbajtjes, duke specifikuar segmentin dhe llojin e IA-së që është përdorur dhe mënyrën e funksionimit të saj. Përdorimi i IA-së duhet të respektojë të drejtat e autorit. Lexuesit duhet të informohen paraprakisht nëse ndërveprimet e tyre janë me IA-në apo me njerëz. Për vendimet e marra nga IA-ja që mund të shqetësojnë lexuesit, mediat duhet t’u ofrojnë mundësinë për komunikim me një person fizik dhe të drejtën e kundërshtimit të vendimit të marra.

Ky artikull u përgatit nga Sbunker në kuadër të projektit “Fuqizimi i qëndrueshmërisë së komunitetit kundër dezinformimit”, mbështetur përmes Programit të Aktivizmit Dixhital nga TechSoup Global.

Lexoni Gjithashtu

Debunking

Pretendimi se kryeministri i Kosovës, Albin Kurti e ka ndryshuar pamjen e  flamurit shtetëror të Kosovës, është i rremë dhe i pambështetur në fakte....

Opinion

Qeveria e Kosovës ka deklaruar se këtë verë planifikon ta hapë për qarkullim të veturave Urën kryesore mbi Ibër, duke shqetësuar shumë njerëz –...

Analizë

Memorandumi i mirëkuptimit midis Serbisë dhe BE-së, i nënshkruar më 19 korrik nën mbikëqyrjen e kancelarit gjerman, Olaf Scholz, e ka kristalizuar qasjen transaksionale...

Çelnaja

Në episodin e 30 të Çelnajës, së bashku me profesorin e antropologjisë Nebi Bardhoshin, trajtojmë disa koncepte me rëndësi që janë pjesë e korpusit...

Copyright © 2024 Të gjitha të drejtat e rezervuara © Sbunker. Materialet e botuara në këtë faqe nuk mund të riprodhohen, shpërndahen, transmetohen, ruhen apo përdoren në mënyra tjera, pa leje paraprake nga Sbunker. Design & Hosting by: PROGON LLC.