Njerëz brilant, por jo të besueshëm janë një dukuri e shpeshtë në histori. I njëjti korrelacion mund të zbatohet për inteligjencën artificiale, sipas një hetimi OpenAI të raportuar nga gazeta amerikane New York Times.
Halucinacionet, faktet e fabrikuara dhe gënjeshtrat e plota kanë qenë të pranishme në chatbot-et e inteligjencës artificiale për aq kohë sa kanë ekzistuar, dhe përmirësimet në modelet teorikisht duhet të zvogëlojnë frekuencën e tyre. Flamurtarët më të fundit të OpenAI, GPT o3 dhe o4‑mini, janë krijuar për të imituar logjikën njerëzore.
Ndryshe nga paraardhësit e tij, të cilët u fokusuan kryesisht në gjenerimin e tekstit të rrjedhshëm, GPT o3 dhe o4‑mini duhet "të mendojnë hap pas hapi", raporton KosovaPress.
OpenAI mburrej se o3 mund të përputhet ose të tejkalojë rezultatet e studentëve të doktoratës në kimi, biologji dhe matematikë. Por raporti OpenAI zbulon disa të dhëna të frikshme për këdo që i merr si të mirëqena përgjigjet e ChatGPT.
OpenAI zbuloi se GPT o3 kishte halucinacione në një të tretën e detyrave në testin e standardeve të figurave publike - dy herë më shumë se modeli o1 i vitit të kaluar. O4-mini më kompakt ishte edhe më keq, me halucinacione në 48% të detyrave të ngjashme.
Kur modelet u testuan me pyetje të përgjithshme nga testi SimpleQA, përqindja e halucinacioneve u hodh në 51% në o3 dhe 79% në o4‑mini.
Nuk është thjesht një gabim i vogël në sistem, është një krizë e vërtetë identiteti. Ju do të mendonit se një sistem që e reklamon veten si "i arsyeshëm" të paktën do të kontrollonte dy herë përpara se të shpikte diçka, por thjesht nuk është kështu.
Një teori që qarkullon në komunitetin e inteligjencës artificiale është se sa më shumë një model "mendon", aq më shumë mundësi ka për gabim. Ndryshe nga modelet më të thjeshta që i përmbahen parashikimeve me besim të lartë, modelet racionale hyjnë në një sferë ku duhet të marrin në konsideratë shtigje të shumta, të lidhin fakte të largëta dhe në fakt të improvizojnë – dhe të improvizosh me fakte shpesh do të thotë të shpikësh.
OpenAI tha për Times se rritja e numrit të halucinacioneve mund të mos rrjedhë nga një model arsyetimi me të meta.
Për shkak se modelet e reja nuk përsërisin vetëm fakte të parashikueshme, por spekulojnë mbi mundësitë, linja midis teorisë dhe trillimit bëhet e paqartë për inteligjencën artificiale. Fatkeqësisht, disa nga këto “mundësi” janë krejtësisht të shkëputura nga realiteti.
Sidoqoftë, më shumë halucinacione janë e kundërta e asaj që dëshirojnë OpenAI ose konkurrentët si Google dhe Anthropic. Avokatët tashmë kanë pasur probleme sepse kanë përdorur ChatGPT dhe nuk kanë vërejtur precedentët e fabrikuar të gjykatës; kush e di se sa gabime të tilla kanë shkaktuar vështirësi në situata më pak të rrezikshme?
Mundësitë që halucinacionet të shkaktojnë telashe po zgjerohen me shpejtësi pasi inteligjenca artificiale hyn në klasa, zyra, spitale dhe zyra qeveritare.
Inteligjenca artificiale e avancuar mund të ndihmojë në shkrimin e aplikacioneve për punë, zgjidhjen e problemeve me llogaritë ose analizimin e tabelave, por paradoksi është se sa më e dobishme të jetë inteligjenca artificiale, aq më pak vend për gabime.
Nuk mund të pretendoni se po i kurseni dikujt kohë dhe përpjekje nëse duhet të kalojë të njëjtën kohë duke kontrolluar gjithçka që ju thoni. Jo sepse këto modele nuk janë mbresëlënëse - GPT o3 ka treguar aftësi të jashtëzakonshme kodimi dhe logjike dhe i kalon shumë njerëz në disa aspekte. Problemi lind në momentin kur ai vendos që Abraham Lincoln organizoi një podcast ose që uji vlon në 27 gradë Celsius; atëherë shpërndahet iluzioni i besueshmërisë.
Derisa këto çështje të zgjidhen, shikoni çdo përgjigje nga modeli i inteligjencës artificiale me një dozë të madhe skepticizmi. Ndonjëherë ChatGPT është paksa si një person me vetëbesim që flet marrëzi, përfundon raporti.