Informacioni që hasim në internet çdo ditë mund të jetë mashtruese, jo e plotë ose e fabrikuar. Të ekspozuarit ndaj “lajmeve të rreme” në platformat e mediave sociale si Facebook dhe Twitter mund të ndikojnë në mendimet dhe vendimet tona. Tashmë kemi parë dezinformata që ndërhyjnë në zgjedhje në Shtetet e Bashkuara.
Themeluesi i Facebook, Mark Zuckerberg, ka propozuar në mënyrë të përsëritur inteligjencën artificiale (AI) si zgjidhjen e dilemës së lajmeve të rreme. Sidoqoftë, çështja kërkon nivele të larta të përfshirjes njerëzore, pasi shumë ekspertë pajtohen që teknologjitë e AI kanë nevojë për avancim të mëtejshëm.
Gianluca Demartini, profesor i asociuar, Universiteti i Queensland dhe dy kolegët kanë marrë fonde nga Facebook për të kryer në mënyrë të pavarur hulumtime në lidhje me një qasje AI “njeri-në- lak” që mund të ndihmojnë në tejkalimin e hendekut. Njeriu-në-lak i referohet përfshirjes së njerëzve (përdoruesit ose moderatorët) për të mbështetur AI-në në kryerjen e punës së vet. Për shembull, duke krijuar të dhëna trajnimi ose duke vërtetuar manualisht vendimet e marra nga AI. Qasja e tyre kombinon aftësinë e AI për të përpunuar sasi të mëdha të të dhënave me aftësinë e njerëzve për të kuptuar përmbajtjen dixhitale. Kjo është një zgjidhje e synuar për lajmet e rreme në Facebook, duke pasur parasysh shkallën e saj masive dhe interpretimin subjektiv.
Sipas Demartinit dhe studiuesve; “Të dhënat që ata janë duke përpiluar mund të përdoren për të trajnuar AI. Por ne gjithashtu duam që të gjithë përdoruesit e mediave sociale të jenë më të vetëdijshëm për paragjykimet e tyre, kur bëhet fjalë për ato që ata i quajnë lajme të rreme. “
Facebook ka punësuar mijëra njerëz për moderimin e përmbajtjes. Këta moderatorë kalojnë tetë deri në dhjetë orë në ditë duke parë materiale të qarta dhe të dhunshme, si pornografi, terrorizëm dhe prerje, për të vendosur se cila përmbajtje është e pranueshme për të parë përdoruesit. Konsideroni ata si rojtarë të internetit që pastrojnë median tonë sociale duke hequr përmbajtje të papërshtatshme. Ata luajnë një rol integral në formimin e asaj që bashkëveprojmë. Një qasje e ngjashme mund të përshtatet për lajmet e rreme, duke pyetur moderatorët e Facebook-ut se cilat artikuj duhet të hiqen dhe cilat duhet të lejohen. Sistemet e AI mund ta bëjnë këtë automatikisht në një shkallë të gjerë duke mësuar se çfarë lajmi i rremë është nga shembujt e shënuar me dorë. Por edhe kur AI mund të zbulojë përmbajtjen “e ndaluar”, moderatorët njerëzorë janë të nevojshëm për të shënuar përmbajtje që është e diskutueshme ose subjektive.
Demartini thotë; “Ndërsa standardet për të vlerësuar sistemet e AI që mund të zbulojnë lajmet e rreme janë të rëndësishme, ne duam të shkojmë një hap më tej. Në vend që t’i kërkojmë vetëm AI ose ekspertëve të marrin vendime për atë se cilat lajmet janë të rreme, ne duhet t’i mësojmë përdoruesit e mediave sociale se si t’i identifikojnë vetë artikujt e tillë. Ne mendojmë se një qasje që synon nxitjen e besueshmërisë së informacionit është e mundur. “
Meral Musli Tajroska
FINANCOHET NGA
Ky projekt u financua pjesërisht përmes një granti të Ambasadës së SHBA. Mendimet, gjetjet dhe përfundimet ose rekomandimet e shprehura këtu janë të zbatuesve/autorëve dhe nuk pasqyrojnë domosdoshmërisht ato të Qeverisë së SHBA.
PARTNERËT