Информациите со кои се среќаваме на Интернет секој ден можат да бидат погрешни, нецелосни или фабрикувани. Да се биде изложен на „лажни вести“ на платформите за социјални медиуми, како Фејсбук и Твитер, може да влијае на нашите мисли и одлуки. Веќе видовме дека дезинформациите се мешаат во изборите во Соединетите држави.Основачот на Фејсбук Марк Зукерберг повеќе пати предложи вештачка интелигенција (АИ) како решение за дилемата за лажни вести. Сепак, ова прашање веројатно бара високи нивоа на вклученост на човекот, бидејќи многу експерти се согласуваат дека на технологиите за интелигенција им е потребен понатамошен напредок.Џанлука Демартини, вонреден професор на Универзитетот во Квинсленд и двајца колеги добија финансиски средства од Фејсбук за самостојно да спроведат истражување за „човекот-во-јамка“ АИ пристап што може да помогне во пополнување на недостатокот. Човекот-во-јамка се однесува на вклученоста на луѓето (корисници или модератори) за поддршка на АИ во вршење на својата работа. На пример, со создавање на податоци за обука или рачно потврдување на одлуките донесени од АИ. Нивниот пристап комбинира можност на АИ да процесира големи количини на податоци со способноста на луѓето да разберат дигитална содржина. Ова е насочено решение за лажни вести на Фејсбук, со оглед на неговото масивно и субјективно толкување.Според Демартини и истражувачите; „Податоците што ги составуваат можат да се користат за обука на АИ. Но, ние исто така сакаме сите корисници на социјални медиуми да бидат посвесни за сопствените пристрасности, кога станува збор за она што тие ги нарекуваат лажни вести “.Фејсбук вработи илјадници луѓе за умереност на содржината. Овие модератори поминуваат осум до десет часа на ден гледајќи експлицитен и насилен материјал како што се порнографија, тероризам и обезглавување, за да одлучат која содржина е прифатлива за корисниците да ја видат. Сметајте ги за сајбер чистачи кои ги чистат нашите социјални медиуми со отстранување на несоодветна содржина. Тие играат интегрална улога во обликувањето на она со што комуницираме. Сличен пристап би можел да се прилагоди на лажните вести, прашувајќи ги модераторите на Фејсбук кои статии треба да се отстранат и кои треба да се дозволат. АИ системите би можеле да го сторат ова автоматски во голем обем со тоа што ќе научат какви се лажни вести од рачно бележани примери. Но, дури и кога АИ може да открие „забранета“ содржина, човечки модератори се потребни за да ја означат содржината што е контроверзна или субјективна. Демартини вели; „Иако реперите за проценка на системите за АИ што можат да детектираат лажни вести се значајни, ние сакаме да одиме чекор понатаму. Наместо само да побараме од АИ или експерти да донесат одлуки за тоа кои вести се лажни, треба да ги научиме корисниците на социјалните мрежи како да ги идентификуваат таквите предмети за себе. Сметаме дека е можен пристап насочен кон зајакнување на писменоста на информациите. “ Meral Musli Tajroska Source: https://theconversation.com/users-and-their-bias-are-key-to-fighting-fake-news-on-facebook-ai-isnt-smart-enough-yet-123767
ФИНАНСИРАНО ОД
Овој проект е делумно поддржан од Амбасадата на САД. Мислењата, откритијата и заклучоците, или препораките изнесени овде се на имплементаторот(ите)/авторот(ите), и не ги одразуваат оние на Владата на САД
ПАРТНЕРСТВО