Размер на шрифта
Българско национално радио © 2024 Всички права са запазени

"Изображенията в днешно време може да са силно подвеждащи"

Проф. Ирина Гуревич: Образователните институции носят отговорност за дигиталната грамотност

"Технологията не е в степен на такава зрялост, която да вземе решението сама"

| Интервю
Снимка: Pixabay

Възможно ли е изкуственият интелект да прави проверка на фактите. За сега учените правят само проучвания по въпроса. Добромир Видев разговаря по темата с проф. Ирина Гуревич - един от водещите учени в сферата на обработката на естествен език. Тя е директор на Лабораторията за обработка на знания (UKP) в Техническия университет (TU) в Дармщат, Германия и президент на Асоциацията за компютърна лингвистика, както и съдиректор на програма в рамките на ELLIS -  европейската лаборатория за обучение и интелигентни системи. Проф. Ирина Гуревич беше лектор на програмата ИНСАЙТ в София.  

Наистина ли е възможно да се автоматизира процесът на проверка на фактите? 

Мисля, че пълна автоматизацията в момента е невъзможна. Въпреки това можем да автоматизираме отделни стъпки, като например извличането на подходящи документи и търсенето на подходящ пасаж в документите. Дори и процеса на класифициране като подкрепящи или опровергаващи твърдението или може би неутрални. Постижимо е да са автоматизират подобни стъпки. 

Тези задачи са сравнително лесни за машината. А и имаме търсачки с висока точност например за извличане на информация. Въпреки това, разсъжденията върху извлечените доказателства са много трудна задача дори за хората. А също така е много трудна за машините.  

Това е доста трудно и за самите журналисти. 

Вие всъщност извършвате много проверки на фактите в работата си. И това е подобно на работата, която извършват и алгоритмите при проверката на фактите. 

Може ли да ми дадете примери как развивате тази автоматизация на процесите?

Разбира се, че използваме изкуствен интелект. Моята област е естествената обработка на машинен език. Така както за търсачките, има известно сходството между измерванията на твърдението, което е „на входа“ и документите, или изречението е в рамките на документите. Така че, ако изреченията са подобни, те се считат за подходящи. И тогава има втора стъпка на класификация. И тук обикновено използваме контролирано машинно обучение. Ние създаваме данни за обучение, където имаме случаи, които са обозначени от хората като подкрепящи или опровергаващи твърдението. И след това използваме тези данни за обучение, за да извлечем статистически характеристики, които ни позволяват класифицира нови данни, които пристигат. И така работи….. 

А до каква степен може да бъде развита тази технология за автоматична проверка на фактите? 

В днешно време всички говорят за големите езикови модели. Така че технологията напредва много, много бързо. Мисля, че тази технология може да улесни проверката на фактите по много начини. Технологията обаче има и огромен недостатък, тъй като знаем, че големите езикови модели са перфектни за генериране на фалшиви новини. И ние ги наричаме халюцинации. Освен това е голямо изследователско предизвикателство как да не позволяват на езиковите модели да халюцинират факти. Например по време на пандемията от КОВИД имахме твърдения, че хидрокси-хлоро-хин-а може да лекува. Това беше разпространено в социални мрежи. И някои хора възприемат тези твърдения за верни. Имаше случаи, в които това вещество е боло приемано. А хората са починали от него. Другият тип фалшиви новини всички знаем, че е например пропаганда относно войната, която се случва в Близкия изток. Така че в такива много емоционални настройки, тази дезинформация може да доведе до ескалация на конфликта и може да доведе до огромен брой убити. Или както беше със съобщенията за ударите по болницата в Газа. 

Ние не знаем кое е истина или не. Обикновено в такива случаи моделът прави извод в рамките на най-простия случай - вярно невярно, или не знам. В по-напредналите модели те биха извели и вероятността това да е правилно или грешно, плюс обяснение защо. И това обяснение ще включва доказателствата. Така че потребителят може разбере как машината прави своя извод. 

Така че крайната преценка зависи от потребителя. Без значение кой прави проверката на фактите – машина или човек, или група хора, или журналист.  

Смятам, че технологията не е в степен на такава зрялост, която да вземе решението сама. Мисля, че крайното решение трябва да бъде на човека. И човекът, който дълго време би използва тази технология, може и да я персонализира, така че машината да може да учи от обратната връзка на потребителя. Например ако потребителят се доверява на определени източници, моделът може да го възприеме като доверен. 

Проф. Гуревич, а как стои въпросът със изображенията? 

Да. Изображенията в днешно време може да са силно подвеждащи, защото могат да бъдат заснети в един контекст и представени за достоверни в друг. И това ги прави много трудни за разпознаване от потребителя. След това има всички тези фалшиви изображения, които могат много лесно да бъдат генерирани в наши дни от технологията. Или изображения, които не са напълно ефектни, но които са модифицирани, за да представят неверни факти. За тяхното разпознаване има технологии, които се разработват. Но не мога сега да ви споделя. Но най- просото, което всеки потребител може да направи, е да постави изображението в търсачката на Google за изображения и по този начин можете да донякъде реконструира историята зад изображението. Можете да видите подобни изображения. И по този начин става по-лесно за да направите заключение дали изображението може да е истинско или не. 

По какви проекти работите сега?  

Първият проект е за твърдения в социалните медии. Твърдения, които са придружени от научна статия, която подкрепя твърдението. Обикновено, ако видим „научна статия“, смятаме, че щом науката е достоверна, няма да се наложи да отваряме статията. Ние смятаме, че твърдението е вярно, но всъщност твърдението е невярно. Има логическа заблуда, неправилно аргументиране, което свързва твърдението със съдържането на статията. Тези неправилни аргументи са описани в статии, посветени на проверка на фактите. И ние ги анализираме, за да разкрием тези заблуди. Това е нашето тренировъчно поле, за да изградим автоматичен инструмент, който може да намери тези заблуди в нови с известни такива случаи. Така че това е първият проект. Такива случаи има много в социалните медии. Аз не съм голям потребител на социални медии, просто ги ползвам от време на време. Но именно тези логически заблуди се използван доста често, за да се разпространява дезинформация. 

Като учен това не ви ли плаши? 

Да. Плаши ме до някаква степен. Особено сега, когато знам, че това се случва в света. Това е много, много смущаващо и пропагандата е изключително силна. Така че дори високо професионални потребители на информация не могат да оценят точно информацията. Така че това е много трудна задача. 

Вторият проект е в мултимодална проверка на факти. Това е всъщност проучването ни за проверка на изображения. Макар че моята основната област на работа е обработката на естествен език и много често изображенията биха имали придружаващ текст, който може да използваме, за да разсъждаваме за изображението; но изображенията стават изключително широко разпространени. Много е лесно да направите снимка, за да генерирате снимка. А изображения може да предизвикат много емоции у хората, нали? Много бързо, защото не е необходимо прочетете дълга статия. Можете просто да погледнете изображението и ако видите ранени деца. Това веднага вашите емоциите експлодират. И резултатът от този продукт би трябвало да бъде инструмент, който помага за проверката на фактите, за да отговори на пет въпроса: за произхода, датата, съдържанието на изображението, за да се оцени достоверността и истинността зад изображението. 

Проф. Гуревич, като учен можете ли да ми кажете вие лично, какво бихте посъветвали хората, които са доста по-чести потребители на социалните медии от вас? 

Бих ги посъветвала да бъдат изключително внимателни с информацията, която те четат в социалните медии. Бих ги посъветвал да се постараят да получат известна цифрова грамотност. Как да оценяват съдържание, за да не бъдат подведени от някои кампании. За тази дигиталната грамотност мисля, че образователните институции носят отговорност. В германските училища децата получават обучение как да използват Уикипедия, как да ползват интернет. Това е добра практика. 
По публикацията работи: Мария Сивкова - Илиева


Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ
Андрей Келин, посланик на Русия във Великобритания.

Руският посланик във Великобритания: Санкциите срещу Русия не постигнаха целите си

Санкциите, наложени на Русия заради нахлуването й в Украйна, не успяха да постигнат нито една от целите си, каза руският посланик във Великобритания пред "Скай нюз". Андрей Келин направи своето изявление, след като разследване на журналиста Ед Конуей от "Скай нюз" разкри "явни вратички в режима на ограничения", който позволява на британските компании по..

публикувано на 03.07.24 в 02:22

Гръмотевична буря, силен вятър и 13 литра/кв.м дъжд над Русе

Около 18:00 часа тази вечер над Русе и региона се разрази гръмотевична буря със силен дъжд. Паднали са 13 литра на квадратен метър, а силният вятър достигна скорост от 50,4 километра в час.  Прогнозите са за още и по-обилни валежи през нощта. Движението по пътя Русе – Бяла е затруднено в участъка между разклона за село Обретеник и село Волово заради..

публикувано на 02.07.24 в 20:44

Вятър наклони стълб от електропреносната мрежа в Кюстендил

Стълб от електропреносната мрежа по кюстендилската ул."Даскал Димитри" се е наклонил заради силния вятър в града.  Екипи на "Електрохолд" и Общината са спрели движението в дветe посоки, както и електрозахранването до изграждането на временна въздушна линия.  Утре ще бъде поставен нов стълб, каза експертът при управление при кризи към Общината Ивайло..

публикувано на 02.07.24 в 20:41
Снимката е илюстративна, архив.

Системата за сключване на "Гражданска отговорност" функционира нормално

Възстановено е нормалното функциониране на системата за сключване на застраховка "Гражданска отговорност" на автомобилистите, съобщиха от Гаранционния фонд. През последните дни се появиха проблеми със системата за задължителната полица. От фонда обясняват, че след профилактика през почивните дни "затрудненията са свързани с натрупването на висок..

публикувано на 02.07.24 в 20:35

До 14 юли - специализирана полицейска операция на Пътна полиция в цялата страна

Увеличава се броят на жертвите и ранените при пътни инциденти през последните седмици, констатира пред журналисти комисар Мария Ботева, заместник-началник на отдел "Пътна полиция". "До 14 юли тече специализирана полицейска операция на територията на цялата страна. Силите и средствата на пътната полиция са насочени да контролират във всички точки на..

публикувано на 02.07.24 в 20:25

Търговски камари с отворено писмо към депутатите: Бизнесът очаква стабилност и предвидимост

За отговорно държавническо поведение и спешни действия в полза на обществото и бъдещето на България призовават в отворено писмо няколко търговски камари, които представляват компании от основните външнотърговски партньори на страната ни. Те се обръщат към депутатите от 50-ото Народно събрание с призив за предвидимост и ясни приоритети, както..

публикувано на 02.07.24 в 20:12

Парламентът ще гласува проектокабинета, предложен от ГЕРБ-СДС, в 13 часа утре

Народното събрание ще гласува предлагания от ГЕРБ–СДС министър-председател, структура и състав на Министерския съвет от 13:00 часа утре, 3 юли. Това предвижда точка от проектопрограмата за работа на депутатите, публикувана на интернет страницата на Народното събрание. Първият мандат: Росен Желязков е кандидатът на ГЕРБ-СДС за премиер Р...

публикувано на 02.07.24 в 20:11