Размер на шрифта
Българско национално радио © 2026 Всички права са запазени

"Изображенията в днешно време може да са силно подвеждащи"

Проф. Ирина Гуревич: Образователните институции носят отговорност за дигиталната грамотност

"Технологията не е в степен на такава зрялост, която да вземе решението сама"

| Интервю
Снимка: Pixabay

Възможно ли е изкуственият интелект да прави проверка на фактите. За сега учените правят само проучвания по въпроса. Добромир Видев разговаря по темата с проф. Ирина Гуревич - един от водещите учени в сферата на обработката на естествен език. Тя е директор на Лабораторията за обработка на знания (UKP) в Техническия университет (TU) в Дармщат, Германия и президент на Асоциацията за компютърна лингвистика, както и съдиректор на програма в рамките на ELLIS -  европейската лаборатория за обучение и интелигентни системи. Проф. Ирина Гуревич беше лектор на програмата ИНСАЙТ в София.  

Наистина ли е възможно да се автоматизира процесът на проверка на фактите? 

Мисля, че пълна автоматизацията в момента е невъзможна. Въпреки това можем да автоматизираме отделни стъпки, като например извличането на подходящи документи и търсенето на подходящ пасаж в документите. Дори и процеса на класифициране като подкрепящи или опровергаващи твърдението или може би неутрални. Постижимо е да са автоматизират подобни стъпки. 

Тези задачи са сравнително лесни за машината. А и имаме търсачки с висока точност например за извличане на информация. Въпреки това, разсъжденията върху извлечените доказателства са много трудна задача дори за хората. А също така е много трудна за машините.  

Това е доста трудно и за самите журналисти. 

Вие всъщност извършвате много проверки на фактите в работата си. И това е подобно на работата, която извършват и алгоритмите при проверката на фактите. 

Може ли да ми дадете примери как развивате тази автоматизация на процесите?

Разбира се, че използваме изкуствен интелект. Моята област е естествената обработка на машинен език. Така както за търсачките, има известно сходството между измерванията на твърдението, което е „на входа“ и документите, или изречението е в рамките на документите. Така че, ако изреченията са подобни, те се считат за подходящи. И тогава има втора стъпка на класификация. И тук обикновено използваме контролирано машинно обучение. Ние създаваме данни за обучение, където имаме случаи, които са обозначени от хората като подкрепящи или опровергаващи твърдението. И след това използваме тези данни за обучение, за да извлечем статистически характеристики, които ни позволяват класифицира нови данни, които пристигат. И така работи….. 

А до каква степен може да бъде развита тази технология за автоматична проверка на фактите? 

В днешно време всички говорят за големите езикови модели. Така че технологията напредва много, много бързо. Мисля, че тази технология може да улесни проверката на фактите по много начини. Технологията обаче има и огромен недостатък, тъй като знаем, че големите езикови модели са перфектни за генериране на фалшиви новини. И ние ги наричаме халюцинации. Освен това е голямо изследователско предизвикателство как да не позволяват на езиковите модели да халюцинират факти. Например по време на пандемията от КОВИД имахме твърдения, че хидрокси-хлоро-хин-а може да лекува. Това беше разпространено в социални мрежи. И някои хора възприемат тези твърдения за верни. Имаше случаи, в които това вещество е боло приемано. А хората са починали от него. Другият тип фалшиви новини всички знаем, че е например пропаганда относно войната, която се случва в Близкия изток. Така че в такива много емоционални настройки, тази дезинформация може да доведе до ескалация на конфликта и може да доведе до огромен брой убити. Или както беше със съобщенията за ударите по болницата в Газа. 

Ние не знаем кое е истина или не. Обикновено в такива случаи моделът прави извод в рамките на най-простия случай - вярно невярно, или не знам. В по-напредналите модели те биха извели и вероятността това да е правилно или грешно, плюс обяснение защо. И това обяснение ще включва доказателствата. Така че потребителят може разбере как машината прави своя извод. 

Така че крайната преценка зависи от потребителя. Без значение кой прави проверката на фактите – машина или човек, или група хора, или журналист.  

Смятам, че технологията не е в степен на такава зрялост, която да вземе решението сама. Мисля, че крайното решение трябва да бъде на човека. И човекът, който дълго време би използва тази технология, може и да я персонализира, така че машината да може да учи от обратната връзка на потребителя. Например ако потребителят се доверява на определени източници, моделът може да го възприеме като доверен. 

Проф. Гуревич, а как стои въпросът със изображенията? 

Да. Изображенията в днешно време може да са силно подвеждащи, защото могат да бъдат заснети в един контекст и представени за достоверни в друг. И това ги прави много трудни за разпознаване от потребителя. След това има всички тези фалшиви изображения, които могат много лесно да бъдат генерирани в наши дни от технологията. Или изображения, които не са напълно ефектни, но които са модифицирани, за да представят неверни факти. За тяхното разпознаване има технологии, които се разработват. Но не мога сега да ви споделя. Но най- просото, което всеки потребител може да направи, е да постави изображението в търсачката на Google за изображения и по този начин можете да донякъде реконструира историята зад изображението. Можете да видите подобни изображения. И по този начин става по-лесно за да направите заключение дали изображението може да е истинско или не. 

По какви проекти работите сега?  

Първият проект е за твърдения в социалните медии. Твърдения, които са придружени от научна статия, която подкрепя твърдението. Обикновено, ако видим „научна статия“, смятаме, че щом науката е достоверна, няма да се наложи да отваряме статията. Ние смятаме, че твърдението е вярно, но всъщност твърдението е невярно. Има логическа заблуда, неправилно аргументиране, което свързва твърдението със съдържането на статията. Тези неправилни аргументи са описани в статии, посветени на проверка на фактите. И ние ги анализираме, за да разкрием тези заблуди. Това е нашето тренировъчно поле, за да изградим автоматичен инструмент, който може да намери тези заблуди в нови с известни такива случаи. Така че това е първият проект. Такива случаи има много в социалните медии. Аз не съм голям потребител на социални медии, просто ги ползвам от време на време. Но именно тези логически заблуди се използван доста често, за да се разпространява дезинформация. 

Като учен това не ви ли плаши? 

Да. Плаши ме до някаква степен. Особено сега, когато знам, че това се случва в света. Това е много, много смущаващо и пропагандата е изключително силна. Така че дори високо професионални потребители на информация не могат да оценят точно информацията. Така че това е много трудна задача. 

Вторият проект е в мултимодална проверка на факти. Това е всъщност проучването ни за проверка на изображения. Макар че моята основната област на работа е обработката на естествен език и много често изображенията биха имали придружаващ текст, който може да използваме, за да разсъждаваме за изображението; но изображенията стават изключително широко разпространени. Много е лесно да направите снимка, за да генерирате снимка. А изображения може да предизвикат много емоции у хората, нали? Много бързо, защото не е необходимо прочетете дълга статия. Можете просто да погледнете изображението и ако видите ранени деца. Това веднага вашите емоциите експлодират. И резултатът от този продукт би трябвало да бъде инструмент, който помага за проверката на фактите, за да отговори на пет въпроса: за произхода, датата, съдържанието на изображението, за да се оцени достоверността и истинността зад изображението. 

Проф. Гуревич, като учен можете ли да ми кажете вие лично, какво бихте посъветвали хората, които са доста по-чести потребители на социалните медии от вас? 

Бих ги посъветвала да бъдат изключително внимателни с информацията, която те четат в социалните медии. Бих ги посъветвал да се постараят да получат известна цифрова грамотност. Как да оценяват съдържание, за да не бъдат подведени от някои кампании. За тази дигиталната грамотност мисля, че образователните институции носят отговорност. В германските училища децата получават обучение как да използват Уикипедия, как да ползват интернет. Това е добра практика. 
По публикацията работи: Мария Сивкова - Илиева


Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ

Дежурни екипи следят обстановката в общините Петрич, Сандански, Симитли и Струмяни

Екипи ще дежурят през цялата нощ в общините Петрич, Сандански, Симитли и Струмяни, които обявиха бедствено положение заради интензивните валежи. Много от сухите дерета се превърнаха в реки, задръстени от нерегламентирано изхвърляне на отпадъци. Наводнени са десетки обществени сгради и частни домове, компрометирана е пътната и улична..

публикувано на 27.11.25 в 21:29
Лошото време в Гърция продължава

Продължава екстремното време в Гърция

Екстремното време в Гърция наводни много пътища и отнесе коли. Реки преляха. В засегнатите райони властите спряха движението. Циклонът ще продължи до неделя. Продължава развитието на циклона над Гърция. Има силно засегнати области, където водата е над един метър. Неспирно вали силен дъжд в Пелопонес, област Тракия, Еврос и Халкидики...

публикувано на 27.11.25 в 20:49
Бившият испански министър Хосе Луис Абалос пристига във Върховния съд на Испания в Мадрид, 27 ноември 2025 г.

Арест за бивш транспортен министър и негов сътрудник в Испания

Върховният съд в Испания разпореди ареста на бившия транспортен министър Хосе Луис Абалос и сътрудника му Колдо Гарсия.  Двамата са обвинени за предполагаема корупционна схема, свързана със закупуването на маски по време на Covid пандемията. Решението на разследващия магистрат Леополдо Пуенте превърна Абалос в първия действащ депутат, изпратен в..

публикувано на 27.11.25 в 20:37

Ще бъде платено обезщетение за изгорелите електроуреди на жителите на села в община Георги Дамяново

Електроразпределителното дружество ще плати обезщетение за изгорелите електрически уреди на жителите на села в община Георги Дамяново. Това стана ясно на извънредна среща, свикана от кмета Нина Петкова и общинските съветници, на която присъства и областният управител. По данни на представителите на дружеството несработила защита на един от..

публикувано на 27.11.25 в 20:30
Обхванатите от огън сгради от жилищния комплекс

Най-малко 83 са вече жертвите на пожара в жилищен комплекс в Хонконг

Пожарът в многоетажни сгради в жилищния комплекс в хонкогския район "Тай По" продължава и днес, като броят на жертвите достигна 83, предадоха световните агенции, позовавайки се на службите за спешна помощ.  Петдесет и една от жертвите са загинали на място, съобщиха от пожарната служба. Общо 123 души са ранени при пожара, отбелязва ДПА.  Все още не е..

публикувано на 27.11.25 в 20:26
Двама военнослужещи са на пост близо до мястото, където двама членове на Националната гвардия на Западна Вирджиния бяха простреляни във Вашингтон, окръг Колумбия, САЩ, 26 ноември 2025 г.

Кой е стрелецът, ранил тежко двама военни от Националната гвардия на САЩ във Вашингтон

Стрелецът, който рани тежко двама членове на Националната гвардия на Съединените щати в столицата Вашингтон, е живеел близо до Сиатъл на Западното крайбрежие и е прекосил страната, за да извърши атаката.  Двама служители на Националната гвардия са в критично състояние след стрелба във Вашингтон Тръмп за стрелбата на няколко пресечки от Белия..

публикувано на 27.11.25 в 20:10

Британската полиция арестува мъж на летище Манчестър по подозрение в тероризъм

Британската полиция арестува мъж на летище Манчестър по подозрение в терористични престъпления, свързани с нападението над синагогата в града по-рано тази година, съобщи Би Би Си. Ейдриън Долби и Мелвин Кравиц загинаха в синагогата на еврейската конгрегация в Хийтън Парк на 2 октомври при нападението на Джихад Ал-Шами, който беше застрелян от..

публикувано на 27.11.25 в 20:08