Появяването на дигитално манипулирани медии от ново поколение създаде предпоставки не само за по-широката им употреба в различни сфери, но и възможности за сериозни злоупотреби. Напредъкът в изкуствения интелект позволи да бъдат разработвани фалшиви видеоклипове с много висока степен на реалистичност, които изобразяват човек, който казва или прави нещо, което всъщност самият той никога не е казвал или извършвал.
Технологията стана популярна под термина “дийпфейк” /deepfake/, комбинация от думите за „дълбоко машинно обучение“ и „фалшификат“. Основната технология се използва и за създаване на манипулирани аудиозаписи, графични изображения и текстове.
Освен за държавни и военни нужди, дийпфейк технологията има много широко разпространение в много други сфери на обществения живот - киното, медиите, обучението на кадри и др, посочи д-р Александър Кирков, ръководител на Научноизследователската лаборатория по кибернетична сигурност в УниБИТ в подкаста за изкуствен интелект на “Черната кутия”. "Вече има алгоритми, които са много добре оптимизирани и са достъпни през интернет, всеки потребител с компютър, който е малко над стандартното ниво, може да се възползва от дийпфейк софтуер," отбеляза специалистът.
През последните годините нашумяха различни манипулирани видеоклипове на президента Барак Обама, на британската кралица и дори на самия дигитален гуру Марк Зукърбърг.
Д-р Кирков подчерта, че поради бързото усъвършенстване на технологията и социалните рискове, които произтичат от това, вече се налагат различни ограничения, в това число и изискване към разработчиците за дълбочината, до която може да работи дийпфейк, като винаги остава преливане на два образа, а не се синтезира само образа на целта.
Най-често използваните дийпфейк решения могат да бъдат поставени в три категории - дийпфейк видео, клониране на глас и синтез на текст.
Дийпфейк видео
Няколко са факторите, които доведоха до стремително подобряване на възможностите за манипулиране на изображения. Специалистите по компютърно зрение разработиха алгоритми, които могат автоматично да картографират ориентири на лицето в изображения, да речем позицията на веждите и носа, като подобриха технологиите за лицево разпознаване. Бърз възход отбелязаха платформите за споделяне на видео и снимки, създавайки огромен обем аудио-визуални данни на разположение. На трето място трябва да бъдат отбелязани новите инструменти в областта на криминалистиката и разследванията, особено тези за автоматично откриване на фалшификати.
Два специфични подхода за изкуствен интелект често се срещат в програмите за дълбоко фалшифициране: Generative Adversarial Networks (GAN) и автокодери. GAN са алгоритми за машинно обучение, при които две невронни мрежи работят в конкуренция. Те анализират набор от изображения и създават нови със сравнимо ниво на качество. Автокодерите могат да извличат информация за черти на лицето от изображения и я използват за конструиране на изображения с различен израз.
Технология за клониране на глас
Технологията за клониране на глас позволява на компютрите да създават имитация на човешки глас. Софтуерните методи за клониране генерират синтетична реч с много висока степен на достоверност, наподобявайки определен човешки тембър. Технологията текст към глас/Text-to-Speech/ вече е неотменима част от стандартната потребителска електроника. Сред най-популярните решения са Google Home, Apple Siri и Amazon Alexa, както и навигационни системи.
Технология за синтез на текст
Технологиите за синтез на текст в дийпфейк контекст се използва за генериране на текстове, които имитират определен стил на изразяване. Те разчитат до голяма степен на обработката на естествен език (NLP). Основното приложение на NLP e за подобряване на текстовите и вербалните взаимодействия между хората и компютрите. Системите са в състояние да обработват големи количества информация, включително и да дешифрират аудиозаписи. Те могат да интерпретират речта до известна степен, достигайки до ниво на разбиране на изразените емоционални нюанси. Така се оформя модел на стила на говорене на определен човек, който от своя страна може да се използва за синтезиране на нова реч.
Откриване и превенция
Развитието на дийпфейк технологиите доведе до това, че редица компании се специализираха в търсене и определяне на манипулирано медийно съдържание. Единият подход е ръчен, като откриването изисква квалифицирано лице, което да инспектира видеоматериала и да търси несъответствия или признаци за манипулиране. Той е осъществим при работа с по-малки обеми информация. При автоматичния подход се използва софтуер за автоматично откриване, който може да използва комбинация от методи: гласово разпознаване, индикатор за човешка реч, лицево разпознаване, визуални характеристики, времеви несъответствия, липса на достоверни атрибути. Сред най-често срещаните проблеми при дийпфейк идентификаторите обаче е компресията на аудиовизуалните материали, особено в онлайн платформите като социалните медии и чат приложенията. Намаленият брой пиксели при изображенията и данни за описване на звука може да се окажат сериозна пречка при установяването на манипулации.
Повече за тенденциите в развитието на дийпфейк технологиите и противодействието на вредните им проявления чуйте от д-р Александър Кирков, ръководител на Научноизследователската лаборатория по кибернетична сигурност в УниБИТ.
Всички епизоди на "Черната кутия" ще намерите:
"Тогава, когато една държава се развива като модерна държава, в нейната основа е заложено образованието , а един от основните приоритети в това образование, е неговото качество ". Това отбеляза пред БНР проф. д-р на науките Стойко Стойков , инженер и полковник от запаса: "За съжаление, точно плагиатството, което придоби изключително широк..
" Много е трудна връзката с близките ми в Газа, защото нямат ток и ако успеят да си заредят телефоните, могат на седмица около 20 минути да говорят, колкото да се чуем. Положението е много тежко. Хора падат по улиците , много е тежко наистина. Даже аз имам едно видео, което показва журналист на "Ал Джазира", докато снима на живо, хора падат след..
"Продължаваме промяната" имат пълно основание да твърдят, че институциите по някакъв начин злоупотребяват по отношение на тях с правомощията си ". Това коментира пред БНР Ивет Добромирова , журналист, PR експерт: " Проблемът е, че те са част от този проблем . Те спомогнаха за това институциите да бъдат превърнати в репресивен орган и сега се..
"Творчески терминал България - Израел" е с четвърто издание сега и е обратна връзка на Международния фестивал на българското изкуство или българските изкуства "Българска душа на святата земя" . Това каза пред БНР Весела Райчинова , кореспондент на БНР в Израел: " Това не е религиозен фестивал . Това е фестивал, който беше създаден под..
"Смяната на противопоставянето от Изток-Запад на статукво-промяна дава възможност за някакъв опит за сближаване, за синхронизация, но в никакъв случай не и на някакви директни общи действия на тези политически сили, защото там различията са прекалено големи, особено между "Продължаваме промяната" - "Демократична България" и "Възраждане" . Това заяви..
Плевенска фирма изнесе данни за неплатени суми от Община Плевен по договор като подизпълнител на "Паркстрой“ . Каква е причината за тази ситуация след твърдението, че Общината няма финансови проблеми? Какво се случва с оранжерията и закупената техника на "Паркстрой“, след като управителят беше освободен от Общинския съвет, но заведе съдебни дела и..
" Самоубийството може да бъде израз на много неща , но като че ли на първо място бих могъл да кажа, че самоубойството е израз на екзистенциална субективна криза у личността ". Това обясни пред БНР Даниел Генков , криминален психолог: "Тогава, когато индивидът е изправен пред непреодолима обективна или пък субективно преживяна ситуация, която..
„Комисията за противодействие на корупцията е обвързана с получаването на средствата по Плана за възстановяване от Европейската комисия. Този план, както и..