Размер на шрифта
Българско национално радио © 2024 Всички права са запазени

Д-р Александър Кирков:

Налагат се ограничения за дълбочината, на която може да работи дийпфейк

Снимка: rawpixel.com

Появяването на дигитално манипулирани медии от ново поколение създаде предпоставки не само за по-широката им употреба в различни сфери, но и възможности за сериозни злоупотреби. Напредъкът в изкуствения интелект позволи да бъдат разработвани фалшиви видеоклипове с много висока степен на реалистичност, които изобразяват човек, който казва или прави нещо, което всъщност самият той никога не е казвал или извършвал.

Технологията стана популярна под термина “дийпфейк” /deepfake/, комбинация от думите за „дълбоко машинно обучение“ и „фалшификат“. Основната технология се използва и за създаване на манипулирани аудиозаписи, графични изображения и текстове.

Освен за държавни и военни нужди, дийпфейк технологията има много широко разпространение в много други сфери на обществения живот - киното, медиите, обучението на кадри и др, посочи д-р Александър Кирков, ръководител на Научноизследователската лаборатория по кибернетична сигурност в УниБИТ в подкаста за изкуствен интелект на “Черната кутия”. "Вече има алгоритми, които са много добре оптимизирани и са достъпни през интернет, всеки потребител с компютър, който е малко над стандартното ниво, може да се възползва от дийпфейк софтуер," отбеляза специалистът.

През последните годините нашумяха различни манипулирани видеоклипове на президента Барак Обама, на британската кралица и дори на самия дигитален гуру Марк Зукърбърг.

Д-р Кирков подчерта, че поради бързото усъвършенстване на технологията и социалните рискове, които произтичат от това, вече се налагат различни ограничения, в това число и изискване към разработчиците за дълбочината, до която може да работи дийпфейк, като винаги остава преливане на два образа, а не се синтезира само образа на целта. 

Най-често използваните дийпфейк решения могат да бъдат поставени в три категории - дийпфейк видео, клониране на глас и синтез на текст.

Дийпфейк видео

Няколко са факторите, които доведоха до стремително подобряване на възможностите за манипулиране на изображения. Специалистите по компютърно зрение разработиха алгоритми, които могат автоматично да картографират ориентири на лицето в изображения, да речем позицията на веждите и носа, като подобриха технологиите за лицево разпознаване. Бърз възход отбелязаха платформите за споделяне на видео и снимки, създавайки огромен обем аудио-визуални данни на разположение. На трето място трябва да бъдат отбелязани новите инструменти в областта на криминалистиката и разследванията, особено тези за автоматично откриване на фалшификати.

Два специфични подхода за изкуствен интелект често се срещат в програмите за дълбоко фалшифициране: Generative Adversarial Networks (GAN) и автокодери. GAN са алгоритми за машинно обучение, при които две невронни мрежи работят в конкуренция. Те анализират набор от изображения и създават нови със сравнимо ниво на качество. Автокодерите могат да извличат информация за черти на лицето от изображения и я използват за конструиране на изображения с различен израз.


Технология за клониране на глас

Технологията за клониране на глас позволява на компютрите да създават имитация на човешки глас. Софтуерните методи за клониране генерират синтетична реч с много висока степен на достоверност, наподобявайки определен човешки тембър. Технологията текст към глас/Text-to-Speech/ вече е неотменима част от стандартната потребителска електроника. Сред най-популярните решения са Google Home, Apple Siri и Amazon Alexa, както и навигационни системи.

Технология за синтез на текст

Технологиите за синтез на текст в дийпфейк контекст се използва за генериране на текстове, които имитират определен стил на изразяване. Те разчитат до голяма степен на обработката на естествен език (NLP). Основното приложение на NLP e за подобряване на текстовите и вербалните взаимодействия между хората и компютрите. Системите са в състояние да обработват големи количества информация, включително и да дешифрират аудиозаписи. Те могат да интерпретират речта до известна степен, достигайки до ниво на разбиране на изразените емоционални нюанси. Така се оформя модел на стила на говорене на определен човек, който от своя страна може да се използва за синтезиране на нова реч.

Откриване и превенция

Развитието на дийпфейк технологиите доведе до това, че редица компании се специализираха в търсене и определяне на манипулирано медийно съдържание. Единият подход е ръчен, като откриването изисква квалифицирано лице, което да инспектира видеоматериала и да търси несъответствия или признаци за манипулиране. Той е осъществим при работа с по-малки обеми информация. При автоматичния подход се използва софтуер за автоматично откриване, който може да използва комбинация от методи: гласово разпознаване, индикатор за човешка реч, лицево разпознаване, визуални характеристики, времеви несъответствия, липса на достоверни атрибути. Сред най-често срещаните проблеми при дийпфейк идентификаторите обаче е компресията на аудиовизуалните материали, особено в онлайн платформите като социалните медии и чат приложенията. Намаленият брой пиксели при изображенията и данни за описване на звука може да се окажат сериозна пречка при установяването на манипулации.

Повече за тенденциите в развитието на дийпфейк технологиите и противодействието на вредните им проявления чуйте от д-р Александър Кирков, ръководител на Научноизследователската лаборатория по кибернетична сигурност в УниБИТ.

Всички епизоди на "Черната кутия" ще намерите:


БНР подкасти:



Последвайте ни и в Google News Showcase, за да научите най-важното от деня!
Новините на Програма „Хоризонт“ - вече и в Instagram. Акцентите от деня са в нашата Фейсбук страница. За да проследявате всичко най-важно, присъединете се към групите за новини – БНР Новини, БНР Култура, БНР Спорт, БНР Здраве, БНР Бизнес и финанси.
ВИЖТЕ ОЩЕ

Проф. Николай Габровски: Време е да бъде изработен национален план за мозъчно здраве

Време е да бъде изработен национален план за мозъчно здраве. Това каза проф. Николай Габровски, председател на фондация „Съвет за мозъчно здраве“, организатор на кръгла маса „Мозъчните заболявания – предизвикателства и решения“. По думите на проф. Габровски 180 милиона души в Европа живеят с мозъчни заболявания, но вероятно са повече, тъй..

публикувано на 17.11.24 в 07:01

Кончетата и децата със специални потребности: Среща между приятели

От няколко месеца конната база "Ахил", в която се провеждат терапевтични занимания за деца със специални потребности, е в новия си дом – терен в близост до софийското село Бистрица , закупен благодарение на дарителска кампания за спасяването на базата. Към момента е изградено място за настаняване на шестте коня, които работят с децата. Предстоят още..

публикувано на 15.11.24 в 15:09
Владимир Темелков

Дигитализират ключови административни услуги в Пловдив

Започва най-мащабната дигитализация в Община Пловдив . Служебното правителство е отпуснало 20 милиона лева за целево изграждане на Географската информационна система. Тя ще бъде изградена до година и половина. Новата система ще обхваща всички отдели, както и 90% от предлаганите от общината услуги.  С въвеждането на системата ще има..

публикувано на 15.11.24 в 11:01
д-р Людмил Тумбев

В Ловеч откриват дневен стационар за детско–юношеско психично здраве

В Държавната психиатрична болница в Ловеч днес ще бъде открит първият за Централна, Северна и Северозападна България дневен стационар за детско–юношеско психично здраве . Там ще помагат на деца до 18 годишна възраст в дневна форма за диагностика и терапия . Единият от кабинетите е диагностично-консултативен, където ще се преценява дали е..

публикувано на 15.11.24 в 07:35

Фалшивите петдесетолевки вече са повече от двайсетолевките

Няма увеличение на фалшивите банкноти, но ако влезем в еврозоната (което не е добре за нас, българите), това автоматично ще завиши количеството фалшификати в България. Това каза в интервю за БНР финансистът Макс Баклаян, който коментира темата след засечена фалшива банкнота от 500 евро. Когато става въпрос за банкноти с голяма..

публикувано на 14.11.24 в 09:29

Денят на народните будители беше отбелязан и в Израел

Има самобитни български празници, които е трудно не само да бъдат показани, но и обяснени на чужденците. За щастие, те са понятни за българската диаспора. В Израел тя е доста голяма в сравнение на броя на населението на малката държава. Заради ограниченията за събиране на хора по време на войната, Денят на народните будители се..

обновено на 10.11.24 в 13:26

Обучени екипи търсят изгубени хора в Израел

Израелската армия и полиция, както в цял свят, имат поделения за служебни кучета. Но много преди началото на войната, през 2021 година се създава и гражданско сдружение за търсене на изгубили се по една или друга причина хора. Само в Израел , без да има война, те са около 4 000 годишно. С Майк бен Яков – ръководител на частна фирма, към която..

публикувано на 10.11.24 в 07:06