Създаден е универсален начин за заблуда на детекторите на дийпфейк видеоклиповете

Ваня Милева Последна промяна на 11 февруари 2021 в 09:28 8481 0

Скрийншот от видеото.

Системите, предназначени за откриване на дийпфейк видеа - фалшиви видеоклипове, които манипулират реални кадри чрез изкуствен интелект - могат да бъдат измамени, показаха компютърните учени за първи път на конференцията WACV 2021, която се проведе онлайн от 5 до 9 януари 2021 година.

Изследователите показаха, че нова невронна мрежа по доста прост начин „заблуждава“ всякакви детектори за дийпфейк видеа, което демонстрира неефективността дори на най-усъвършенстваните съществуващи средства за определяне на автентичността на един видеоклип.

Детекторите могат да бъдат победени чрез вмъкване на специални "конкуриращи се" примери (могат да бъдат преведени като "противостоящи" - adversarial examples) във всеки кадър на видеото. Ефектът наистина е обезсърчителен: дори набързо измислен дийпфейк се открива от детектора като реален запис. Въпреки че неестественото поведение на човека във видеото е очевиден с просто око. Изследователите демонстрираха пример за такава измама на практика.

При дийпфейковете лицето на обекта се модифицира, за да се създадат убедително реалистични кадри от събития, които всъщност никога не са се случвали. В резултат на това типичните дийпфейк детектори се фокусират върху лицето във видеоклиповете: първо го проследяват и след това предават данните за изрязаното лице на невронна мрежа, която определя дали е истинско или фалшиво. Например, примигването на очите не се възпроизвежда добре във видео фалшификатите, така че детекторите се фокусират върху движенията на очите като един от начините за идентифициране на дийпфейковете. Съвременните детектори разчитат на модели за машинно обучение за идентифициране на фалшивите видеоклипове.

Важното е, че "измамата" работи при прекодиране и срещу много от най-съвършените детектори. Всъщност експертите заключават, че поради особеностите на алгоритмите, които откриват фалшификатите, наистина е лесно да се измамят всички.

„Смятаме, че за да използваме тези дийпфейк детектори на практика, е от съществено значение да ги оценим спрямо адаптивния противник, който е наясно с тези защити и умишлено се опитва да предотврати тези защити“, пишат изследователите. „Съвременните методи за откриване на фалшиви фалшификати могат лесно да бъдат заобиколени, ако противникът има пълни или дори частични познания за детектора“.

За да подобрят детекторите, изследователите препоръчват подход, подобен на този, известен като конкурентно обучение (adversarial training) - като по време на обучение адаптивният противник продължава да генерира нови дийпфейкове, които могат да заобиколят текущото състояние на детектора, аи детекторът продължава да се усъвършенства, за да открие новите дийпфейкове.

Подобни разработки могат да станат много по-съвършени, което отново поставя под съмнение самата концепция за доверие във видеоклиповете. По-точно, това поражда опасения, че манипулирането на общественото мнение може да стане много по-лесно за недопросъвестните, отколкото за правоприлагащите органи и самите хора. И ако първоначално вълната дийпфейкове се възприемаше само като забавление, то малко по-късно опасността от технологиите стана очевидна.

Хората са свикнали да се доверяват на това, което виждат с очите си, а добре направеният дийпфейк може да се различи от истински видеоклип. Понякога е достатъчно дори да не се заменя лицето на човека, а само да се синхронизират движенията на устните с фалшива реч. Обхватът на възможното използване на подобни манипулации е наистина неограничен. А детектори за такива фалшификати се разработват от стотици екипи по целия свят.

Источник: Computer Scientists Create Fake Videos That Fool State-of-the-Art Deepfake Detectors,  SciTechDaily 

Най-важното
Всички новини
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

Няма коментари към тази новина !