24 октомври 2019
Категории
  •  Космос
  •  Физика
  •  Науки за земята
  •  Биология
  •  Медицина
  •  Говорят медиците
  •  Математика
  •  Научни дискусии
  •  Разни
FACEBOOK

″Съвсем истинските” видео фалшификати ще дойдат след 1/2 до 1 година (видео)

| ПОСЛЕДНА ПРОМЯНА 25 септември 2019 в 09:3615170
Скрийншот от фейк видеото, в което Зукърбърг: "Kойто контролира данните, контролира бъдещето": Bill Posters

Манипулираните изображения и видеоклипове, които изглеждат „съвсем истински“, ще бъдат достъпни за създаване от обикновени потребители „от половин година до една година“, заяви един от водещите експерти в тази област Хао Ли (Hao Li) в ефира на CNBC.

Технологията Deepfake напредва толкова бързо, че дори Хао Ли смята, че е наложително да се разработи софтуер, който да помогне в разкриването на видеофалшификатите.

Deepfake (съчетава думите "дълбоко обучение" (Deep learning) и "фалшификат" (Fake)) е метод за синтезиране на изображение на човек, основана на изкуствен интелект. Една част от алгоритъма се учи от реални снимки на определен човек и създава изображение, буквално „конкуриращо се“ с втората част на алгоритъма, докато тя започне да бърка копието с оригинала.

Дийпфейк видеоклиповете показват как хората казват или правят неща, които никога не са казвали или правили, и последните технологични пробиви успяват да направят създаването на реалистични клипове по-лесно от всякога.

Когато не преподава часове като професор по компютърни науки в Университета в Южна Калифорния, Ли създава на някои от най най-убедителните дийпфейкове.

В сряда той заяви на присъстващите на конференция на MIT, че вярва, че създаването на лесна за използване технология за перфектни дийпфейкове - такива, които на практика е невъзможно да се открият с просто око - предстои след две до три години.

Страшно, нали?

Два дни по-късно Ли се появява пред CNBC в програмата “Power Lunch” и казва, че очаква обикновените хора да могат да създават "напълно реални" дийпфейкове само шест до дванадесет месеца.

Когато по-късно CNBC се обърна към Ли, за да го попита какво се е променило през тези два дни след конференцията на MIT, той отговори, че е принуден да „калибрира“ очакванията си поради увеличения фокус върху технологията Deepfake и нарастващата популярност на Zao, Deepfake приложение, което позволява на потребителите да вмъкват лицата си в известни филми и телевизионни предавания.

Въпреки че използването на Zao е сравнително безобидно, Ли и други експерти са силно загрижени за потенциалните му опасни приложения. Ако стане широко достъпно, не може да се каже колко злонамерени хора могат да използват технологията  за да измамят компании, да откраднат самоличности или дори да се намесят в изборите  например.

Макар че фалшификатите сами по себе си дискредитират истинския обект, може би не това е главният проблем. Може да се окаже, че съществуването на толкова убедителни фалшификати дава възможност на някои да оспорват истинността на реални събития.

Ясна илюстрация за това може да се намери в САЩ, където притежаването на компютърно генерирани образи на сексуално насилие на деца се третира по-снизходително от съда, отколкото реалните. Това доведе до нарастване на „виртуалната защита“ - адвокатите твърдят, че незаконните изображения всъщност са генерирани от компютър.

По същия начин, в политиката, когато хората виждат доказателства на тезата, с която не са съгласни, все по-често ги обявяват за „фалшиви новини”.

За да предотврати това да се случи, Ли в момента работи с Калифорнийския университет заедно с професора по компютърни науки в Бъркли Хани Фарид (Hany Farid), за да разработят технология за разкриване на дийпфейковете, които изглеждат напълно реални.

„Ние работим заедно върху подход, който предполага, че дийпфейковете ще бъдат перфектни“, отбеляза Ли на присъстващите на конференцията на MIT и добави, че „няма да има начин да разберем с просто око дали е истински или не, така че трябва да предприемем различен подход".

Точно какъв ще бъде този подход, все още не е ясно -  няма време за губене в намирането им.

Източник: ‘Perfectly real’ deepfakes will arrive in 6 months to a year, technology pioneer Hao Li says, CNBC

The real danger of deepfake videos is that we may question everything, NewScientist

WATCH DEEPFAKED MARK ZUCKERBERG RANT ABOUT HOW HE CONTROLS YOU, Futurism

Deepfake Pioneer: “Perfectly Real” Fake Vids Are Six Months Away, Futurism


Няма коментари към тази новина !

 
Още от : Технологии
Всички текстове и изображения публикувани в OffNews.bg са собственост на "Офф Медия" АД и са под закрила на "Закона за авторското право и сродните им права". Използването и публикуването на част или цялото съдържание на сайта без разрешение на "Офф Медия" АД е забранено.