Надпреварата във въоръжаването между дийпфейк изображенията с изкуствен интелект (AI) и методите, използвани за тяхното откриване, става все по-ожесточена.
Най-новият прогрес в областта на разкриването идва от астрономията. Сложните методи, използвани за анализ и тълкуване на светлината в астрономическите изображения, могат да бъдат приложени при разкриването на фалшификати.
Думата "дийпфейк" е комбинация от "дълбоко обучение" и "фалшификати" (‘deepfakes’ = ‘deep learning’ + ‘fakes).
Тези фалшиви изображения се наричат така, защото са създадени с помощта на определен вид изкуствен интелект, наречен дълбоко обучение (вж "Как работи дълбокото самообучение на невронните мрежи?"), което само по себе си е подвид на машинното обучение. AI с дълбоко обучение може да имитира нещо доста добре, след като му бъдат показани много примери за това, което се иска да фалшифицира. Когато става въпрос за изображения, дийпфейковете обикновено включват замяна на съществуващото лице в дадено изображение с лице на друг човек, за да изглежда, че някой друг е на определено място, в компанията на определени хора или участва в определени дейности.
Дийпфейковете стават все по-добри и по-добри, както и другите форми на изкуствен интелект. Но както се оказва, нов инструмент за разкриване на дийпфейкове вече съществува в астрономията. Астрономията е свързана със светлината, а науката за откриване на най-малките детайли в светлината от изключително далечни и сложни обекти се развива също толкова бързо, колкото и изкуственият интелект.
В нова статия в Nature научният журналист Сара Уайлд (Sarah Wild) разглежда как изследователите използват астрономически методи за разкриване на дълбоки фалшификати. Адежумоке Оволаби (Adejumoke Owolabi) е студентка в Университета Хъл във Великобритания, която изучава наука за данните и компютърна визуализация. Нейната магистърска теза се фокусира върху това как светлината, отразена в очните ябълки, трябва да бъде последователна, макар и не идентична, между лявата и дясната страна. Оволаби използва висококачествен набор от данни за човешки лица от Flickr и след това използва генератор на изображения, за да създаде фалшиви лица. След това ги сравнява с помощта на две различни астрономически системи за измерване, наречени система CAS и индекс на Джини (Gini index), за да сравни светлината, отразена в очните ябълки, и да определи кои са дийпфейкове.
CAS означава концентрация, асиметрия и гладкост (concentration, asymmetry, and smoothness) и астрономите я използват от десетилетия, за да изучават и определят количествено светлината от извънгалактически звезди. Той се използва и за количествено определяне на светлината от цели галактики и си проправя път в биологията и други области, където изображенията трябва да бъдат внимателно изследвани. Известният астрофизик Кристофър Конселис (Christopher Conselice) е основен привърженик на използването на CAS в астрономията.
Индексът на Джини, или коефициентът на Джини, също се използва за изследване на галактиките. Наречен е на името на италианския статистик Корадо Джини, който го разработва през 1912 г. за измерване на неравенството в доходите. Астрономите го използват, за да измерят как се разпространява светлината в галактиката и дали тя е равномерна или концентрирана. Това е инструмент, който помага на астрономите да определят морфологията и класификацията на дадена галактика.
В своето изследване Оволаби успешно определя кои изображения са фалшиви в 70% от случаите.
Всички тези очи са от дийпфейк изображения с непоследователни модели на отразяване на светлината. Тези вдясно са оцветени, за да се подчертаят несъответствията. Кредит на изображението: Adejumoke Owolabi (CC BY 4.0)
За статията си Уайлд разговаря с Кевин Пимбълт (Kevin Pimbblet), директор на Центъра за върхови постижения в областта на науката за данните, изкуствения интелект и моделирането към Университета в Хъл, Великобритания. Пимбълт представи изследването на Националната среща по астрономия на Кралското астрономическо дружество на Великобритания на 15 юли.
"Това не е сребърен куршум, защото имаме фалшиви положителни и фалшиви отрицателни резултати", коментира Пимбълт. "Но това изследване предоставя потенциален метод, важен път напред, който може би ще се добави към набора от тестове, които човек може да приложи, за да се опита да разбере дали едно изображение е истинско или фалшиво."
Това е обещаващо развитие. Отворените демократични общества са податливи на дезинформационни атаки от външни и вътрешни врагове. Публичните личности са податливи на подобни атаки. Обезпокоително е, че по-голямата част от дийпфейковете са порнографски и могат да изобразяват публични личности в частни и понякога унизителни ситуации. Всичко, което може да помогне в борбата с тях и да подкрепи гражданското общество, е добре дошло.
Но както знаем от историята, надпреварите във въоръжаването нямат крайна точка. Те продължават и продължават в поредица от ескалиращи контрамерки. Вижте как САЩ и СССР се конкурираха взаимно по време на надпреварата в ядреното въоръжаване, когато размерите на бойните глави достигнаха абсурдни нива на разрушителна сила. Така че, доколкото тази работа е обещаваща, разпространителите на дийпфейкове ще се поучат от нея и ще подобрят методите си за дийпфейкове с изкуствен интелект.
В статията си Уайлд разговаря и с Брант Робъртсън (Brant Robertson). Робъртсън е астрофизик в Калифорнийския университет в Санта Круз, който изучава астрофизика и астрономия, включително големи обеми данни и машинно обучение. "Въпреки това, ако можете да изчислите метрика, която количествено определя колко реалистично може да изглежда едно дийпфейк изображение, можете също така да обучите модела на изкуствения интелект да произвежда още по-добри фалшификати, оптимизирайки тази метрика", отбелязва Робъртсън, потвърждавайки това, което мнозина предвиждат.
Не за пръв път астрономически методи се пресичат със земни проблеми. Когато е бил разработен космическият телескоп Хъбъл, той е съдържал мощно CCD (устройство със зарядна връзка - charge-coupled device). Тази технология си е проправила път в системата за дигитална мамографска биопсия. Системата позволява на лекарите да правят по-добри изображения на тъканта на гърдата и да идентифицират подозрителна тъкан без физическа биопсия. Сега CCD устройствата са в основата на всички наши цифрови фотоапарати, включително и на мобилните ни телефони.
Възможно ли е един ден интернет браузърите ни да съдържат детектор за дълбоки фалшификации, базиран на Джини и CAS? Как ще работи това? Дали злонамерените субекти биха отприщили атаки срещу тези детектори и след това биха наводнили медиите ни с дийпфейк изображения в опит да отслабят демократичните ни общества? Това е естеството на надпреварата във въоръжаването.
В природата ни е и да използваме измама, за да влияем на събитията. Историята показва, че управниците със злонамерени подбуди могат по-лесно да измамят населението, което е в плен на силни емоции. Дийпфейковете с изкуствен интелект са само най-новият инструмент, с който разполагат.
Всички знаем, че изкуственият интелект има недостатъци, а дийпфейковете са един от тях. Въпреки че законността им е неясна, както при много нови технологии, вече се полагат усилия за борба с тях. В САЩ са предложени няколко закона за справяне с тях. През септември 2023 г. в Камарата на представителите на САЩ е внесен "Закон за отчетност на дийпфейковете" (DEEPFAKES Accountability Act”). "Закон за защита на потребителите от измамни продукти с изкуствен интелект" (“Protecting Consumers from Deceptive AI Act”) е друго свързано предложение. И двете засега са в подкомисиите, но има надежда в крайна сметка да станат закони.
Заемайки проактивна позиция, Европейския съюз прилага строги мерки, насочени към регулиране на системите с изкуствен интелект (AI), включително сферата на дийпфейковете чрез неотдавнашното приемане на Закона за AI. Законът за AI на ЕС е цялостна законодателна рамка, предложена от Европейския съюз, насочена към регулиране на технологиите за изкуствен интелект, за да гарантира, че системите за AI, използвани в ЕС, са безопасни, прозрачни и зачитат основните права.
Но при липсата на цялостна правна рамка, която да се занимава с дийпфайковете с изкуствен интелект, и дори след като такава бъде създадена, откриването все още е от ключово значение.
Астрономията и астрофизиката биха могли да се окажат необичаен съюзник в борбата с тях.
Справка: AI ‘deepfake’ faces detected using astronomy methods, Sarah Wild, И, doi: https://doi.org/10.1038/d41586-024-02364-y
Източник: Astronomers Have Tools That Can Help Detect Deepfake Images, universetoday
Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари