След атаката, извършена срещу Израел от Хамас на 7 октомври, и последвалата реакция на израелските военни сили, интернет е залят с хиляди изображения на конфликта, а много от разпространяваните видеоклипове и снимки всъщност са фалшиви.
Често се казваше, че "не знаем с какви оръжия ще се води Третата световна война, но Четвъртата световна война ще се води с тояги и камъни". Цитатът, често погрешно приписван на Алберт Айнщайн, хвърля светлина върху потенциалната посока на нашия свят и технологията за унищожаване, която може да доведе.
Изкуственият интелект (AI) все още не е на фронтовата линия на битката. Ако враговете на една държава използват тунели и парапланери, за да нахлуят на чужда територия, AI технологията може да има само поддържаща роля на бойното поле - алгоритмите могат да анализират и проследяват, но куршумите всъщност убиват.
Но войната не се води само на терена на бойните действия. Клавиатурните терористи работят неуморно, за да разпространяват дезинформация, да качват несвързани снимки на различни военни зони и да оспорват автентичността на изображенията.
Американската конгресменка Илхан Омар разпространи фалшиви изображения, обвиняващи Израел за убийството на деца, което може да бъде датирано от 10 години преди това, когато са били убити от Асад в Сирия.
Ханая Нафтали, израелски инфлуенсър, член на комуникационния екип на израелския премиер Бенямин Нетаняху, предизвика подобно объркване, публикувайки "снимки на лидери на Хамас, които живеят луксозен живот". Тъй като изображенията имат вид замъгляване, което понякога се получава от AI модели - а самият Нафтали някога е уличаван, че не говори само истината, мнозина го обвиниха, че това е фалшификат.
Но, както съобщи Forbes, снимките са автентични, въпреки че Нафтали ги е филтрирал чрез инструмент за AI "upscaler" в опит да подобри разделителната им способност. Получените изображения, които са гледани повече от 20 милиона пъти в X (бивш Twitter), изглеждат така, сякаш биха могли да бъдат създадени с програми като DALL-E или Stable Diffusion. И точно това са предположили и критиците на Нафтали.
Многобройни фалшиви изображения, създадени от AI, се използват, за да съберат симпатии към жителите на Газа или към израелците или да внушат устойчивостта и солидарността на двете групи.
Шаян Сардаризаде, журналист от BBC Verify, който се е специализирал в разкриването на дезинформация и теории на конспирацията, е събрал обширна колекция в туитър на негови проверки на изображения, създадени с AI. Ето някои от тях:
От началото на конфликта са публикувани много оригинални изображения, документиращи разрушенията в Газа. Това обаче не е едно от тях. Това е изображение, генерирано от AI, което до днес е гледано милиони пъти. Обърнете внимание на ръцете, броят на пръстите на крачето на бебето:
Едно изображение показва десетки сини и бели палатки, в цвета на израелското знаме, разположени на плаж. Хората, споделили това изображение, твърдят, че това е първият лагер за заселници израелци и че лагерът е бил незаконно построен в палестинските територии.
Изображението бе споделено в X (бивш Twitter) с надпис на арабски на 22 октомври.
Обърнете внимание на знамето.
Създадени от изкуствен интелект изображения показват фалшиви демонстрации от израелци, развяващи знамена и аплодирани от прозорците на сградите, вероятно в подкрепа на своето правителство. Въпросните изображения са генерирани с помощта на изкуствен интелект (AI) и не са споделени от официален X акаунт на Израел, както твърдят някои потребители на социалните медии.
И въпреки че не липсват автентични, сърцераздирателни снимки и видеоклипове от Ивицата Газа, други снимки, всъщност са творения на AI, които въздействат върху емоциите на зрителите, като показвайки деца в ужасни обстоятелства.
Някои от тях са представяни като изкуство с изкуствен интелект - например илюстрация на палестинско момиче, държащо плюшено мече, докато зад нея бушува огън.
Но публикациите, които печелят популярност, като този генериран от AI образ на малко дете, което гледа как дома му експлодира пред него, обикновено се представят като истински.
This is what children in Gaza wake up to ???? pic.twitter.com/P7afsikqxR
— Palestine Culture (@PalestineCultu1) October 12, 2023
Влошавайки нещата, подвеждащите изображения понякога се допълват от източници, които изглеждат надеждни. Тунизийският журналист Мухамад ал Хачими ал Хамиди наскоро сподели изображение на усмихнати палестински деца, покрити с пепел, руините на квартал зад тях. Странната картина не се появява в реални медии - само в различни социални акаунти.
Don't despair. This is how I read the attached picture message.
— د. محمد الهاشمي الحامدي (@MALHACHIMI) October 22, 2023
Despite the horrific bombing and the daily killing, a better day will come, & a safer, more peaceful, & more humane future will begin, God willing.
Cry Freedom. Cry Palestine.#Gazabombing #IsraelAttack #Palestine pic.twitter.com/1nwXVkOCfM
Как можете да разберете дали дадено изображение е генерирано от AI?
Първото нещо, което се забелязва е прекалено експресивното изражение на лицето, деформациите за повече изразителност особено на брадичката и челото на детето (на снимката най-горе). Когато се вгледате внимателно, изглежда, че бебето има допълнителни пръсти. Това е така, защото въпреки че AI става все по-добър в създаването на човешки изображения, той все още има проблеми с възпроизвеждането на определени части на тялото, включително ръце и крака.
Дийпфейк
Изкуственият интелект се подобри значително през изминалата година, позволявайки на почти всеки да създаде убедителен фалшификат, като въведе текст в популярния AI. генератори, които произвеждат изображения, видео или аудио - или чрез използване на по-сложни инструменти.
Когато през пролетта на 2022 г. бе публикувано дийпфейк видео на президента на Украйна Володимир Зеленски, то бе осмивано като твърде грубо, за да е истинско.
Обаче твърдението, че президентът Джо Байдън призовава на военна служба жени, което се появи отново на фона на конфликта Израел-Хамас чрез фалшиво видео, създадено през февруари, предидизвика дълбок отзвук. То изобразява президента Байдън, който обявява:
"Запомнете", казва фалшивият Байдън, "вие не изпращате синовете и дъщерите си на война. Вие ги изпращате на свобода."
Въпреки че публикацията събира повече от 675 000 гледания в TikTok и десетки хиляди импресии във Facebook, качеството е ужасно, а самият дийп фейк е от преди месеци, доста преди последната война между Израел и Хамас.
Друг AI дийпфейк видеоклип, лъжливо изобразяващ климатичната активистка Грета Тунберг, която се застъпва за използването на устойчива военна технология и "биоразградими ракети", събра милиони реакции в Twitter, след като бе споделен от популярни теоретици на конспирацията.
Историята обаче ни показва, че няма нужда изкуственият интелект да въвежда иновации в дезинформацията. Рециклирани изображения на война и инструменти като Photoshop са достатъчно подходящи, за да фалшифицират доказателства и да изкривят фактите.
Извън контекста
Докато конфликтът в Газа се разиграва в социалните медии, генерираното с AI съдържание не е основен фактор в потопа от дезинформация.
Доминиращата заплаха са всъщност реални кадри, използвани извън контекста. По-голямата част от изображенията и видеоклиповете, които проверителите на факти са развенчали по време на войната, включват кадри от други страни като Сирия или Турция и минали събития, като това видео, което всъщност е от предишен конфликт в Газа.
Вижте например този пост, гледан в TikTok близо 500 000 пъти, в който човекът отляво не е израелски "висш командир", а Виктор Медведчук, "тъстът" на Путин, след като бе арестуван от украинските служби за сигурност миналата година. Човекът вдясно е Яир Голан, бивш генерал-майор от IDF.
The man on the left in this TikTok - viewed nearly 500,000 times - is not an Israeli “top commander”.
— Olga Robinson (@O_Rob1nson) October 30, 2023
It’s Viktor Medvedchuk, a prominent Putin ally, after he was arrested by Ukrainian security service last year.
The man on the right is Yair Golan, a former IDF major general. pic.twitter.com/fVOWYPjtVT
Това видео, гледано 220 000 пъти, лъжливо твърди, че показва протест в Тел Авив в неделя вечерта, призоваващ премиера Бенямин Нетаняху да подаде оставка. Всъщност показва протест в Тел Авив през март срещу плановете на правителството за съдебна реформа.
This video, viewed 220,000 times, falsely claims to show a protest in Tel Aviv on Sunday night calling for Prime Minister Benjamin Netanyahu to resign.
— Shayan Sardarizadeh (@Shayan86) October 23, 2023
It actually shows a protest in Tel Aviv in March against the government's judicial reform plans. pic.twitter.com/axGOlfGdT3
Следващото видео е гледано милиони пъти през последната седмица. В него се твърди, че палестинските жени в двата видеоклипа са едни и същи "актьори", които се появяват веднъж като фенове на Хамас в един клип и цивилни жертви в друг.
Thread: This viral video has been viewed millions of times in the last week.
— Shayan Sardarizadeh (@Shayan86) October 29, 2023
It claims the Palestinian women in the two videos are the same "crisis actors" appearing as Hamas fans in one clip and civilian victims in another.@O_Rob1nson and I tried to find out if that's true. pic.twitter.com/VKdPTjLWfY
"Дори според мъглата на военните стандарти, с които сме свикнали, този конфликт е особено объркан", коментира пред The New York Times Хани Фарид (Hany Farid), професор по компютърни науки в Калифорнийския университет в Бъркли и експерт по дигитална криминалистика, AI. и дезинформация. "Призракът на дийпфейк е много, много по-значим сега – не са нужни десетки хиляди, нужни са само няколко, а след това отровите кладенеца и всичко става подозрително."
На фона на силно емоционални дискусии за Газа, много от които се случват в социалните медийни платформи, които се борят да защитят потребителите срещу графично и неточно съдържание, доверието продължава да се разпада. И сега експертите казват, че злонамерените агенти се възползват от наличността на AI, за да отхвърлят автентичното съдържание като фалшиво.
Например Израел бе принуден да публикува графични изображения на смъртни случаи на деца поради недоверието на обществеността към твърденията. Изображението бе разпространено от консервативния коментатор Бен Шапиро, но платформата за социални медии X неправилно добави "Бележка на общността", наричайки изображенията генерирани от AI.
Как да се предпазим
"Разбрахме, че всяка създадена технология в един момент е била използвана за зло", коментира Анатолий Квитницки, главен изпълнителен директор на AI or Not. "„Стигнахме до заключението, че се опитваме да правим добро, ще поддържаме услугата активна и ще направим всичко възможно, за да сме сигурни, че сме разпространители на истината. Но се заомислихме – причиняваме ли повече объркване, повече хаос?"
AI or Not работи, за да покаже на потребителите кои части от изображението са подозрителни, че са генерирани от AI.
Как можем да се предпазим от измама онлайн и да правим разлика между това, което е истинско и това, което не е, обяснява всичко в това видео старши изследователят на Bellingcat, Джанкарло Фиорела.
Наличните услуги за откриване на AI биха могли потенциално да бъдат полезни като част от по-голям набор от инструменти, но са опасни, когато се третират като последната дума за автентичността на съдържанието, отбелязва Хенри Айдер (Henry Ajder), експерт по манипулирани и фалшиви медии. Той смята, че инструментите за откриване на дийпфейк "осигуряват фалшиво решение на много по-сложен и труден за разрешаване проблем".
Вместо да разчитат на услуги за откриване, компании като Google проучват тактики, които биха идентифицирали източника и историята на медийните файлове. Решенията далеч не са съвършени - две групи изследователи наскоро откриват, че съществуващата технология за водни знаци е лесна за премахване или избягване - но поддръжниците казват, че те биха могли да помогнат за възстановяване на известно доверие в качеството на съдържанието.
"Доказването, че нещо е фалшиво, ще бъде безсмислено начинание", смята Честър Вишневски (Chester Wisniewski), изпълнителен директор на фирмата за киберсигурност Sophos. "Това никога няма да проработи и трябва просто да удвоим усилията си върху това как можем да започнем да валидираме, че нещо е реално."
Освен това нашите Twitter, Facebook и нашите TikTok канали се оформят от алгоритми с изкуствен интелект. И твърде често тези алгоритми засилват нашите пристрастия и подклаждат колективния ни гняв. Светът, видян през съдържание, което само ни ядосва, е фундаментално изкривен. Политиката за AI е важна, но екосистемата на социалните медии все още причинява предимно вреда, а не можем да откъснем поглед от това кълбо от политически страсти, разсъждава пред GZERO Тейлър Оуен (Taylor Owen), професор във Факултета за публична политика към Университета Макгил.
"Хората ще повярват на всичко, което потвърждава техните вярвания или им въздейства емоционално“, коментира Алекс Махадеван (Alex Mahadevan), директор на програмата за медийна грамотност MediaWise в института Poynter. "Няма значение колко е добро, или колко новаторски изглежда, или нещо подобно."
Разбира се, най-добрият съвет да се спарите от дезинформацията е просто да избягвате социалните медии. Но тъй като не малко хора са пристрастени към социалните медии, вторият най-добър съвет е да следвате подбран списък от експерти, за да се информирате за това, което се случва. Дейвид Клинч, ветеран журналист и медиен експерт, е създал полезен списък тук, който включва журналисти от Al-Jazeera до Haaretz, съветва Алекс Махадеван.
Източници:
A.I. Muddies Israel-Hamas War in Unexpected Way, The New York Times
AI proving pivotal for online warfare against Hamas, CTech
How to avoid misinformation about the war in Gaza, Poynter Institute
As misinformation surges during the Israel-Hamas war, where is AI?, Poynter Institute
AI Has Made the Israel-Hamas Misinformation Epidemic Much, Much Worse, rollingstone
AI's role in the Israel-Hamas war so far, Taylor Owen, GZERO
Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари