3 пробива, които AI може да направи през 2024 г. и няма да ни харесат

Ваня Милева Последна промяна на 03 януари 2024 в 00:00 12731 0

Изкуственият интелект съществува от десетилетия, но през изминалата година направи много пробиви

Кредит НаукаOFFNews

Изкуственият интелект съществува от десетилетия, но през изминалата година направи много пробиви. Илюстрацията е направена с изкуствен интелект AI Dream.

Изкуственият интелект (AI) съществува от десетилетия, но тази година бе във фокуса на вниманието като ChatGPT на OpenAI създаде достъпен, практичен AI за всички. AI обаче има противоречива история и днешната технология е предшествана от кратък опит от неуспешни експерименти. 

В по-голямата си част иновациите в AI изглежда, че могат да подобрят неща като медицинска диагностика и научни открития. AI б е използван и за проектиране на експерименти с квантова физика отвъд това, което хората са си представили.

Но не всички иновации са толкова добронамерени. От дронове-убийци до изкуствен интелект, който застрашава бъдещето на човечеството, ето някои от най-страшните перспективи на развитието на технологията на изкуствения интелект, които вероятно ще се появят през 2024 г.

Q* - ерата на Генерален изкуствен интелект (AGI)? 

Не знаем защо точно главният изпълнителен директор на OpenAI Сам Алтман бе уволнен и възстановен в края на 2023 г. Но на фона на корпоративния хаос в OpenAI се появиха слухове за напреднала технология, която може да застраши бъдещето на човечеството. Тази система OpenAI, наречена Q* (Q-звезда), може да въплъщава потенциално новаторската реализация на Генерален изкуствен интелект (AGI - Artificial General Intelligence), съобщава Reuters. Малко се знае за тази мистериозна система, но ако докладите са верни, тя може да повиши възможностите на AI с няколко нива.

AGI е хипотетична повратна точка, наречена "сингулярност" ("Singularity"), в който AI става по-умен от хората.

Настоящите поколения AI все още изостават в области, в които хората се справят много по-добре, като контекстно базирано мислене и истинска креативност. Повечето, ако не цялото, съдържание, генерирано от изкуствен интелект, просто изхвърля по някакъв начин данните, използвани за обучението му. 

Но AGI може потенциално да изпълнява определени задачи по-добре от повечето хора, смятат учени. Може също така да бъде въоръжен и използван например за създаване на подобрени патогени, стартиране на масивни кибератаки или организиране на масови манипулации.

Не всички обаче са убедени в значението на Q*. Илон Мъск омаловажава потенциала на проекта, предполагайки, че неговият чатбот Grok може да надмине. Кредит: CC BY-NC 3.0

Идеята за AGI отдавна е ограничена до научната фантастика и много учени вярват, че никога няма да се осъществи.

Да достигне тази повратна точка, разбира се, би било шок за OpenAI, но не е и извън сферата на възможностите.

Знаем например, че Сам Алтман вече полага основите на AGI през февруари 2023 г., очертавайки подхода на OpenAI към AGI в публикация в блог. Знаем също, че експертите започват да прогнозират предстоящ пробив, включително главният изпълнителен директор на Nvidia Дженсън Хуан, който заявява през ноември, че AGI ще бъде достигнат през следващите пет години, отбелязва Barrons. Възможно ли е 2024 да бъде годината на пробив за AGI? Само времето ще покаже. 

Хиперреалистични "дийпфейк" манипулации

Една от най-неотложните киберзаплахи е тази на дълбоките фалшификати ("дийпфейк") - изцяло изфабрикувани изображения или видеоклипове на хора, които могат да ги представят погрешно, да ги уличат или да ги тормозят. Дийпфейк технологията на AI все още не е достатъчно добра, за да бъде значителна заплаха, но това може да се промени. 

AI вече може да генерира дийпфейкове в реално време - видео емисии на живо, с други думи - и сега е толкова добър в генерирането на човешки лица, че хората вече не могат да правят разлика между това, което е истинско или фалшиво.

Друго проучване, публикувано в списание Psychological Science на 13 ноември 2023 г., разкри феномена на "хиперреализма", в които генерираното от AI съдържание е по-вероятно да се възприема като "истинско" отколкото реално съдържание. 

Това би направило практически невъзможно за хората да разграничат факт от измислица с просто око. Въпреки че има инструменти, които могат да помогнат на хората да открият дийпфейковете, те все още не са масови. Intel например изгради детектор за дийпфейкове в реално време, който работи, използвайки AI за анализиране на стрийм. Но FakeCatcher, както се казва този инструмент, дава противоречиви резултати според BBC.

С развитието на генеративния AI се появява една страшна възможност да се използват дийпфейкове за опити да се въздейства върху изборите на хората. Financial Times (FT) съобщва например, че Бангладеш се подготвя за избори през януари, които ще бъдат провалени от дийпфейкове.

Докато САЩ се подготвят за президентски избори през ноември 2024 г., има възможност AI и дийпфейкове да променят резултата за това важно гласуване. Калифорнийският университет в Бъркли например наблюдава използването на AI в кампании, а NBC News също така съобщава, че много държави нямат закони или инструменти за справяне със скока на дезинформация, генерирана от AI. 

Работещи с AI роботи убийци 

Правителствата по света все повече включват AI в инструменти за водене на война. Правителството на САЩ обяви на 22 ноември, че 47 щата са одобрили декларация за отговорното използване на AI в армията - за първи път стартирана в Хага през февруари.

Защо е необходима такава декларация?

Защото "безотговорното" използване е реална и ужасяваща перспектива. Вече има например дронове с изкуствен интелект, за които се твърди, че преследват войници в Либия без човешка намеса. 

AI може да разпознава закономерности, да се самообучава, да прави прогнози или да генерира препоръки във военен контекст, а надпреварата във въоръжаването с AI вече е в ход.

През 2024 г. е вероятно не само да видим AI, използван в оръжейни системи, но и в логистика и системи за подпомагане на вземането на решения, както и в научноизследователска и развойна дейност.

През 2022 г. например AI генерира 40 000 нови, хипотетични химически оръжия. Различни клонове на американската армия са поръчали дронове, които могат да извършват разпознаване на цели и проследяване на битки по-добре от хората. Израел също използва AI за бързо идентифициране на цели най-малко 50 пъти по-бързо, отколкото хората могат в последната война Израел-Хамас, съобщава NPR

Но една от най-страховитите области на развитие е тази на смъртоносните автономни оръжейни системи (LAWS - lethal autonomous weapon systems) - или роботи убийци.

Няколко водещи учени и технолози предупреждаваха срещу роботите убийци, включително Стивън Хокинг през 2015 г. и Илон Мъск през 2017 г., но технологията все още не се е материализирала в масов мащаб. 

Въпреки това, някои тревожни съобщения предполагат, че тази година може да бъде пробив за роботите убийци.

Русия може да е използвала в Украйна робот убиец, наречен ZALA Aero KUB-BLA. Системата е способна "да разпознава в реално време и класифицира обекти" с помощта на изкуствен интелект (AI), според базираната в Холандия организация Pax for Peace (цитирайки Jane's International Defense Review). С други думи, анализаторите изглежда са забелязали робот-убиец на бойното поле, коментира The Bulletin of the Atomic Scientists

Срийншот от видео с KUB-BLA. Кредит: Kalashnikov Group

Министерството на отбраната на Австралия съобщава, че персонал от ВМС и специалисти по роботика разработват автономна подводна система от следващо поколение Ghost Shark, която е предвидена да се произвежда "в мащаб".

Сумата, която страните по света харчат за AI, също е показател – като Китай повишава разходите за AI от общо 11,6 милиона долара през 2010 г. до 141 милиона долара до 2019 г., съобщава Reuters. Това е така, защото, добавя изданието, Китай е въвлечен в надпревара със САЩ за въвеждане на смъртоносните автономни оръжейни системи. Комбинирани, тези развития предполагат, че навлизаме в нова ера на войните с AI.

Източник: 3 scary breakthroughs AI will make in 2024, Keumars Afifi-Sabet, Live Science

Най-важното
Всички новини
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

Няма коментари към тази новина !