Не, невронните мрежи нямат съзнание

Ваня Милева Последна промяна на 09 октомври 2024 в 00:00 4989 0

Абстракция на невронна мрежа

Кредит Pxfuel (Public Domain)

Невронните мрежи нямат съзнание

Мнозина като чуят за невронни мрежи и изкуствен интелект, си представят съзнателните алгоритми, които започват войни в "Терминатор" или "Матрицата".

Но въпреки популярността им, тези концепции не отговарят на сегашното състояние на невронните мрежи или както популярно се наричат - изкуствен интелект.

Въпреки че със сигурност са способни на много велики неща, има погрешно схващане за това какви са те и функциите, които изпълняват.

Какво представляват изкуствените невронни мрежи?

Казано с прости думи, изкуствените невронни мрежи са една от техниките, използвани в машинното обучение, за да позволят на компютрите да се учат от данни. Тяхната функционалност е моделирана на вътрешната работа на човешкия мозък. Изкуствените невронни мрежи се състоят от основни градивни елементи, наречени изкуствени неврони (перцептрон), емулиращи (имитиращи) невроните на мозъка, които задействат или предават сигнал само когато сигналът е достатъчно силен, за да премине бариера. Тези неврони изграждат връзки един с друг, за да могат да формират по-сложни модели, връзките се укрепват, когато невроните се задействат заедно. Не се заблуждавайте обаче: въпреки че тези технологии емулират някои от основните функции на човешкия мозък, те в момента не са по-близо до съзнанието поради това.

Изкуствените неврони са много прости математически функции: според универсалната теорема за приближение, всяка функция може да бъде апроксимирана чрез комбинация от много по-прости функции в определен ред. В нашия случай изкуствените невронни мрежи може да апроксимират сложни функции чрез своите прости изкуствени неврони. Въпреки че е твърде опростено какво всъщност се случва вътре в изкуствените невронни мрежи, то осигурява основно разбиране на технологията за целите на тази статия.

Какво казват специалистите?

Самите невронни мрежи са много по-малко впечатляващи, отколкото подсказва името им, смята Емили Бендър (Emily M. Bender), професор по лингвистика във Вашингтонския университет, която изучава етичните проблеми при големите алгоритми за обработка на езика.

"Тези системи се разработват, като се създава първоначална система със случайни тежести на връзките между компонентите ѝ и след това се обучава системата, като ѝ се показват входни данни, сравняват се резултатите ѝ с някакъв "златен стандарт" или "основна истина" и след това се коригират тежестите в системата, за да се приведат отговорите ѝ малко повече в съответствие със "златния стандарт", обяснява Бендър.

Представете си компютърна програма, която приема снимка на котка като вход, а изходът е породата. Задействането на невронна мрежа ще позволи на системата да определи правилната порода на всяка котка от нейната снимка, за да съответства на "златния стандарт" на набора от данни.

"Смятам, че част от това се дължи на тенденцията на компютърните науки да "продават" изследванията си, като правят много амбициозни твърдения", коментира Бендер. "стандартната изследователска практика в областта на машинното обучение (т.нар. "изкуствен интелект или AI") е да се използват стандартни набори от данни, наречени "еталони", за оценка на различни системи и измерване на напредъка по задачите, които еталоните трябва да представят."

След това обаче представянето на тези специфични критерии се представя погрешно като доказателство за по-големи възможности.

"Виждаме твърдения като това, че изкуственият интелект е надминал хората в разбирането на общ език, което всъщност е напълно непотвърдено", заявява Бендер, добавяйки, че сме склонни да антропоморфизираме ("очовечаваме") способностите на тези мрежи.

Невронните мрежи, както и други алгоритми за машинно обучение, вече се използват за не добре обосновани приложения, които могат да причинят вреди.

"Това включва системи, които претендират, че могат да "предсказват" такива неща като "престъпност" от изображения на лица на хора, системи, които претендират, че проследяват за измама студенти, които взимат онлайн изпити", посочва Бендер.

"Колкото повече обществеността си изгражда представата, че компютрите могат да правят привидно невъзможни неща (като например "постигане на съзнание"), толкова по-вероятно е да ги използваме неразумно в деликатни ситуации, и толкова по-малко вероятно е да успеем да създадем разумно регулиране."

Дебора Раджи (Deborah Raji), сътрудник на фондация Mozilla и докторант в Калифорнийския университет в Бъркли, пише в Twitter: "След като характеризираме AI като човек, ние стоварваме етичните очаквания, които обикновено имаме към хората - да бъдат справедливи, да се обясняват и т.н. - върху артефакта, а след това се опитваме да вградим тези характеристики в артефакта, вместо да държим отговорни многобройните участващи хора", направлявали резултатите.

Достатъчно трудно е да се постигне съгласие по определението на съзнание, камо ли да се определи как то възниква.

Много изследователи посочват, че дискусията за съзнанието отклонява вниманието от по-важни въпроси в пространството, като поставя отговорността върху алгоритъма, а не върху неговите създатели и системата, в която той функционира.

Собственият алгоритъм за обработка на естествен език на Open AI, наречен GPT-3, генерира поредици от донякъде последователен текст, но има склонност към непприемливи стереотипи. Този проблем, а не предполагаемото съзнание на алгоритмите, трябва да бъде на преден план.

Въпросът дали съвременните изкуствени невронни мрежи са съззнателни е малко като да питате "Може ли един компютър да бъде интелигентен?" - може според случая, ако програмата, която използвате, е написана добре и в зависимост от това как дефинирате условията си.

Източници:

Artificial neural networks are not conscious, Marco Eissa, Synapse Analytics

No, Neural Networks are Not Conscious, Simon Spichak, The Debrief

Най-важното
Всички новини
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

Няма коментари към тази новина !