Могат ли роботите да разбират от морал и етика?

Наука ОFFNews Последна промяна на 09 декември 2015 в 10:00 12755 1

Кредит www.used-robots.com

Хората отдавна мечтаят за времето, когато роботите ще ни освободят от много задължения, но в същото време, навлизането им в живота на хората поставя въпроса дали и как ще може да се научат на морал и етика.

И ако на някои може да им изглеждат тези въпроси фантастика, то ще им припомним, че автономните автомобили вече се движат по улиците на някои градове.

Други биха казали, че тъй като роботите са машини е неуместно да се говори за "морал" , а само за програма и правила, заложени предварително у тях. Когато през май тази година в Brookings Institution, мозъчен тръст във Вашингтон, се дискутираше как автономните превозни средства ще се държат в условията на криза, бе даден следния пример: Какво ще направи роботът-автомобил, ако трябва да избира дали да спаси своите собствени пътници и да набие спирачки, но това да подложи на риск идващите след него превозни средства? Или какво ще направи, ако автономната кола трябва да завие рязко, за да избегне дете, но рискува да удари някой друг наблизо?

Тези дилеми не са лесни и за човек-водач и той би постъпил според собствения си морал, който също е набор от правила и команди, които е възприемал от ранно детство, когато се е учил на границите на позволеното и приемливото за своята среда.

Нравственото образование на хората и роботите

Преди всичко трябва да разберем как самите хора правят своите морални избори благодарение на уникалната си способност да възприемат социални и етични норми. А след това да узнаем дали роботите могат да разпознават, разбират и отговарят на тези стандарти.

Както роботите, така и хората започват живота си с пълна липса на разбиране на сложните изисквания на обществото. Малките деца постепенно се научават на правилата на социалното общуване първо в семейството, а след това прилагат тези правила извън дома. В училищна възраст децата научават още много правила, но все още не са готови за много ситуации в света на възрастните. Дори възрастни постоянно се сблъскват с нови правила в непознати задачи, ситуации, роли и взаимоотношения.

Както научаваме всички тези правила и норми? Това е сложен и слабо проучен процес, но има два основни механизма. Първият се проявява в най-ранните етапи от живота, когато бебетата откриват статистически закономерности във физическия и социалния свят. Те започват да осмислят шаблоните в поведението на хората, реагиращи на различни ситуации, особено ако тези модели се повтарят във формата на ежедневни ритуали.

Получавайки представа за нормата, децата могат след това да откриват чужди или да извършват свои нарушения в стандартните шаблони и да наблюдават реакцията на хората в отговор на нарушението. Отбелязвайки степента на реакция, те се научават да правят разграничение между строгите правила (при силна реакция) от лека или никаква реакция при действия, от които може да получат изгода.

Но много социални и морални норми не може просто да се научат като се проследяват модели. Например, ако закономерността се изразява с липсата на определено поведение или ако никога не сте попадали в ситуацията, в която се прилага съответното правило.

Роботът RI-MAN, разработен от изследователи от Института RIKEN, Япония, е предназначен да се грижи за хора. Изображение: RIKEN, Bio-Mimetic Control Research Center

Вторият механизъм се изразява в преподаване на правилата и нормите по други начини, които варират от демонстрация до явни изисквания. Така децата и възрастните са готови да действат "както им се казва" поради силната зависимост от мнението на другите и чувствителност към неодобрение.

Може ли да се приложат тези два механизма при роботите, така че да усвоят правилата както хората? Всъщност поведенческите модели лесно могат да се представят дигитално, но оценката на силата на реакциите при нарушение на правилата е по-сложен проблем.

Роботите не могат да бъдат възпитавани в продължение на години в семейство като децата, така че единственият възможен вариант е да ги захранваме филми и телевизионни предавания. Роботът гледайки видеото, може да събере голямо количество поведенчески шаблони, отклонения и реакции на отклоненията. В този случай много важна роля играе изборът на правилните материали за обучение. Ясно е, че екшъни не вършат работа.

Агенцията към Министерство на отбраната на САЩ, занимаваща се с развитие на новите технологии, DARPA (Defense Advanced Research Projects Agency) разработва програмата "Mind’s Eye", предназначена за камери с "визуална интелигентност". Тези "умни" камери за наблюдение не само "виждат", но също и разбират какво се случва в момента и дори могат да предсказват какво ще се случи по-нататък.

Вторият механизъм за обучение по принцип също е лесен за усвояване - просто на роботите се показва и обяснява какво може да правят и какво не може да правят. Този метод изисква все пак гъвкав подход за запомняне на данните, за да може роботът да осъзнае, че ако някои правила безапелационно важат за една ситуации, не е задължително да е така и в друг контекст.

Комбинацията от тези подходи може да позволи на робота да получи представа за правилата и да действа според тях и ситуацията.

Могат ли някога роботите да станат по-морални от хората?

Роботите наистина имат потенциала да бъдат по-нравствени, отколкото самите хора.

  1. Роботите, за разлика от хората, не са егоистични. Ако се обучи добре, роботът ще има приоритет човешките интереси, без да търси собствена полза. Роботът може да следва едновременно собствените си цели и обществените норми, без да си противоречат.
  2. Роботите нямат емоции като гняв, завист или страх, които да повлияват на моралните им решения, както се случва при хората. Някои дори смятат, че точността и последователността на действията на роботите правят от тях отлични войници, които за разлика от хората, не биха престъпили някакви норми на международното хуманитарно право.
  3. Роботите в близкото бъдеще ще имат конкретни роли и ще се използват за ограничен кръг от задачи. Това води до значително намаляване на  количеството на правила, на които трябва да се научат, защото и ситуациите, в които трябва да взимат решение ще са и по-малко. Ако роботите са активни участници в специфични социални общности, те ще бъдат проектирани и обучени в рамките на нормите на тази общност.

Задачата за проектирането на роботи, които могат да разберат ситуацията и да действат в съответствие с моралните норми на човека, е трудна, но не и невъзможна. Хубаво е, че ограничените възможностите на съвременните роботи ни дават време да ги научим на морал и етика. Вероятно ще има и грешки, но бъдещето е на сътрудничеството помежду ни.

Източници:

Machine ethics: The robot’s dilemma, Nature, Boer Deng

Robot Ethics,  IEEE Robotics & Automation Society

Beyond Surveillance: Darpa Wants a Thinking Camera, Wred, SPENCER ACKERMAN

Moral Machines, GARY MARCUS

Виж още за:
Най-важното
Всички новини
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

09.12 2015 в 20:56

Проблемите с морала и етиката на роботите ще възникната тогава, когато човекът им възложи да се въпроизвеждат. Тогава ще възникнат първите "инстинкти" ( като при човека) за самосъхранение ( което, ще доведе до егоизъм и всички неетични последствия) и борба за оцеляване и господство...