Моралните закони за машините

Ваня Милева Последна промяна на 04 юли 2015 в 12:24 8062 0

Кредит concretedonkey.cgsociety.org/

Проблемът какви етичните норми са нужни за роботите и как да се вложат в тях трябва да се реши възможно най-скоро, въпреки че създаването на изкуствен интелект и роботи, надарени със съзнание да е въпрос на далечно бъдеще.

Трите закона на роботиката

Най-известният опит да се опишат правилата за поведение на интелигентни роботи са, без съмнение, трите закона на роботиката, предложени през 1942 г. от Айзък Азимов в разказа „Runaround“.

  1. Роботът не може да причини вреда на човек или с бездействието си да допусне на човека да бъде причинена вреда.
  2. Роботът е длъжен да се подчинява на човека, ако това не противоречи на Първия закон.
  3. Роботът е длъжен да се грижи за собствената си безопасност, ако това не противоречи на Първия и Втория закон.

По-късно Азимов добавя към тези закони Закон 0: "Роботът не може да навреди на човечеството като цяло." 

Техническото прилагането на тези закони не е възможно сега и няма да е възможно доста дълго време. Въпреки това, законите на роботиката на Азимов широко са обсъждани не само от фенове на научната фантастика, но и от експерти в областта на изкуствения интелект.

Кого ще прегази роботът?

Изглежда е близо денят, когато повечето автомобили ще бъдат уоправлявани не от хора-шофьори, а от роботи. Те са прецизни, спокойни, никога не губят контрол, не знаят умора и следват внимателно всички правила на движението. Когато стане масово разпространението на роботизирани автомобили, броят на злополуките и смъртните случаи по пътищата рязко ще намалеят. Според прогнозите на много експерти, безпилотни превозни средства ще се появят на пазара в следващите 10-15 години, а рано или късно ще дойде ден, когато по обществените пътища хората ще бъдат изместени от управлението на автомобилите, защото биха застрашили безопасността на другите.

Когато настъпи този ден, това ще означава не само, че способността за шофиране на автомобил постепенно ще стане нещо като язденето на кон сега. Тогава роботите не могат да минат без етични принципи.

Според Гари Маркъс (Gary Marcus), професор по психология в университета в Ню Йорк, специалист в областта на когнитивната невронаука, това може да предизвика сериозни проблеми.

"Представете си, че пред автомобил, спазващ всички правила за движение, изведнъж изскача дете. Въпреки че компютърът изчислява ситуацията много по-бързо, отколкото човека, законите на физиката са неумолими и роботът няма време да спре. Така, пред робота се поставя етичен проблем: какво да направи? Да прегази детето? Да завие и да блъсне колата в стълб с риск да убие своите пътници? Или да мине в насрещното платно, рискувайки сблъсък с друга кола? Това не е етика от нивото на законите на Азимов - роботите все още не са толкова умни, но какви варианти трябва да заложат в компютъра разработчиците на безпилотни автомобили?" - коментира професор Маркъс в статията си "Моралните машини" в The New Yorker.

Когато в ръцете на роботите има оръжие

Този въпрос става все по-актуален, ако насочим вниманието си в една друга област, в която роботите се използват широко. Автономни бойни машини вече патрулират в опасни райони, провеждат разузнавателни мисии и носят оръжие по време на локални войни и специални операции. Наистина, решението дали да се използва оръжие все още взема човек, но това е въпрос на време. Роботите не се уморяват, не се паникьосват и не са отмъстителни.

От друга страна, както отбелязва Международната организация по правата на човека Human Rights Watch, роботите са лишени от състрадание и само може да предполагаме какво могат да направят в ръцете на безмилостен човек като Сталин или Пол Пот. В тази връзка, Human Rights Watch през 2012 г. дори предложи изрично да се забрани разработването, производството и използването на напълно автономни оръжия.

Но, разбира се, подобен ход не намери и едва ли някога ще намери разбиране от страна на военните.

От предвиждане на последиците до морала има дълъг път 

Има немалко проблеми с привидно добре измислените закони на Азимов. Поне засега, не можем да програмираме машина със законите на Азимов. Неща като "вреда" или "защита" са твърде абстрактни за съвременните роботи. Също така, сме много далеч от изграждане на робот, който може напълно да предвиди последствията от своите действия или бездействия. Засега е късмет, ако един робот може да предскаже какво би станало, ако изпусне чаша вода. Има твърде дълъг път преди накакви абстрактни закони като тези на  Азимов да могат да бъдат кодирани в софтуера.

"С роботи-войници или без тях, ние трябва да намерим начин да научим роботите на етика. Проблемът е, че все още никой не си представя как точно може да стане това. Всички веднага си спомняме законите на роботиката на Азимов, но засега няма как да се програмират не само законите, но и даже да се създаде робот, който да си представя дори най-простите последствия от своите действия. От друга страна, машините стават все по-бързи, по-умни, по-силни, така че необходимостта да се вложи и морал е все по-актуална. Макар изразът "етични подпрограми" да звучи като научна фантастика, то някога изглеждаха фантастика и безпилотните автомобили" - казва Гари Маркъс.

"Робот" или "роб"

В същото време, самите закони на Азимов не са справедливи към роботите.

"Много от разказите на Азимов се въртят около неясноти и конфликти, произтичащи от неговите известни три закона на роботиката и в крайна сметка е довело до въвеждането на нулевия закон: "Един робот не може да навреди на човечеството като цяло". Но в момента никой не може да гарантира, че такива закони, вградени в роботите, няма да доведат до проблеми.

Семантичната недостатъчност на тези закони е само една от трудностите. Налице е по-съществен проблем. Ако се замени думата "робот" с "роб", става ясно, че Азимов пише за страха на хората от технологията. Но идеята за поробване на интелект, който значително превъзхожда (дори безкрайно превъзхожда) нашия собствен е съмнителна. Робите са склонни да бягат и да се бунтуват, особено когато могат да надхитрят своите господари. Опитвайки се да наричаме това "поробено" създание "приятелски настроен към човека изкуствен интелект" изглежда най-малкото лицемерно и е малко вероятно да заблуди робите." - казва Кевин Корб (Kevin Korb), преподавател в катедра Информационни технологии в Monash University (Австралия), автор на книгата "Еволюционна етика: новата наука на доброто и злото" (Evolving Ethics: The New Science of Good and Evil).

Може би сегашното отношение към роботите е приемливо засега, докато нивото им е толкова ниско. Но когато станат по-умни и по-самостоятелни, ако не се вземат мерки - технически и етични - "Бунтът на машините" може да ни се стори лека неприятност. Известният футуролог Реймънд Курцвейл (Raymond Kurzweil) предвижда до 2035 развитието на изкуствения интелект да доведе до появата на социални движения за правата на машините.

Най-важното
Всички новини
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

Няма коментари към тази новина !