Учени с отворено писмо срещу създаването на автономни оръжия

Наука ОFFNews Последна промяна на 29 юли 2015 в 11:51 5737 0

Нека терминаторите останат само в киното.

Лидери от света на IT-технологиите и науката подписаха отворено писмо за забрана на разработването на автономни военни роботи.

Сред ангажираните са гениалният физик Стивън Хокинг, съоснователят на Apple Стив Возняк, шефът на Tesla Елон Мъск и др.

От публикувания текст се вижда, че тези велики мъже се опасяват от нова "надпревара във въоръжаването".

"Автономните оръжия избират и стрелят в целта без човешка намеса. Те биха могли, например, да решат да премахнат един или друг човек, който не отговаря на някакви техни критерии, макар това да не се отнася за пилотираните от хора дронове и крилати ракети. Технологията на изкуствения интелект (AI) е достигнала такава точка, и ако не се забрани ще бъде напълно реализуем проект през следващите десет години. Нека си спомним, че автономното оръжие бе описано по-рано като третата революция във войната след барута и ядрените оръжия", - се казва в текста на писмото.

"Разбира се, може много да се каже за ползата от автономните оръжия. Например, почти пълна подмяна на човешкия фактор на бойното поле и по този начин, запазване на живота на по-голямата част от участниците във войната. Но не забравяйте, че създаването на подобен AI ще доведе до най-катастрофални последици: ще започне надпревара във въоръжаването, а си спомняме, какво донесе тя последния път (Карибската ракетна криза). Освен това, този вид оръжие ще се окаже достатъчно евтино и подобни сили ще се появят на въоръжение у много армии по света, че и у терористите. Автономното оръжие е идеално за задачи като покушение, като по този начин може да дестабилизира държава, да подчини населението и селективно да унищожи определена етническа група."

И както навремето учените подкрепиха забраната на ядрените оръжия, така и днес хората, които работят по създаването на интелигентни оръжия, трябва да се противопоставят на новата опасност.

"Ние вярваме, че знанията и уменията на AI не са достатъчни, за да направят нещо наистина ценно и полезно за човечеството, но нека към това да се ориентират. Да се започне надпревара на интелигентни автономни оръжия е много лоша идея и трябва да бъде предотвратена чрез забрана на смъртоносните оръжия извън човешки контрол" - завършва призивът към международната общност.

Очаква се петицията да бъде официално прочетена на Международната конференция по изкуствен интелект в Буенос Айрес.

Най-важното
Всички новини
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

Няма коментари към тази новина !