В се по-автономните, оборудвани с оръжие роботи за военни цели могат лесно да попаднат в ръцете на терористи. Дори е възможно да бъде създадена раса с ръце на робот, прогнозира топексперт по изкуствен интелект.
Военните роботи представляват заплаха за цялото човечество, твърди университетският преподавател от Шефилд Ноел Шарки.
Интелигентните машини, разположени по бойните полета в целия свят - от мобилни роботи за хвърляне на гранати до безпилотни самолети, които изстрелват ракети - вече могат да идентифицират и стрелят по цели без човешка помощ.
В момента в Ирак има над 4000 военни американски робота, както и безпилотен самолет, който има хиляди часове полети. Миналото лято там бяха разположени първите три робота, въоръжени с тежкокалибрени картечници.
Те са произведени от американската компания "Foster-Miller" и се оказаха толкова успешни, че военните направиха заявка за още 80 машини. Засега обаче винаги се налага наличието на човешка ръка, която да натисне бутона или да дръпне спусъка.
Ако не сме внимателни, това може да се промени, алармира Шарки. Няколко държави, водени от САЩ, вече са направили огромни инвестиции в роботи войници за използване на бойното поле.
Южна Корея и Израел дори са разположили роботизирани пазачи по своите граници, а Китай, Индия, Русия и Великобритания са увеличили използването на военни машини.
Вашингтон планира да изразходва 4 млрд. долара до 2010 г. за безчовешки технологични системи, като общите разходи се очаква да нараснат до 24 млрд. до 2032 г., според стратегията на Министерството на отбраната на страната.
Сериозна заплаха според Шарки представлява използването на подобни машини от терористи. Заловените роботи може сравнително лесно да бъдат препрограмирани и да заменят атентаторите самоубийци.
Най-обезпокояващото обаче е прогресията от полуавтономните военни роботи, използвани днес, към напълно независими машини за убиване. Засега все още съществуват няколко пречки за създаване на машини, подобни на Терминатор.
Някои от тях са технически, а други - етически. За съжаление ако техническите бъдат разрешени, то едва ли някой би обърнал внимание на етическите.
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!