С ветовните сили бързат да пуснат роботи убийци на бойното поле в надпреварата във въоръжаването с изкуствен интелект, а опасенията, че те могат да се обърнат срещу хората все повече нарастват.
Нов вид студена война е на фронта.
Нов документален филм разкрива как военните сили по целия свят са в тайна надпревара в разработването на ужасяващи нови оръжия с изкуствен интелект.
„Хора от американската армия казват, че който и от световните лидери да получи предимството на ИИ, ще има огромно техническо предимство във войната“, казва Джеси Суит, режисьор на „UNKNOWN: Killer Robots“, чиято премиера ще бъде в понеделник по Netflix.
This is a bad idea right from the start, we should not be building Terminators?
— Old School Eddie (@Old_SchoolEddie) July 10, 2023
World powers in a rush to get killer robots on battlefield in AI arms race, as concerns grow they can turn on humans https://t.co/7aPPN2YLdo
„Тази революция се случва сега, но мисля, че осъзнаването ни за случващото се изостава“, предупреждава Суит, режисьор и продуцент, носител на награда „Еми“.
Използването на оръжейни роботи и дронове за битка не е нещо ново. Но ИИ софтуерът подобрява съществуващия хардуер, който модернизира войната вече повече от десетилетие.
Сега, казват експертите, развитието на ИИ ни тласна към един нов момент, в който глобалните сили вече нямат друг избор, освен да преосмислят военните стратегии - от самото начало.
„Реалистично е да се очаква, че ИИ ще може да пилотира F-16 и то съвсем скоро“, казва Нейтън Майкъл, главен технологичен директор на Shield AI, компания, чиято мисия е „да създаде най-добрия ИИ пилот в света“.
Създателите на филма обаче изразяват загриженост - подобно на мнозина, работещи в областта на ИИ - относно бързото навлизане на роботите във военните действия и предупреждават, че изобщо не разбираме какво създаваме и какви ще са последствията от това.
„Начинът, по който тези алгоритми обработват информация не са съвсем ясни дори на хората, които са ги програмирали и не могат да разберат напълно решенията, които вземат“, казва Суит.
Съществуват също така опасения, че прецизността и точността на технологията може да превключи на „преследване“ в ситуация на живот или смърт.
Едно основно притеснение се върти около софтуера за лицево разпознаване с изкуствен интелект, който се използва за подобряване на автономен робот или дрон по време на престрелка. В момента е нужно човек да натисне спусъка. Ако решението се остави изцяло на ИИ и екстремистите хакнат системат те могат вече да бъдат възприемани като цивилни или дори съюзници и така ИИ да отиде в ръцете им, предупреждава режисьорът.
„ИИ е по-добър в идентифицирането на бели хора“, каза Суит. „Така че лесно може да сбърка хората с кафява кожа, което ще има ужасяващи последици, когато е поставен в условията бойна действия и трябва да идентифицирате приятелите или враговете..“
А помните ли, когато страхът от това, че машините ще бъдат обърнати срещу нас, беше просто част от сюжета на футуристичен екшън филм?
„С ИИ това е една съвсем реална възможност“, каза Суит. „Самата мисъл за това вече предизвиква напрежение в армията“, споделя още режисьорът.
OpenAI is accused in the suit of conducting an enormous clandestine web-scraping operation, violating terms of service agreements and state and federal privacy and property laws. https://t.co/wco6uzrhIH
— Scott Galloway (@profgalloway) July 5, 2023
„Също така има притеснения относно киберсигурността когато се започне да се използва ИИ и по-точно възможността чужди правителства или независими участници да поемат ключови елементи от армията“, казва той. „Не мисля, че има ясно решение на този проблем. Но за смеетка на това мисля, че всички са наясно, че колкото повече автоматизираме армията, толкова повече място правим за нахлуването на неизвесността."
Сложността, необходима, за да се извърши пробив от такъв мащаб, трябва да тревожи всичкини, защото тя съвсем не е голяма, казват запознати.
„Преди трябваше да си компютърен гений, за да направиш нещо подобни. Както във филмите от 80-те, детето трябва да е някакво чудо“, каза Суит. „Но сега бихте могли да бъдете нещо като студент, който си е изтеглил видеоклипа от YouTube, който да ви покаже как.“
И докато изкуственият интелект напредва в медицинските и фармацевтичните технологии за лечение и диагностика на болести, учените предупреждават, че нещо толкова просто като промяната на няколко нули на единици в програмата може да създаде химическо оръжие за провеждане на хиляди симулации, които да дадат токсичен състав.
Д-р Шон Екинс, главен изпълнителен директор на Collaborations Pharmaceuticals, разказва за това как през 2021 г. получил задача от швейцарска група за наблюдение на ИИ, да експериментира с възможността за проектиране на биологично оръжие.
„Изградихме много модели за машинно обучение, за да се опитаме да предскажем дали една молекула може да бъде токсична. Това което направихме беше да обърнем този модел и да кажем „добре, ние се интересуваме от проектирането на токсични молекули“, каза Екинс пред The Post.
Microsoft is sitting in the “driver’s seat” in terms of the AI arms race, Wedbush analysts said.https://t.co/r1rPgG2u8c
— MarketWatch (@MarketWatch) July 6, 2023
„Буквално превключихме ключа на един от моделите и за една нощ той генерира молекули химическо оръжие… и тук говорим за малка компания, която направи един експеримент на настолен Mac от 2015 г.“
Сред произведените модели имаше подобни състави на VX - един от най-смъртоносните нервнопаралитични агенти, известни в света.
„Използвахме генеративни технологии, за да го направим, но те бяха доста елементарни инструменти“, добави изпълнителният директор. „Сега, почти две години по-късно, мисля, че това, което направихме, е нещо като детска игра в сравнение с това, което е възможно днес.“
Екинс се опасява, че „един непредвидим учен“ или някой по-малко квалифициран, но с лоши намерения, ако има средствата да създаде в домашни условия вариации на VX и други биологични оръжия чрез ИИ, то как ще се справим с подобен сценарий.
Въпреки че Екинс и екипът му публикували документи възможностите от потенциалната, смъртоносна злоупотреба и апелирали за създаването на проверки опасенията им не били чути, казва той.
„Индустрията не реагира. Нямаше никакъв натиск за създаването на каквито и да е предпазни мерки“, добави Екинс. „Мисля, че да не обръщаме внимание на потенциалната опасност е доста глупаво…“
Той сравнил бързото ускоряване на машинното обучение в своята област с това на учените, създали атомната бомба преди близо 85 години, без да съзнават опасността и да обмислят последствията.
„Дори кръстниците на ИИ технологиите, както ги наричаме, едва сега осъзнават, че има потенциална „дух от бутилката“, който са пуснали навън“, казва Екинс. „И мисля, че ще бъде много трудно да го върнат обратно в бутилката, ако изобщо е възможно.“
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!