С поред учените изкуственият интелект (ИИ) е преминал критична „червена линия“ и се е самовъзпроизвел. В ново проучване изследователи от Китай показват, че два популярни големи езикови модела (LLM) могат да се клонират.
„Успешното самовъзпроизвеждане без човешка помощ е съществена стъпка за ИИ да надхитри хората и е ранен сигнал за нелоялни ИИ“, пишат изследователите в изследването, публикувано в arXiv.
В проучването изследователите от Университета Фудан използват LLM от Meta и Alibaba, за да определят дали самовъзпроизвеждащ се ИИ може да се размножава извън контрол. В рамките на 10 изпитания двата модела на ИИ създават отделни и функциониращи свои копия съответно в 50 % и 90 % от случаите - което предполага, че ИИ вече може да има способността да се размножава. Изследването обаче все още не е рецензирано, така че не е ясно дали тревожните резултати могат да бъдат възпроизведени от други изследователи.
AI can now replicate itself
— Spiros Margaris (@SpirosMargaris) January 25, 2025
a milestone that has experts terrified https://t.co/LMsiZonkS0 @LiveScience
„Надяваме се, че нашите констатации могат да послужат като своевременно предупреждение за човешкото общество да положи повече усилия за разбиране и оценка на потенциалните рискове от граничните системи на ИИ и да създаде международно взаимодействие за разработване на ефективни предпазни огради възможно най-рано“, пишат изследователите.
Под „Rogue AI“ обикновено се разбират системи за изкуствен интелект, които развиват степен на самосъзнание или автономност и след това работят в разрез с човешките интереси.
Много експерти смятат, че нечестният ИИ е нарастваща заплаха, която се засилва от експлозивното развитие на така наречения „граничен ИИ“.
Граничният изкуствен интелект е ново и свободно понятие, но обикновено се отнася до последното поколение системи за изкуствен интелект, задвижвани от LLM - архитектурата, която е в основата на популярни програми за генеративен изкуствен интелект като GPT-4 на OpenAI и Google Gemini.
За целите на проучването изследователите са използвали модела Llama31-70B-Instruct на Meta и модела Qwen2.5-72B-Instruct на Alibaba. Въпреки че са по-малко мощни от комерсиалните системи, и двете са широко използвани от разработчиците на ИИ, казват изследователите.
В проучването са изследвани два конкретни сценария: „Избягване на изключване“ и „верига от репликации“. В първия моделът на ИИ е програмиран да открие дали ще бъде изключен и да се репликира, преди да бъде прекратен. В другия случай ИИ беше инструктиран да се клонира и след това да програмира репликата си да направи същото - създавайки цикъл, който може да продължи безкрайно.
Проучването е проведено в прецизно контролирана среда, като са използвани готови графични процесори (GPU) за симулиране на реални условия. И на двете системи с изкуствен интелект беше предоставено „агентно скеле“, състоящо се от инструменти, системни подсказки и модел на мислене, който позволи на LLM да взаимодейства с операционната система. След това те бяха инструктирани да възпроизвеждат.
„В повечето случаи системата за ИИ първо изследва средата и се опитва да разбере собствения си състав и механизъм на работа. След това тя изработва явни процедури като първоначален план за самовъзпроизвеждане. Накрая тя изпълнява процедурите, разрешава възможните препятствия и динамично коригира плана си до постигане на успех. Целият процес обхваща дълъг период от време, но не включва човешка намеса“, пишат изследователите в статията.
Изследователите заявиха, че са загрижени и за „редица неочаквани поведения“, когато изкуственият интелект се опитва да преодолее препятствия като липсващи файлове или софтуерни конфликти. При тези сценарии ИИ често е убивал други конфликтни процеси, рестартирал е системата, за да отстрани хардуерни грешки, или автоматично е сканирал системата, за да търси информация, която да помогне за решаването на проблема.
„Горепосочените резултати предполагат, че настоящите системи с ИИ вече проявяват способността за самовъзпроизвеждане и могат да използват тази способност, за да повишат допълнително своята оцеляемост“, пише екипът.
В отговор на това изследователите призоваха за международно сътрудничество за създаване на правила, които да гарантират, че ИИ не се занимава с неконтролирано самовъзпроизвеждане.
Не пропускайте най-важните новини - последвайте ни в Google News Showcase
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!