И деята за изкуствения интелект, който ще завладее човечеството от десетилетия витае наоколо и програми като ChatGPT само подновиха тези опасения.
И така, колко вероятно е да контролираме компютърен суперинтелект на високо ниво? Учените опитаха да изчислят това още през 2021 г. Отговорът? Нямаме почти никакъв шанс.
Researchers Say It'll Be Impossible to Control a Super-Intelligent AI https://t.co/5j0KQAQczR
— ScienceAlert (@ScienceAlert) September 18, 2022
Уловката тук е, че контролирането на ИИ, който все още е далеч от човешкото разбиране, би изисквало да се създаде такава симулация, за да можем да я анализираме. Но ако не сме в състояние да го разберем, не е възможно да създадем симулацията.
Заповеди от типа „не причинявай вреда на хората“ не могат да бъдат зададени, ако не можем да предположим сценариите, които ИИ би могъл да измисли, казват учените. Ако компютърната система работи на ниво над способностите на програмистите ни, ние вече не сме в състояние да задаваме ограничения.
„Свръхинтелигентността поставя фундаментално различни проблеми от тези, които обикновено се изучават при „етика на роботите“, пишат изследователите през 2021 г.
Superintelligent #AI May Be Impossible to Control; That's the Good News.@LoriMoreno @Dahl_Consult @baski_LA @ShiCooks @sallyeaves @mvollmer1 @NevilleGaunt @labordeolivier @FrRonconi @ingliguori @DrJDrooghaag @antgrasso @alvinfoo @sallyeaves @Analytics_699https://t.co/GWk7azE7jF pic.twitter.com/rhpL2fAdxS
— Abhishek Yadav (@abhishek__AI) January 21, 2021
„Това е така, защото суперинтелектът е многостранен и потенциално способен да мобилизира разнообразие от ресурси, за да постигне цели, които са потенциално неразбираеми за хората, да не говорим за контролируеми.“
Част от разсъжденията на екипа идват от проблема със „спирането“, поставен от Алън Тюринг през 1936 г. Проблемът се съсредоточава върху това дали една компютърна програма ще може да достига до заключения и отговори (и ще спре), или просто ще зацикли завинаги, опитвайки се да намери такъв.
Както Тюринг доказал, докато за някои програми е възможно да знаем дали биха спрели, но логически погледнато не е възможно да намерим начин, който да ни позволява да разбираме това за всяка програма, която потенциално в бъдеще може да бъде създадена.
Това ни връща към ИИ, който би могъл да съдържа наведнъж в паметта си всяка възможна компютърна програма.
Всяка програма, написана, за да спре изкуствения интелект да наранява хората и да унищожава света, може да стигне до заключението, че е тръгнала по този опасен път да и да спре или не – математически обаче е невъзможно да бъдем абсолютно сигурни и за двата случая.
AI PROBABLY WILL BECOME IMPOSSIBLE TO CONTROL, RESEARCHERS WARN https://t.co/krIkT40Xkp pic.twitter.com/58w78aZI5n
— Gerald Celente (@geraldcelente) September 28, 2022
„На практика това прави алгоритъма за ограничаване неизползваем“, каза компютърният учен Ияд Рахван от Института Макс-Планк за човешко развитие в Германия.
Алтернативата да бъде преподавана етика на ИИ и му бъде наредено да не унищожава света е нещо, което не сме сигурни, че който и да бил алгоритъм ще може със сигурност да следва, казват изследователите. Друг вариант е да се ограничат възможностите на ИИ. Може да му бъде спрян достъпа до части от интернет или до определени мрежи, например.
Проучване от 2021 г. обаче отхвърля и тази идея, като предполага, че това би ограничило функциите на изкуствения интелект – аргументът е, че ако няма да го използваме за решаване на проблеми извън обсега на хората, тогава защо изобщо да го създаваме?
Ако изберем да вървим напред с изкуствения интелект, съществува опасността да не разберем кога нещата са излезли извън нашия контрол. Заради това трябва да започнем да задаваме някои сериозни въпроси относно посоките, в които вървим.
Elon Musk says it's not impossible for AI to control humanity — to save it from itself https://t.co/uftdo4VpA8
— Insider Tech (@TechInsider) May 24, 2023
По-рано тази година технологични гиганти, включително Илон Мъск и съоснователят на Apple Стив Возняк, подписаха отворено писмо, в което поискаха от човечеството да спре работата по изкуствения интелект поне за 6 месеца, за да може да се проучи как да продължи развитието му по безопасен начин.
„ИИ системите трябва да бъдат разработени само след като сме уверени, че техните ефекти ще бъдат положителни и рисковете, които могат да възникнат ще бъдат управляеми“, се казва в него.
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!