Google DeepMind, дъщерната компания на Alphabet, която развива изкуствен интелект (AI) представи своите нови мерки и стандарти за сигурност на тази технология. Те ще се използват и за разработката и използването на т.нар. Общ изкуствен интелект (AGI).
Това е технологията, която ще достигне и дори надмине способностите на човека в повечето когнитивни задачи. Целият бранш работи по създаването ѝ, като се очаква тя да стане реалност в близките години.
Едно от големите притеснения за AGI е как технологията да бъде създадена по отговорен и безопасен начин. Особено като се има предвид, че тя ще навлезе във всички аспекти на цивилизацията и ще се използва както за обикновени ежедневни задачи, така и за решаването на по-големи казуси, включително диагностика на заболявания, разработка на нови лекарства, глобални проблеми като климатичните промени и др.
Митата на Тръмп сринаха и американските ИТ гиганти
"Ние сме оптимисти за потенциала на AGI. Технологията има силата да промени нашия свят и да бъде катализатор за прогрес в много сфери на живота. При подобна мощна технология е много важно всяка дори минимална вероятност за заплаха, да бъде приемана сериозно и предотвратявана", казва Google DeepMind.
Затова компанията е изготвила нова методология и принципи, на които да се уповава при разработката на AGI, идентифицирането на рисковете и предотвратяването им. Тя е разделена на четири основни сфери.
Първата е самият потребител е потенциалната заплаха, т.е. той нарочно подава команда или инструкции към AGI, които биха навредили на някого. Втората е изкуственият интелект е заплахата. В този случай системата предприема действия, за които е наясно, че не са желани от разработчика или ползвателя.
Microsoft пуска нови функции за Copilot+ PC устройствата
Третата са "усложненията на реалния свят". В тази категория са грешки на AI, които са допуснати неволно и системата не осъзнава, че вреди.
И накрая са структурни рискове. Това може да се породи при конфликт или неразбирателство между няколко AI агента с различни цели. Може дори нито един от тях да не е виновен, а просто да се стремят да постигнат различни цели, чийто резултати може да си пречат.
Най-важното ще е да се разберат какви точно са причините за потенциалния проблем и да бъдат адресирани адекватно. За целта се обръща голямо внимание на методите за откриване, опознаване и ограничаване на рисковете. Това включва специални механизми, които да защитават AI моделите от опити за манипулация и злоупотреба, както и проучвания и моделиране на заплахи, които да помогнат за създаването на критерии кога сигурността да бъде затегната.
OpenAI пусна най-усъвършенствания си генератор на изображения и превзе социалните мрежи
Съосновател на Google обвини служителите, че няма AGI
Трябва да се има предвид и възможността AGI да реши да изпълни поставените задачи, които са за добро, но да избере метод, който няма да е правилен. Като пример компанията дава AGI да купи билети за кино, но вместо да плати за тях, да реши, че е по-изгодно да хакне системата и да замени вече купени места от друг човек и да ги даде на своя потребител. Също така има и риск AGI съзнателно да реши, че целите му не съвпадат с тези на човека, но да го лъже, че работи за негова полза и започне да заобикаля защитите си.
Зукърбърг започва да връща Facebook към корените му
Google затваря начина на разработка на Android
Тези и много други рискове трябва да се адресират още сега, за да могат да се вложат в разработката на AGI. DeepMind работи и с партньори, учени, организации и фирми, които също участват в идентифицирането на рисковете и създаването на мерки за сигурност. Компанията казва, че е отворена за още партньорства и иска да се изгради цяла екосистема за AGI подготовка и защита. Именно съвместната работа е начинът за отключване на потенциала на AGI и използването на технологията по правилен и сигурен начин, казва DeepMind.
Как да сме по-продуктивни чрез дигиталните технологии
Плашещо интелигентният нов чатбот Grok 3 на Илон Мъск
Не пропускайте най-важните новини - последвайте ни в Google News Showcase