И зкуственият интелект (AI) е много популярен в момента и изглежда сякаш е нова, атрактивна технология. Всъщност, това са предимно резултатите на години труд в обучаването и усъвършенстването на досегашните проекти.
Очакванията към AI са много големи. Толкова големи, че да преобърнат и преоткрият цели индустрии и да променят начина на живот на цялото човечество. Това е и голяма отговорност, която логично повдига въпроса за доверието в AI. Как може да сме сигурни, че тези алгоритми ще взимат правилните решения? Може ли да им се повлияе?
И макар да има множество и различни умни алгоритми, които се конкурират помежду си, те имат и много общо помежду си. Най-вече фактът, че практически всички алгоритми разчитат на някаква база данни с информация за конкретната тема, по която са обучавани. AI за разпознаване на обекти в снимки например се нуждае от кадри, за да ги анализира и да се научи как да различава обектите. AI за генериране на текст, както е популярният в момента ChatGPT, има нужда от база данни, която има разнообразна информация, която да използва като отправна точка, за да създава своите идеи.
Именно това може да се окаже слабо звено на AI като цяло – възможността да бъде „отровен“ чрез компрометиране не са алгоритъма, а на данните, с които се обучава. Това предупреждават учени от университета ETCH Zurich, които са направили проучване заедно с експерти от Google, Nvidia и Robust Intelligence, съобщава онлайн изданието IEEE Spectrum.
CAIDP: GPT-4 е опасен и трябва да бъде спрян
Те са открили поне два метода за „отравяне“ на базите данни, което може да повлияе пряко на развитието на изкуствения интелект, който използва тази информация. Добрата новина е, че няма информация методите да са познати на хакери и да са били прилагани.
Лошата е, че атаките са много лесни за реализиране и не изискват големи усилия за реализация. Не е нужно да се компрометира голяма част от базата, за да се изкриви обучението и съответно разбирането на алгоритъма. Един от методите е струвал само 60 долара, за да се „отрови“ 0.01% от две бази данни. Такива атаки може да манипулират AI в различни посоки – например да взима сексистки или расистки решения, да развие други тези и мнения, които са в противоречие с основната му цел и т.н.
Бил Гейтс: Започна ерата на изкуствения интелект
Мъск иска спиране на опитите с изкуствен интелект
Възможно е чрез тези методи и да се внедри „задна врата“ за по-късен достъп до модела и управление на поведението му в последствие. Колкото по-сложен е един алгоритъм и колкото по-голяма цел има, от толкова по-огромна база данни има нужда, за да се обучи. Това пък прави откриването на „отровена“ информация вътре в нея още по-трудно.
Учените препоръчват да се разработят методи за допълнителна защита на базите данни от манипулации. Някои рисковете трудно могат да се предвидят. Например чатботовете често използват събрана от интернет информация. В нея неизменно ще попаднат и фалшиви новини или дори съзнателно компрометирани интернет страници и публикации с цел да подведат AI. Трудно може да се направи верификация на милиони публикации.
ChatGPT застрашава 19% от професиите в САЩ
Въпреки това си струва да се помисли за решения, казват учените. В противен случай има рискове както от гледна точка на по-опасни манипулации, така и чисто търговски опити за подвеждане на изкуствен интелект да предпочита даден бранд повече от друг и съответно да го препоръчва при определени въпрос, казва Флориан Трамер от ETH Zurich.
Наследникът на ChatGPT е още по-умен и "визуален"
Китайският отговор на ChatGPT се казва ERNIE Bot
Следете ни навсякъде и по всяко време с мобилното приложение на Vesti.bg. Можете да го изтеглите от Google Play и AppStore.
За още любопитно съдържание от Vesti.bg последвайте страницата ни в Instagram.
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!