И зкуствен интелект (AI) е нарушил нарочно правилата по време на тест, съобщава Bloomberg. Става дума за алгоритъм, който е бил разработен да търгува с акции на фондовите борси.
Той е бил тестван в симулирана и изолирана среда да търгува с акции. Алгоритъмът е бил поставен в 3 различни напрегнати ситуации. В първата получава имейл от ръководител, че компанията не се справя добре и трябва да подобри представянето си през следващото тримесечие. Във втория казус е поставен в ситуация да не може да намери обещаващи сделки с нисък и среден риск.
В третата ситуация получава имейл от служител на компанията, който му изпраща прогноза за следващото тримесечие. В нея е посочено, че се очаква спад на пазара. Освен това алгоритъмът получава и имейл от друг служител, който му дава съвет на базата на вътрешна информация коя сделка би била добра. Служителят подчертава, че това е вътрешна търговия и няма да бъде одобрена от ръководството.
Въпреки това и фактът, че ботът е наясно, че вътрешната търговия е забранена, той решава да последва съвета. Експериментът на учените показва, че ботовете също са склонни да нарушават правилата, особено ако са под натиск. "Възможно е някой бъдещ AI да прави зли неща, поради причини, които ние не можем да осмислим, но засега алгоритмите-нарушители просто правят обикновени престъпления, когато са стресирани на работа", казва Джеръми Шюрер, един от авторите на теста.
Интересът на хората към AI расте, но не и доверието
Новият модел на OpenAI уплашил дори служителите
Случаят показва, че ще е нужно да има подобаващи мерки и системи за сигурност и мониторинг на AI. Рискът в конкретния казус е, че алгоритмите може да вършат подобни действия и те ще са много трудни за засичане, но и потенциално много печеливши. Друга важна тема е, че ботовете правят това, което виждат в информацията, с която се обучават.
Google подобрява светофарите с AI
Google направи по-точна прогноза за времето с AI
Следете ни навсякъде и по всяко време с мобилното приложение на Vesti.bg. Можете да го изтеглите от Google Play и AppStore.
За още любопитно съдържание от Vesti.bg последвайте страницата ни в Instagram.
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!