В се още има много неща, които не знаем за robotocall в Ню Хемпшир, който се представяше за президента Джо Байдън, вероятно използвайки технология за клониране на глас чрез изкуствен интелект.
Случаят е от 21 януари, два дни преди първичните избори, опитвайки се да обезкуражи демократите да се отправят към урните. Не е сигурно кой стои зад обаждането, какъв софтуер е използван при създаването му или колко избиратели са получили подобно обаждане.
Главната прокуратура на Ню Хемпшир разследва.
Изкуствен интелект: Заплаха ли е за музикалната и филмовата индустрия (ВИДЕО)
Но стана ясно едно нещо: регулаторните органи са под натиск да предприемат действия срещу deepfake преди изборите.
Въздействието на deepfake върху обществото – и по-специално изборите – предизвиква безпокойство от години. Лесните за използване генеративни AI инструменти наскоро го превърнаха от проблем в нишови области до най-висок риск за сигурността навсякъде. Преди автоматичното обаждане на Байдън, AI deepfakes бяха използвани в опити за прекъсване на изборите в Словакия и Тайван.
Конгресът взе случая под внимание.
Сенатор Майк Раундс казва пред Politico, че докато Сенатът очертава приоритетите си относно законодателството за изкуствения интелект, нараства признанието, че справянето с използването на изкуствен интелект в рекламите и комуникациите на кампанията трябва да е начело в списъка. След deepfake съдържанието на Тейлър Суифт, разпространено в X миналата седмица, законодателите подновиха призивите за спеши реформи в областта на AI.
X has restored searches for Taylor Swift after temporarily blocking users from seeing some results as explicit deepfake images of the singer circulated online. https://t.co/jAomYp4jG6
— WSLS 10 (@wsls) January 30, 2024
Понастоящем няма федерални закони, които да забраняват споделянето или създаването на deepfake, въпреки че няколко законопроекта бяха предложени в Конгреса и някои щати приеха закони за борба с манипулираните медии. Федералната избирателна комисия също обмисля промени в правилата, за да регулира използването на AI deepfakes в агитационни материали, припомня Politico.
„Deepfake е тест, който генеративният AI хвърли върху нас, защото фундаментално елиминира цялото доверие“, казва Виджай Баласубраманян, главен изпълнителен директор на компанията за откриване на телефонни измами Pindrop.
„Ако не можем да се съберем и да разберем как да разрешим този проблем, да, роботите убийци определено ще ни хванат“, казва Баласубраманян.
Една особено трудна част ще бъде да разберем как да се справим с пълния набор от манипулирани медии – от по-стари техники като снаждане на фалшиво аудио до нови генеративни подобрения, подхранвани от AI, и всички хибриди между тях, смята тя.
Според Матю Райт, който оглавява отдела по киберсигурност на Rochester Institute of Technology, robotocall, от една страна, не е много усъвършенствано аудио фалшифицирането.
„Сега има налични инструменти, които могат да свършат по-добра работа и следователно да бъдат по-опасни“, казва той.
A mysterious phone call cloned Biden's voice. Can the next one be stopped? https://t.co/u9MPAl16Ib
— POLITICO (@politico) January 29, 2024
Разглеждайки предложените федерални законопроекти и приетите държавни закони, се оказва, че няма много неща, за които те колективно са съгласни, като се започне с това, което трябва да се регулира.
Законите на Калифорния и Вашингтон са насочени само към фалшиви изображения на политически кандидати, докато Тексас и Минесота отиват по-далеч, като включват тези, създадени с намерението да навредят на политически кандидат или да повлияят на резултатите от изборите.
Липсва и консенсус относно това какво представлява deepfake. Някои законопроекти ясно обхващат изображения и видео, докато други обхващат аудио.
Изглежда, че на части се движи регулирането на deepfakes. Матю Райт прави паралели с пейзажа на законодателството за неприкосновеността на личния живот, където мозайка от закони предлага различни нива на защита.
Най-големите фейк новини на 2023 година
Ключов въпрос е, кой трябва да бъде държан отговорен: доставчици на телефонни услуги, платформи, разработчици или дистрибутори на deepfakes? Как отговаряте на това в крайна сметка определя фокуса на предложените решения, посочва специалистът.
На федерално ниво законопроектите възлагат отговорност на две основни групи, казва Мекела Пандитаратне, съветник на Програмата за демокрация на Центъра “Бренан”.
Както при минали проблеми с модерирането на съдържанието, социалните медии се радват на известна защита от правна отговорност съгласно федералния закон (благодарение на раздел 230 от Закона за благоприличие в комуникациите на САЩ). Двупартийният закон за Сената той предлага подвеждане под отговорност на всеки, който прави или публично споделя deepfakes.
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!