П о приблизителни оценки четири милиарда души по света са гласували или ще гласуват на национални избори до 2024 г. Макар че кандидатите и проблемите във всяка страна са различни, една голяма грижа обединява наблюдателите на избори, съобщава Voice of America (VOA).
В седмиците преди изборите в Индонезия на 14 февруари избирателите бяха залети с манипулирани видео и аудио записи - или дийпфейкове - на политици като видеозаписа на покойния индонезийски президент Сухарто, разпространен чрез социалните медии.
@abialasyi pesan Pak Harto #abialasyi #PolitikIndonesia #BeritaTerkini #Indonesia #KontroversiPolitik #Indonesia #CeritaPolitik #tiktokindonesia #politik #Pilpres2024 ♬ Instrumen Sholawat Sedih - Yuda pratama
Проверители на факти като Санти Индра Астути от Индонезийската общност за борба с клеветата - накратко Мафиндо - казват, че използването на генеративен изкуствен интелект е това, което отличава кампаниите за дезинформация през 2024 г.
"По време на изборите през 2014 г. повечето мистификации бяха използвани за дискредитиране на противниковите кандидати. През 2019 г. мистификациите започнаха да се използват за дискредитиране на организаторите на изборите. Докато през 2024 г. станахме свидетели на още по-причудлива ескалация, за да се дискредитира целият демократичен процес", казва активистката за цифрова грамотност на Mafindo - Санти Индра Астути.
На своя уебсайт Turn Back Hoax Mafindo разкри дийпфейк телефонен разговор, в който лидерът на индонезийската Демократична партия на борбата Мегавати Сукарнопутри строго порицава кандидата за президент Ганджар Праново.
В други видеоклипове се вижда как кандидатите за президент Аниес Басуедан и Прабово Субианто говорят свободно арабски език, което никой от тях не прави в действителност, за да се харесат на мюсюлманските избиратели в страната.
"Мистификациите вече не са само за дискредитиране на опоненти, но някои от тях изглежда имат за цел да прославят избрания кандидат", посочва Астути.
В САЩ току-що започнаха първичните избори, преди общите избори през ноември, и вече изкуственият интелект представлява предизвикателство. В един фалшифициран телефонен разговор президентът Джо Байдън изглежда насърчава демократите да си останат вкъщи, далеч от избирателните секции.
"Медиите, генерирани от изкуствен интелект, от роботизирани обаждания до дийпфейк аудио и реклами за кампании, се появяват в почти всички избори, които наблюдаваме както в края на 2023 г., така и сега през 2024 г., така че мисля, че това се превръща в нова норма за нашия политически и изборен пейзаж", коментира Линдзи Горман, експерт по нововъзникващи технологии в Алианса за гарантиране на демокрацията към Германския фонд Маршал.
Повечето избиратели, които са разговаряли с VOA, казват, че не са уверени, че могат да различат дийпфейка и истинското съдържание.
"Така че просто се надяваме, че новините си вършат работата. И ни казват кое е истинско и кое е фалшиво", казва Шае Хупър.
"И има толкова много случайни хора, които правят тези неща, че ще бъде почти невъзможно да бъдат спрени", смята Фелипе Вилегас.
На федерално ниво се въвеждат предпазни мерки. През октомври президентът Байдън подписа указ, с който призовава правителствените агенции да издадат насоки, предназначени да предпазят потребителите от измами с изкуствен интелект. Но тези мерки не са толкова ефективни, казва Горман.
"В момента няма изискване, че всъщност трябва да обозначим това съдържание като генерирано от изкуствен интелект. Дори ако това е част от съдържание, използвано за политическа кампания", обяснява Горман пред Voice of America (VOA).
Компанията за изкуствен интелект DeepMedia, сключила договор с Министерството на отбраната на САЩ за откриване на дийпфейк материали, изчислява, че до 2023 г. в световен мащаб са били разпространени половин милион дийпфейк аудио- или видеоклипове. Анализаторите се опасяват, че през тази политически натоварена година броят им само ще се увеличи.
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!