Б еше неизбежно и само въпрос на време, хибридната война вече ползва ново оръжие за масово поразяване, наричаме го с общото - генеративен изкуствен интелект (AI).
От OpenAI обявиха, че са спрели пет тайни операции за политическо влияние, които са използвали AI моделите на компанията с цел моделиране на общественото мнение в интернет.
Тези операции, които OpenAI са „убили” между 2023 и 2024 г., са дошли от Русия, Китай, Иран и Израел. Целта им е била манипулация на общественото мнение и влияние върху политически резултати. А какво се случва с далеч по-малките и незначителни кампании в различните страни? Например в България, където обемите не са толкова много и е възможно да минат под радара на OpenAI?
AI Is Your Coworker Now. Can You Trust It?
— USA N.D Teffer (@t413p) June 4, 2024
Generative AI tools such as OpenAI’s ChatGPT and Microsoft’s Copilot are becoming part of everyday business life. But they come with privacy and security considerations you should know about. pic.twitter.com/5Hwef5kfEU
Докладът на OpenAI идва на фона на засилващите се опасения относно въздействието на генеративния AI върху многото политически избори по света (до урните тази година отиват около 4 млрд. човека в 65 държави), планирани за тази година, включително САЩ и Европейския съюз.
В своите констатации OpenAI разкрива как мрежи от хора, ангажирани в операциите за влияние, са използвали генеративен AI за генериране на текст и изображения в много по-големи обеми от преди, и фалшиво ангажиране чрез използване на AI за генериране на фалшиви коментари в публикации в социални медии.
От OpenAI казват, че руската операция, наречена „Doppelganger“, е използвала моделите на компанията за генериране на заглавия, „мутиране” на новинарски статии в публикации във Facebook и създаване на коментари на множество езици, за да подкопае подкрепата за Украйна.
Друга руска група използва модели на OpenAI, за да декодира кода на бота на Telegram, който публикува кратки политически коментари на английски и руски, насочени към Украйна, Молдова, САЩ и балтийските държави.
Китайската мрежа Spamouflage, известна с усилията си за влияние във Facebook и Instagram, използва моделите на OpenAI за изследване на активността на социалните медии и генериране на текстово съдържание на множество езици в различни платформи.
Иранският „Международен съюз на виртуалните медии“ също използва AI за генериране на съдържание на множество езици.
Докладът на OpenAI е подобен на тези, които други технологични компании правят от време на време. Миналата сряда, например, Meta публикува последния си доклад за координирано неавтентично поведение, в който се описва как израелска маркетингова фирма е използвала фалшиви акаунти във Facebook, за да проведе кампания за влияние в социалната мрежа, насочена към хора в САЩ и Канада.
Не пропускайте най-важните новини - последвайте ни в Google News Showcase
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!