Р асте използването на генеративен изкуствен интелект (Gen AI) за злоупотреби. Това показват резултатите от проучване на DeepMind - дъщерна компания на Google за разработка на AI, съобщава Ars technica.
Тя е анализирала най-честите злоупотреби с технологията и открива, че създаването на реалистични снимки, аудио и видео с хора е най-популярно - близо два пъти повече спрямо следващата злоупотреба - генериране на фалшива информация за разпространение в интернет.
Най-често се генерират фалшиви клипове, снимки и аудио с известни личности и политици. А най-популярната цел е манипулиране на общественото мнение за конкретната личност или по дадена тема. На второ място е печеленето на пари - чрез фалшиви реклами или изнудване.
Технологиите, които могат да ни превърнат в супергерои
Растат и притесненията, че става все по-трудно фалшивото съдържание да бъде разпознато не само от хората, но и от модериращите системи на социалните мрежи. Това увеличава рисковете хората да бъдат подведени и това да повлияе на обществени теми, избори и дискусии.
Apple гледа към бъдеще с много AI и без смартфони
Проучване: Хората очакват да загубят контрол над AI
"Има много разбираеми притеснения около все по-сложните кибератаки, които могат да се генерират от тези инструменти. Освен това обаче, някои от най-честите злоупотреби с Gen AI могат да останат незабелязани", казва Нахема Марчал, главен автор на проучването.
Сред другите популярни злоупотреби с AI инструменти са фалшифициране на документи, създаване на цели фалшиви онлайн персонажи, опити за манипулиране на чатботовете да променят мнението и данните, които дават за някои въпроси, манипулиране на данните за обучение на алгоритми, фалшиви интимни изображения.
Европа изобилства от AI компании, но ще има ли хит
ИТ лидери: AI не е проблем за работните места
Проучването цели да помогне на DeepMind да определи рисковете и да адаптира разработката и обучението на своите AI системи според тях, за да подобри нивата на защита.
Смартфонът ще е "прозорецът към AI"
Експерти: Не се адресират рисковете на AI
Не пропускайте най-важните новини - последвайте ни в Google News Showcase
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!