В интернет вече има изобилие от всякакви снимки, клипове, аудио и текст, които са създадени от изкуствен интелект (AI). Това съдържание става все по-реалистично и по-разпространено.
Ако се използва коректно, то може да е от полза за всички. За съжаление, голяма част е насочена към манипулиране и подвеждане на хората по определени теми, съобщава Ars technica.
Проблемът става все по-изразен и възражда стар термин – „дълбоко съмнение“. Концепцията беше представена още през миналото десетилетие, но тогава беше по-скоро възможност – какво би се случило. Тя се поражда покрай първия дийп фейк – видео, което е генерирано от изкуствен интелект и представя реален човек в несъществуваща ситуация или изказване.
AI вече ще организира търсачката на Google
През 2019 г. правните експерти ДаниелеСитрон и Робърт Чесни въвеждат и термина „дивидент на лъжеца“ – това е следствието от „дълбокото съмнение“. А именно дийп фейковете се превръщат в инструмент за лъжци да дискредитират реални доказателства.
Пет години по-късно всичко това е не просто реалност. Дълбокото съмнение вече е „ера“, т.е. повсеместно.
В интернет има огромно количество инструменти и услуги, които улесняват създаването на фалшиво съдържание. В повечето случаи не са нужни никакви познания, а само малко „входяща“ информация, например снимки или видео, на което да се изгради фалшивото съдържание. Такива данни са лесно достъпни в социалните мрежи.
Умните очила на Meta са проблем за всички
Microsoft Copilot вече може да чете, говори и мисли
Така за минути може да се създаде най-различно фалшиво съдържание, което да представи хора в нелицеприятни пози, да изопачи техни твърдения, да се използва за други измами като кражба на самоличност и т.н. През пролетта на тази година американски федерални съдии предупредиха, че AI дийп фейкове могат да бъдат използвани и внедрявани в доказателства по дела и дори и да бъдат разкрити, това ще допринесе и за съмненията към всички доказателства.
Именно това е и една от другите вреди, които нанася „ерата на дълбокото съмнение“. Тъй като хората знаят, че може да гледат фалшиво съдържание, те автоматично са скептични и недоверчиви към всичко. И за истинската информация става много по-трудно да бъде приета, тъй като хората могат да решат, че доказателствата не са достатъчни или и те също са изфабрикувани.
Apple подготвя роботизиран умен дисплей
Meta показа първите си очила с добавена реалност
Друг риск е развиване на информационно пристрастие – щом не съм съгласен с нещо, то е фалшиво, а щом съм съгласен, дори и да е доказано фалшиво – все пак е правилно, но някой се опитва да го изкриви чрез фалшификати. Всичко това води до ерозиране на социалното доверие. Всеки ще се съмнява във всичко и ще е много трудно да бъде убеден в обратното.
Или пък хората ще отхвърлят всичко от AI, тъй като не могат да му се доверят. Тогава пък технологията може да бъде прахосана и няма да бъде използвана пълноценно, от което обществото отново ще загуби.
Разбира се, има как да се противодейства на „дълбокото съмнение“. Проблемът е, че това изисква допълнителни усилия. Например проверка на информацията от няколко източника, проверка на самите източници дали са достоверни или пък са създадени с цел да подкрепят фалшивите твърдения. Използване на инструменти, които да разпознават дали дадено съдържание е обработвано и ако да – от какво и как.
Продуктите с AI отблъскват потенциалните клиенти
OpenAI не иска да разкрива какво и как мисли o1
Всичко това изисква време и усилия и малцина биха го правили. Но мнозина биха се доверили на друг да извършва проверките вместо тях и да им каже. Тогава обаче се връщаме пак в изходна позиция – може ли да се има доверие на проверяващия. Ерата на дълбокото съмнение прилича на затворен кръг, но при повишено внимание и упоритост, хората ще могат да се справят с нея. Стига да имат желанието да успеят.
Все повече компании виждат AI като риск
Изкуственият интелект завзема и... четките за зъби
Не пропускайте най-важните новини - последвайте ни в Google News Showcase
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!