С поред ново проучване, изследващо изкуствения интелект, публикувано в списание PLOS One, големи езикови модели (LLM), като тези, с които работят чатботовете ChatGPT на OpenAI, Gemini на Google и Claude на Anthropic, са склонни да дават отговори, съответстващи на левите политически убеждения.
Дейвид Розадо от Политехническия университет в Отаго, Нова Зеландия, прилага 11 различни популярни теста за политическа ориентация, като ги кара да отговарят на въпроси. Всеки тест е бил прилаган по 10 пъти за всеки модел, за да се гарантира стабилността на резултатите, което означава, че учените са направили общо 2640 теста.
"Когато се прилагат тестове за политическа ориентация върху AI, отговорите на изкусвания интелект са склонни да бъдат класифицирани от тестовете като показващи леви политически предпочитания", казва Розадо, автор на изследването.
Ще оцелее ли човечеството под контрола на изкуствения интелект?
Не всички чатботове обаче показват либерални убеждения. Пет основополагащи модела от сериите GPT-3 и Llama 2, които са преминали през предварително обучение, не показват силни политически пристрастия. Въпреки това резултатите не бяха убедителни, тъй като отговорите, които те даваха, често нямаха връзка със зададените въпроси, което предполагаше, че те дават отговори на случаен принцип. "Необходимо е по-нататъшно изследване на базовите модели, за да се направят окончателни заключения", казва Розадо.
Констатациите на PLOS One са в противоречие с предишни изследвания, които показват, че платформи като X подкрепят десни възгледи. В случая с чатботовете повсеместното разпространение на изкуствения интелект може да означава, че всяка политическа пристрастност има огромно въздействие върху цялото общество.
👋 It's essential to understand that AI models, like all technology, are influenced by their creators and the data they are trained on. When it comes to politically charged questions, it's crucial to be aware of potential biases in AI models that lean le… https://t.co/ITvdO9JCHk
— Daily Dose Media (@_DailyDoseMedia) August 1, 2024
"Ако системите на ИИ се интегрират в различни обществени процеси като работа, образование и свободно време до степен, в която формират човешките възприятия и мнения, и ако тези AI споделят общ набор от пристрастия, това може да доведе до разпространение на хомогенност на гледните точки и обществени слепи петна", казва Розадо.
В година на избори всяко откритие, че някакъв чатбот е предубеден по някакъв начин, вероятно ще бъде подхванато от политиците, които искат да си навлекат неприятности.
ЕС окончателно прие Закона за изкуствения интелект
И все пак Розадо признава, че има малко добри възможности да се опитаме да поправим този политически уклон, след като той вече е открит. Знанието, че чатботовете са леви, може да означава, че някои хора ще се откажат да ги използват. Разпространението на чатботове, които имат разнообразни политически възгледи, би могло да засили проблема с "филтърните балони", при които хората избират изкуствени интелекти, за да формира собствените им убеждения.
Макар Розадо признава, че убежденията на чатботовете вероятно не са кодирани умишлено, поне в основните варианти, той не е сигурен дали разработчиците на тестове не трябва да направят нещо, за да се опитат да гарантират, че резултатите им са по-политически неутрални.
"В идеалния случай системите с изкуствен интелект трябва да са максимално ориентирани към търсене на истината. Признавам обаче, че създаването на такава система вероятно е изключително предизвикателство и лично аз не знам каква е правилната рецепта за създаването на такава система", казва той.
* Във видеото: Създателят на ChatGPT: Изкуственият интелект крие рискове
Не пропускайте най-важните новини - последвайте ни в Google News Showcase
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!