И зкуственият интелект (AI) е представян като неизбежното бъдеще в ежедневието на всеки човек. И една от големите му ползи е фактът, че много бързо обработва големи масиви от информация и може да даде подробни отговори и на най-сложните въпроси. Освен това може бързо да се учи и да усъвършенства способностите си. В действителност обаче напоследък сякаш се случва точно обратното.
Още от миналата година имаше съобщения, че популярни ботове като ChatGPT са развили „мързел“ или дори са станали „по-глупави“, допускайки елементарни грешки. След известни актуализации и подобрения на системата, казусът сякаш беше решен. Нови проучвания и отзиви на потребителите за AI услугите обаче показват, че оглупяването на технологията отново е проблем. И той може да има много опасни последици.
Новата услуга AI Overviews на Google например се оказа в центъра на множество критики за качеството на отговорите, които дава. Потребители показаха в социалните мрежи екранни снимки на различни отговори, които AI Overviews дава на разнообразни въпроси. И някои от тях са фрапиращи.
Бъдещето на Windows: AI, облаци и още AI
AI Overviews например твърди, че американски геодезисти препоръчват на хората всеки ден ядат по един малък камък, защото е полезен за храносмилането и има много витамини. Функцията също така се позовава на популярния медицински сайт WebMD, като твърди, че той препоръчва на хората да се „взират“ в Слънцето по 5 до 15 минути на ден или 30 минути „ако сте с по-тъмна кожа“, като това е полезно за здравето. Проблем има и при кулинарията: например съвет да се добави лепило към сос за пица.
Microsoft показа новия клас AI компютри с Copilot+
Google внедрява повече AI и в Android
Пред CNBC Google казва, че подобни грешки са рядкост и твърди, че много от примерите са манипулирани. Въпреки това компанията ще редактира някои от отговорите, а други въпроси ще бъдат филтрирани засега. В интервю за The Verge, изпълнителният директор на Google Сундар Пичай призна, че алгоритъмът има „халюцинации“ (генерирането на неверни „факти“), но и че това е проблем, по който се работи. Пичай призова да не се гледа с лошо око на технологията, защото допускането на грешки не означава, че не е полезна.
Проблемен програмист
Друга голяма полза на чатботовете, която те рекламират с охота, е способността им да пишат програмен код. Доста компании дори вече разчитат предимно на ChatGPT да е в ролята на програмист, а хората-програмисти са предимно редактори на кода и трябва да имат повече време да мислят по-големи идеи. Според проучване на университета Purdue обаче, 52% от отговорите на ChatGPT на програмистки въпроси са грешни, съобщава Futurism.
Учените са използвали 517 въпроса от популярната платформа Stack Overflow, като са анализирали отговорите на ChatGPT. В 52% от случаите в отговорите има погрешна информация. Също така 77% от отговорите на ChatGPT са по-дълги от тези на хората, а в 78% от тях има и повече несъответствия и противоречия спрямо отговорите на хората на същите въпроси.
Експертите са направили и лингвистичен анализ на 2000 произволни отговора на ChatGPT. Оказва се, че те са с по-официален и аналитичен тон с по-малко негативно настроение, т.е. по-малко емоционален. Програмистите като цяло харесват този тон повече, като съответно му се доверяват повече и има по-голяма вероятност да не забележат грешките.
Предупреждение и от ЕС
Проучване на Европейския надзорен орган по защита на данните също критикува OpenAI, че не успява да подобри качеството на информацията, която ChatGPT дава. Според регулатора, предприетите мерки от компанията не са достатъчни за спазване на принципа на точност на данните. Самият модел на работа на системата увеличава вероятността за пристрастни или измислени резултати, смятат експертите на ЕС.
AI разви политически възгледи и не е ясно защо
Какви са новите функции и алгоритъм за ChatGPT
Те отбелязват, че резултатите на ChatGPT имат по-голяма вероятност да бъдат възприети от потребителите като истина, независимо дали това е така или не. Съответно и отговорността на компаниите, които създават такива технологии, е още по-голяма. А Европейският регламент за защита на данните изисква от чатботовете да предоставят възможно най-точна информация, особено, когато става дума за реални факти, които са свързани с хора. Съответно фактът, че според Google AI Overviews, че Барак Обама е мюсюлманин, също ще предизвика недоволството на регулатора.
Как да се защитим?
Рисковете от това изкуственият интелект да генерира неверни отговори са пределно ясни. Но какво може да направи обикновеният потребител, за да се защити? Особено имайки предвид, че тези услуги тепърва ще навлизат в ежедневието и бизнеса, а за момента ИТ гигантите признават, че не могат да намерят решение на казуса, което да е достатъчно ефективно и трайно. Изглежда, че всички мерки за предотвратяване на грешни отговори дават временен ефект и след това алгоритмите отново показват признаци на „оглупяване“.
Според Крис Коленда, автор и консултант за стратегическо и лидерско развитие, „AI оглупява“ и трябва да избегнем „когнитивен разрив“. Той обяснява, че една от причините за „оглупяването“ на изкуствения интелект са самите потребители. Технологията се учи не само от данните, които има, но и от въпросите и реакциите на потребителите. Когато те задават глупави или подвеждащи въпроси, а мнозина правят това умишлено, за да объркат алгоритъма или да го накарат да каже нещо глупаво, той започва да възприема случващото се като факт и съответно адаптира цялото си поведение. AI се учи хората, а хората са далеч от перфектни.
AI влошава обслужването на клиентите
Изкуственият интелект е расист, но не го осъзнава
За да избегнат, или поне да намалят риска да попаднат в когнитивния разрив на AI и да бъдат объркани и подвеждани от невярна информация, Коленда препоръчва на хората няколко мерки. Една от тях е увеличаване на „когнитивното разнообразие“ във вътрешния кръг на човек. Това, че някой мисли различно, не означава, че греши. Или пък, че изглежда по различен начин, не означава, че мисли различно.
Коленда препоръчва да се търсят различни гледни точки и перспективи. Когато човек се изолира да използва и получава информация само от едно място, тогава изпада в когнитивен разрив с реалността.
Alphabet: AI е възможност, която идва веднъж в живота
Увеличаването на психическата увереност, също е важно. Коленда го казва в сферата на фирма, но работи и за личния живот на служителите: „Хората с психологическа увереност по-лесно идентифицират проблеми, предлагат свежи идеи и предприемат рискове за общото благо. Ако всичко във вашия свят винаги е страхотно, подгответе се за удар“, казва Коленда.
Прогнозата на Мъск за AI отново е повече от "луда"
Все повече студенти "пишат" курсовите си с AI
Не пропускайте най-важните новини - последвайте ни в Google News Showcase
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!