OpenAI наскоро пусна пробна версия на новия си алгоритъм o1, който е първият по рода си с възможност да мисли. Той създава "мисловна верига" преди да предложи своя отговор на въпросите и по това си поведение наподобява човешкия мозък.
Алгоритъмът е внедрен пробно в платената версия на ChatGPT, като показва формирането на въпросната мисловна верига на потребителя, но вижда финалния вариант на веригата, а не "суровите мисли" докато тя се подготвя. Това кара някои потребители да се опитват да разберат как всъщност работи и мисли o1, което никак не се харесва на OpenAI, съобщава Ars technica.
Компанията е започнала да изпраща предупреждения на потребителите, които правят това, че може да ограничи или напълно да блокира достъпа им до услугите си. Някои ползватели на бота споделят в социалните мрежи, че са получавали предупредителни имейли дори след обикновени въпроси за това как o1 мисли или се аргументира.
В имейла пише, че потребителят е засечен да нарушава правилата за безопасност за използване на бота. Той е помолен да спазва правилата, тъй като в противен случай достъпът му до бота може да бъде ограничен.
OpenAI пуска модел, който мисли по-бързо от човек
Засега компанията не е коментирала темата. Когато представи o1, тя обяви, че е решила да не показва част от начина на мислене на алгоритъма, тъй като те може да разкрият или нарушат конкурентното ѝ предимство, има елементи, които са за вътрешно ползване и ще е по-прегледно за потребителя. OpenAI беше критикувана и за това си решение, тъй като създава възможности за съмнения в алгоритъма, а в момента технологията се нуждае от създаване на доверие сред хората и да не крие способностите си.
Други обаче защитават решението на компанията, тъй като конкурентите ѝ редовно използват отговорите на чатбота, за да обучават собствените си алгоритми. Издаването на мисловните вериги на о1 ще помогне на въпросните конкурентни алгоритми също да се научат да мислят, но пък и рискуват да се превърна в копия на o1, вместо негови конкуренти.
Все повече служители използват тайно AI услуги
Междувременно OpenAI обяви основаването и на Комитета за безопасност и сигурност. Той беше представен като идея през май т.г., като задачата му ще е да преглежда, анализира, оценява и препоръчва на OpenAI как да подобрява алгоритмите и да гарантира тяхната безопасност за обществото и бизнеса.
Абсурден потенциал: Нов AI модел има въображение
Продуктите с AI отблъскват потенциалните клиенти
OpenAI обяви, че комитетът ще бъде отделен като независим борд. Първият му 90-дневен анализ вече е готов, като дава пет препоръки на компанията как да подобри по-нататъшната работа на компанията, борда и алгоритмите. OpenAI казва, че ще внедри и петте препоръки.
Все повече компании виждат AI като риск
Изкуственият интелект завзема и... четките за зъби
Не пропускайте най-важните новини - последвайте ни в Google News Showcase
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!