Н овите алгоритми на OpenAI - o3 и o4-mini, които са най-умните и мислещи досега, допускат повече грешки, съобщава TechCrunch. Те "халюцинират" повече от някои от своите предшественици и OpenAI не знае защо.
Халюцинации на AI означават моментите, когато алгоритъмът си измисля свои факти и твърдения, които представя за истина. В повечето случаи това се дължи на погрешна обработка на информацията и/или "замърсени" данни, които са довели алгоритъма до грешно заключение.
За сега халюцинациите са неизбежна част от реалността на AI. Все пак, те намаляват с всяко ново поколение. Или поне би трябвало. С новите o3 и o4-mini се получава обратното. Оказва се, че те халюцинират повече от предшествениците си o1, o1-mini и о3-mini, както и от стандартния GPT-4o, който няма способности да разсъждава.
Почти гений: OpenAI пусна най-умния си модел досега
В техническата документация OpenAI пише, че са нужни още проучвания, за да разбере защо халюцинациите се увеличават с новите модели. Една теория е, че е просто заради мащаба - новите модели правят повече заключения от предишните и съответно е логично да има по-голяма вероятност да сбъркат.
Досегашните тестове показват, че o3 халюцинира отговорите си на 33% от въпросите на собствения тест на OpenAI - PersonQA. Това е над двойно спрямо o1 и o3-mini, които халюцинират съответно в 16% и 14,8% от въпросите. А o4-mini се справя още по-лошо - 48%.
OpenAI подготвя собствена социална мрежа
Вече излизат и независими тестове. Първият е на Transluce, която открива, че o3 има склонност да си измисля действия, с които да обясни как е стигнал до дадено заключение. Конкретно алгоритъмът е заявил, че е пуснал програмен код на MacBook Pro от 2021 г. "извън ChatGPT" и е копирал резултата за своя отговор. o3 всъщност няма такива способности.
Според Transluce причината е в начина на обучение, които е като своеобразен усилвател - както за добрите аспекти на алгоритмите, така и за тези, които се нуждаят от подобрение. Използваният метод на потвърждения ускорява обучението, но и просто убеждава алгоритъма в действията му.
От стартиращата компания Workera казват, че o3 работи много добре и дава добри резултати, но действително халюцинира и грешки. Включително да си измисля несъществуващи интернет адреси, които уж да водят към повече информация.
ChatGPT превръща хората в кукли: Тъмната страна на забавлението
OpenAI пусна най-усъвършенствания си генератор на изображения и превзе социалните мрежи
Халюцинациите не са изцяло лоши. Понякога те дават възможност на алгоритъма да види ситуацията от различен ъгъл и да генерира интересни и дори полезни идеи. Но все пак не са желани, тъй като могат да доведат и до заблуда и сериозни грешки.
Европа иска да се превърне в "AI континент"
Обвиниха компания, че AI услугите ѝ всъщност са хора
Не пропускайте най-важните новини - последвайте ни в Google News Showcase