Microsoft се включи в битката на AI моделите с нов проект. Той се казва Phi-3 и е най-малкият AI модел на компанията досега, съобщава The Verge.
Phi-3 ще има три версии - Mini, Small и Medium. Всеки от тях ще е обучен с различно количество параметри, съответно 3,8 млрд., 7 млрд. и 14 млрд. Това е доста по-малко от стотиците милиарди параметри, които се използват за обучение на големите езикови модели.
Въпреки това Microsoft казва, че по-малкият брой параметри не означава по-малко способен алгоритъм. Напротив, Phi-3 работи по-добре, по-бързо и по-прецизно от своя предшественик Phi-2, който пък успешно се конкурираше с далеч по-големия и сложен модел Llama 2.
Phi-3 ще е още по-добър, като може да предлага отговори с почти същата бързина и прецизност, както 10 пъти по-големи модели. Според Ерик Бойд, вицепрезидент на Microsoft Azure AI Platform, Phi-3 Mini ще има същите способности като GPT-3.5, но ще е по-компактен.
Ако това се докаже и на практика, Phi-3 Mini ще е много по-лесен и удобен за работа, като ще изисква значително по-малко ресурси, за да постига съизмерими резултати. Това ще го направи и по-евтин за използване от компаниите, и съответно по-достъпен за повече фирми, които да могат да го персонализират и внедрят в своите приложения и услуги.
Phi-3 е обучен по нов начин, вдъхновен от това как децата учат от приказките, опростените детски книжки и по-семпла структура на изреченията. "Няма достатъчно детски книги, затова взехме списък от над 3000 думи и поискахме от голям езиков модел, да напише "детски книжки", за да обучим Phi", казва Бойд. Така малкият алгоритъм практически е научен от по-големите си събратя.
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!