С ъздателят на ChatGPТ, компанията OpenAI, обяви, че алгоритъмът GPT-4 може да се окаже помощник за създаването на биологични оръжия, Компанията е провела собствено проучване за рисковете на изкуствения интелект и в частност LLM моделите, на които се базират много от чатботовете и алгоритмите, включително GPT-4.
Въпросните големи езикови модели (LLM) могат да ускорят разработката на биологични оръжия и/или да ги направят по-достъпни за повече хора, казва OpenAI, цитирана от VentureBeat. Затова OpenAI е започнала работа по система за ранно предупреждение.
Тя ще има за цел да анализира LLM алгоритми и да проверява доколко те могат да бъдат манипулирани, пробити или просто накарани да споделят информация по темата за биологични оръжия. Системата ще може и да следи за появата на нови биологични оръжия, за проекти в тази посока и да подава сигнали, когато има потенциални злоупотреби и необходимост от повече проверки.
Софтуер "трови" AI, за да не използва данните правилно
Проучването на OpenAI показва, че към момента GPT-4 може да има малък принос към по-точното създаване на биооръжия. OpenAI отбелязва, че информация по темата има в изобилие в Интернет и не е нужно изкуствен интелект да помага, за да се намери. Въпреки това алгоритъмът може да улесни процеса и да помогне в намирането на съставки, прецизиране на рецепти и т.н.
AI засяга между 40% и 60% от работниците по света
Прекалява ли ИТ индустрията с манията по AI
Авторите на проучването отбелязват, че макар и настоящите модели да не увеличават значително риска от създаване на биооръжия, следващите им поколения ще стават все по-умни и с повече способности. Затова са нужни постоянни проверки и съвместна работа на бранша, за да се разработят и прилагат системи и мерки за защита.
New York Times заведе дело срещу Microsoft и OpenAI
ChatGPT разви "мързел", OpenAI не знае защо
Следете ни навсякъде и по всяко време с мобилното приложение на Vesti.bg. Можете да го изтеглите от Google Play и AppStore.
За още любопитно съдържание от Vesti.bg последвайте страницата ни в Instagram.
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!