Meta обяви, че няма да разработва някои видове изкуствен интелект (AI), които смята за опасни. Компанията публикува свой анализ, в който описва и стандартите си за разработка на AI.
"Изкуственият интелект с отворен код има потенциала да отключи безпрецедентен технологичен прогрес. Той ще изравни възможностите за всички, ще даде на хората безплатен достъп до мощни и често скъпи технологии, което ще развие конкуренцията и ще създаде инструменти за ползата на хората, обществото и икономиката. Отварянето на AI не е по избор. То е задължително, за да се гарантира позицията на Америка като лидер в технологичните иновации, икономическия растеж и националната сигурност", пише Meta.
Затова компанията е изработила Frontier AI Framework - своята рамка за приоритети и стандарти в AI. Тя включва и правила за идентифицирането на рисковете на AI, включително "катастрофални последици", които трябва да избегне.
ChatGPT вече ще прави "задълбочени проучвания"
Достигането до въпросните последици може да е по различни причини. Една от тях може да е заради развитието на технологиите и в тази сфера компанията иска да положи усилия, за да предотврати рисковете.
За целта е създала модели за упражнения за идентифициране на заплахите, както и за опити на злосторници да се възползват от заплахите или да използват AI, за да ги реализират. "Нашият подход за отворен код ни помага по-добре да открием и да се справим с рисковете", казва Meta.
Компанията ще опита да балансира своите цели за постигане на т.нар. Общ изкуствен интелект (AGI), но без опасни последици. За целта тя идентифицира два вида AI системи, които смята за твърде рискови да бъдат пуснати публично.
OpenAI отговори на DeepSeek с новия o3-mini
OpenAI твърди, че DeepSeek е използвал негови модели, за да обучи ИИ чатботa си
Първите са с "висок риск", а вторите - "критичен риск". Това са системи, които могат да позволят извършването на атаки в сферата на киберсигурността, химични и биологични нападения.
Самата Meta споделя, че списъкът ѝ с рискове и потенциални атаки далеч не е изчерпателен. Компанията ще продължи работата си по неговото попълване и подобряване, като ще започне от опасностите, които смята за най-важни и неотложни.
Системите с висок риск ще бъдат с ограничен достъп. Те може да бъдат пуснати и публично, но само след като са изработени и въведени нужните защити за намаляване на риска до приемлив. Разработките с критичен риск ще бъдат с допълнителни нива на защита и ограничения, включително спиране на разработката им докато опасността може да бъде намалена.
Китайската DeepSeek стресна Силициевата долина
Китайски изкуствен интелект - паника и пазарен срив днес
"Надяваме се, че чрез споделянето на нашия подход за отговорна разработка на AI системите, ще дадем яснота за нашия процес за взимане на решения и ще развием дискусиите и проучванията как да подобрим оценяването на AI развитието от гледна точка на рискове и ползи", казва Meta.
Зукърбърг: Не смятахме, че TikTok е социална мрежа
Apple изпуска един от най-важните си пазари
Не пропускайте най-важните новини - последвайте ни в Google News Showcase
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!