Н астоящи и бивши служители на компаниите OpenAI, DeepMind на Google и Anthropic публикуваха общо отворено писмо в което предупреждават, че изкуственият интелект (AI) има сериозни рискове и не се прави достатъчно, за да бъдат адресирани. Те призовават компаниите да положат повече усилия за мониторинг и контрол над разработката на AI и използването на технологията, съобщава The Washington Post.
Служителите, някои от които запазват имената си в тайна, казват, че "вярват в потенциала на AI да предложи безпрецедентни предимства на човечеството". Те допълват, че "разбираме, че има и сериозни рискове, които пораждат тези технологии".
Според тях основните рискове са увеличаване на неравенството, манипулиране и подвеждаща информация и дори загуба на контрола над автономни AI системи "с потенциал да се достигне до унищожаване на човечеството". Те отбелязват, че самите AI компании признават, че има такива рискове, но не виждат да се прави достатъчно за адресирането им.
Остри критики към Google за злоупотреба с лични данни
"Надяваме се, че рисковете могат да бъдат адекватно решени с помощ от научната общност, институциите и обществото. AI компаниите обаче имат сериозни финансови мотиви да избягват ефективен надзор и не вярваме, че собствените корпоративни структури на контрол са достатъчни да променят това", пишат служителите.
Те призовават AI компаниите да приемат четири принципа. Първият е, че компанията няма да въвежда забрани служителите да я критикуват, както и да не пречи на критиката в името на икономически интерес.
Вторият е компанията да направи анонимен процес за настоящи и бивши служители, които да могат да подават сигнали за рисковете към ръководството и институциите и независими организации. Третият препоръчан принцип е компанията да подкрепя култура на отворена критика, включително публична, с адекватни и разумни мерки за защита на търговските тайни и интелектуалната собственост.
Google призна, че AI търсачката греши, но малко
OpenAI спряла пет опита за манипулация на моделите ѝ
И последният принцип е компанията да не "отвръща на удара", когато служители споделят публично информация, включително конфиденциална, когато става дума за адресиране на риск. С уговорката, че това се прави, когато предходните принципи не са свършили работа, проблемът е вече оправен или пък изобщо не съществуват такива процеси и единственото решение е публичното оповестяване.
Вътрешни документи разкриват тайните на Google
Бъдещето на Windows: AI, облаци и още AI
"Съгласни сме, че неуморният дебат е от критично значение за развитието на тази технология и ще продължим да работим с правителства, гражданското общество и други общности по целия свят", казва говорител на OpenAI пред CNBC. Компанията допълва, че има процес за анонимно съобщаване на рискове и нова комисия за сигурност, която се води от лидерите ѝ.
Яжте камъни за здраве: Защо AI оглупява все повече
Изкуственият интелект е расист, но не го осъзнава
Не пропускайте най-важните новини - последвайте ни в Google News Showcase
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!