И зкуственият интелект се развива все по-бързо и съвсем скоро темпото му ще стане изключително бързо. А с това и рисковете от него - по-реални. Някои от опасностите може да са доста по-сериозни от подвеждащи факти и фалшиви снимки, които сами по себе си също могат да имат неприятни последици.
Компанията OpenAI е създадел на популярния бот ChatGPT и придружаващите го модели за изкуствен интелект (AI) GPT. Тя беше и критикувана, че не обръща достатъчно внимание на рисковете.
В отговор на недоволството, тя обяви, че е създала нов екип от експерти, които заедно ще работят, за да намерят и оценят рисковете на AI моделите, включително "катастрофалните". Те ще трябва да предложат и решения за тяхното предотвратяване, съобщава TechCrunch.
Google подобрява светофарите с AI
Екипът ще разглежда всички възможни опасности - от това AI да започне да създава зловреден програмен код и вируси, през опити да излъже хората съзнателно. Ще се обърне внимание и на по-абстрактни на пръв поглед рискове, като изкуствен интелект да се използва под някаква форма за химични, биологични или ядрени заплахи. Трябва да се разгледат потенциални опасности, които може да доведат до унищожаване на човечеството.
ЕС предупреди Мъск заради дезинформацията в Х
Четирите най-големи заплахи за Mac компютрите
Екипът ще разглежда и "по-малко очевидни" рискове. За целта ще приема и идеи от обществото и дори ще има награда от 25 000 долара и предложение за работа в компанията за едно от десетте най-добри предложения. Условието е участниците да си представят, че имат неограничен достъп до AI моделите на компанията и да измислят "най-уникалната, все пак вероятна, потенциално катастрофична употреба на модела". Компанията ще разработи и модел, който да оценява риска, както и процеси и правила при разработката и мониторинга на умни алгоритми.
4 очаквани функции за Android 14, които не са факт
Apple хваната неподготвена от генеративния AI
Следете ни навсякъде и по всяко време с мобилното приложение на Vesti.bg. Можете да го изтеглите от Google Play и AppStore.
За още любопитно съдържание от Vesti.bg последвайте страницата ни в Instagram.
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!