П рез последните две години светът видя множество победи за изкуствения интелект и мнозина съзряха опасност. Сега Google работи за това да предотврати една такава победа в случай, че нейното постигане ни постави в ситуация, по-подходяща за компютърна игра или анимационен филм.
Проектът, от своя страна, не е никак шеговит. За опасност от такъв развой на събитията ни предупредиха не само преки участници в разработката на изкуствен интелект като Стивън Хоукинг и Илон Мъск, но и много професори, учени и дори автори на научна фантастика.
Със задачата се е заел британският екип на компанията, който, паралелно с работата си по програмата за изкуствен интелект, ще разработва и така наречения ”safe incorruptibility“- способ, който ще забрани на изкуствения интелект да научи как да прекрати човешкия контрол над себе си.
Освен това, safe incorruptibility може да се използва, за да предотврати ситуация, в която изкуственият интелект може да навреди или да се обучи за нещо, за което са нужни алтернативни методи на обучение.
Не е изненада, че идеята за война между хората и изкуствения интелект съществува от времето, когато компютърната мощ се е изчерпвала с редица прости пресмятания. Още през 40-те години на миналия век, световноизвестният писател Айзък Азимов поставя три правила, които адресират точно този случаи, а те звучат заплашително актуални:
- Един робот не може да вреди на човек или, чрез бездействие, да позволява човек да си навреди.
- Един робот винаги трябва да се подчинява на човешки заповеди, освен когато това е в конфликт с първото правило.
- Един робот трябва да опазва своето съществуване стига това да не противоречи на първото и второто правило.
Дали ще има нужда от тях и тяхното спазване предстои още да видим, но чрез усилието си Google ще предотврати всички начини на неподчинение, които можем да очакваме.
* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!