3

Й ошуа Бенджио е един от най-цитираните изследователи в областта на изкуствения интелект (ИИ). Пионер в създаването на изкуствени невронни мрежи и алгоритми за обучение. Бенджио заедно с главния учен по изкуствен интелект в "Мета" Ян Лекун и бившия изследовател на Google по изкуствен интелект Джефри Хинтън, получиха наградата „Тюринг“ през 2018 г. за ключовия си принос в областта на ИИ. 

Сега обаче Бенджио, който често е наричан заедно с колегите си носители на наградата „Тюринг“ един от „кръстниците“ на ИИ, е обезпокоен от темповете на развитие и внедряване на неговата технология. Той вярва, че ИИ може да увреди структурата на обществото и носи непредвидени рискове за хората. Сега Бенджио е председател на Международния научен доклад за безопасността на усъвършенствания изкуствен интелект - консултативна група, подкрепена от 30 държави, Европейския съюз и Организацията на обединените нации.   

Екип на Live Science е разговарял с Йошуа Бенджио в Лондон, където той коментира рисковете на зараждащата се технология.  

Вижте какво каза той:  

Live Science: Вие изиграхте изключително важна роля в разработването на изкуствените невронни мрежи, но сега призовахте за мораториум върху тяхното развитие и проучвате начини за тяхното регулиране.  

Йошуа Бенджио: Трудно е да вървиш срещу собствената си кариера, но ако мислиш рационално за нещата, няма как да отречеш възможността за катастрофални резултати при разработването на ИИ.   

Live Science: Чувствате ли се отговорен за лошото въздействие на ИИ? Това нещо тежи ли Ви? 

Йошуа Бенджио: Чувствам се задължен, защото гласът ми има някакво влияние поради признанието, което получих за научната си работа, и затова чувствам, че трябва да говоря. Трябва да се вземат важни технически решения, които са част от по-голяма политическа отговорност, ако искаме да разберем как да не вредим на хората с изграждането на ИИ. 

Компаниите с удоволствие биха включили тези технически решения, но в момента не знаем как да го направим. Те все още искат да получат огромните печалби, прогнозирани от достигането на ИИ до нивото на човека - така че сме в лоша позиция и трябва да намерим научни отговори. 

Един образ, който използвам често, е, че сякаш цялото човечество кара по път, който не познава добре, а пред него има мъгла. Вървим към тази мъгла, може да се намираме на планински път и там да има много опасен проход, който не виждаме достатъчно ясно. 

И така, какво правим? Да продължим да се състезаваме напред с надеждата, че всичко ще бъде наред, или да се опитаме да измислим технологични решения? Политическото решение гласи да се приложи принципът на предпазливостта: намалете скоростта, ако не сте сигурни. Техническото решение гласи, че трябва да измислим начини да надникнем през мъглата и може би да оборудваме автомобила с предпазни средства. 

Live Science: И така, кои са най-големите рискове, които машинното обучение представлява в краткосрочен и дългосрочен план за човечеството? 

Йошуа Бенджио: Хората винаги казват, че тези рискове са научна фантастика, но това не е така. В краткосрочен план вече виждаме, че ИИ се използва в предизборната кампания в САЩ, и това само ще се влошава. Наскоро беше проведено проучване, което показа, че ChatGPT-4 е много по-добър от хората в убеждаването - новата версия ще бъде по-добре разработена. 

Проведени са и тестове за това как тези системи могат да помогнат на терористите. Неотдавнашната версия на ChatGPT o1 измести този риск от нисък на среден.  

Ако погледнете по-надолу по пътя, когато достигнем нивото на свръхинтелигентност, ще има два основни риска. Първият е загубата на човешкия контрол, ако свръхинтелигентните машини имат цел за самосъхранение, техният стремеж може да бъде да унищожат човечеството.   

Другата опасност, ако първият сценарий по някакъв начин не се случи, е хората да използват силата на ИИ, за да поемат контрола над човечеството в една световна диктатура. Може да има по-леки версии на това и то да съществува в спектъра, но технологията ще даде огромна власт на този, който я контролира. 

Live Science: ЕС издаде закон за ИИ, както и Байдън със своята изпълнителна заповед за ИИ. Доколко правителствата реагират на тези рискове? Стъпки в правилната посока ли са техните отговори или са встрани от целта? 

Йошуа Бенджио: Мисля, че са стъпки в правилната посока. Така например изпълнителната заповед на Байдън беше максимумът, който Белият дом можеше да направи на този етап, но тя не оказва въздействие, не принуждава компаниите да споделят резултатите от тестовете си или дори да правят тези тестове. 

Трябва да се отървем от този доброволен елемент, компаниите действително трябва да имат планове за безопасност, да оповестяват резултатите от тестовете си и ако не следват най-съвременните правила за защита на обществото, могат да бъдат съдени. Мисля, че това е най-доброто предложение по отношение на законодателството. 

Live Science: Невронните мрежи имат множество впечатляващи приложения. Но те все още имат проблеми: трудно се справят с неконтролираното обучение и не се адаптират добре към ситуации, които се появяват рядко в данните за обучение, които трябва да се използват в зашеметяващи количества. Със сигурност, както видяхме при самоуправляващите се автомобили, тези недостатъци пораждат и рискове? 

Йошуа Бенджио: Първо, искам да поправя нещо, което казахте: те са много добри в неконтролираното обучение, по принцип това е начинът, по който се обучават. Те се обучават по неконтролиран начин - просто поглъщат всички данни, които им предоставяте, и се опитват да ги осмислят, това е неконтролирано обучение. Това се нарича предварително обучение - преди да им дадете задача, ги карате да осмислят всички данни, с които разполагат. 

Що се отнася до това от колко данни се нуждаят, да, те се нуждаят от много повече данни, отколкото хората, но има аргументи, че еволюцията се е нуждаела от много повече данни, за да стигне до спецификата на това, което е в нашите мозъци. Така че е трудно да се правят сравнения. 

Мисля, че има място за нашето усъвършенстване по отношение на това от колко данни се нуждаят те. Важният момент от гледна точка на политиката е, че сме постигнали огромен напредък, все още има огромна пропаст между интелигентността на хората и техните способности, но не е ясно колко далеч сме, за да преодолеем тази пропаст. Политиката трябва да се подготви за случая, в който това може да стане бързо - през следващите около пет години. 

Live Science: По този въпрос за данните е доказано, че моделите на GPT претърпяват колапс, когато консумират достатъчно от собственото си съдържание. Знам, че сме говорили за риска ИИ да стане свръхинтелигентен и да се разори, но какво ще кажете за една малко по-фарсова антиутопична възможност - да станем зависими от ИИ, той да лиши индустриите от работни места, да деградира и да се срине, а ние да останем да събираме парчетата? 

Йошуа Бенджио: Да, не се притеснявам от въпроса за срива на данните, които генерират. Ако се насочите към захранване на системите със синтетични данни и го направите интелигентно, по начин, който хората разбират. Няма просто да помолите тези системи да генерират данни и да се обучават върху тях - това е безсмислено от гледна точка на машинното обучение. 

Със синтетичните данни можете да я накарате да играе сама срещу себе си и тя да генерира синтетични данни, които ѝ помагат да взема по-добри решения. Така че аз не се страхувам от това.   

Можем обаче да създадем машини, които имат странични ефекти, които не предвиждаме. Щом веднъж станем зависими от тях, ще е трудно да издърпаме щепсела и може дори да загубим контрол.  

Съществуват способности за измама в тези системи. Има много неизвестни, които могат да бъдат много много лоши. Така че трябва да бъдем внимателни. 

Live Science: Наскоро „Гардиън“ съобщи, че емисиите от центровете за данни на Google, Apple, Meta и Microsoft вероятно са с 662% по-високи, отколкото те твърдят. Bloomberg също така съобщи, че центровете за данни с изкуствен интелект стимулират възраждането на инфраструктурата за изкопаеми горива в САЩ. Възможно ли е истинската краткосрочна опасност от изкуствения интелект да е необратимата вреда, която нанасяме на климата, докато го разработваме?   

Йошуа Бенджио: Да, напълно, това е голям проблем. Не бих казал, че е наравно с големите политически сътресения, причинени от ИИ, по отношение на рисковете за изчезването на човечеството, но е нещо много сериозно.   

Ако погледнете данните, количеството електроенергия, необходимо за обучението на най-големите модели, нараства експоненциално всяка година. Това е така, защото изследователите установяват, че колкото по-големи модели правите, толкова по-умни са те и толкова повече пари печелят. 

Важното тук е, че икономическата стойност на тази интелигентност ще бъде толкова голяма, че плащането на 10 пъти по-висока цена на електроенергията не е проблем за участниците в тази надпревара. Това означава, че всички ние ще плащаме повече за електроенергия. 

Ако следваме тенденциите, ако нещо не се промени, голяма част от електроенергията, произвеждана на планетата, ще отива за обучение на тези модели. И, разбира се, не може всичко да идва от възобновяема енергия, а ще бъде, защото извличаме повече изкопаеми горива от земята. Това е още една причина, поради която трябва да забавим темпото. 

Live Science: Засегнахме този въпрос по-рано, но доколко сте доволни от работата на учените и политиците за справяне с рисковете?   

Йошуа Бенджио: Не мисля, че все още сме направили необходимото по отношение на намаляването на риска. Проведени са много разговори в световен мащаб, направени са много законодателни предложения, ООН започва да мисли за международни договори - но трябва да отидем много по-далеч. 

Постигнахме голям напредък по отношение на повишаването на осведомеността и по-доброто разбиране на рисковете, както и по отношение на политиците, които мислят за законодателство, но все още не сме стигнали дотук. Не сме на етапа, на който можем да се предпазим от катастрофални рискове. 

През последните шест месеца вече има и насрещна сила която се противопоставя на регулаторния напредък, много силни лобита, идващи от малко малцинство от хора, които имат много власт и пари и не искат обществото да има никакъв надзор върху това, което правят с ИИ. 

Съществува конфликт на интереси между тези, които създават тези машини, очакват да спечелят купища пари и се конкурират помежду си с обществеността. Трябва да управляваме този конфликт, точно както направихме за тютюна, както не успяхме да направим с изкопаемите горива. Не можем да оставим пазарните сили да бъдат единствената сила, която да движи напред начина, по който разработваме ИИ.   

Live Science: Иронично е, че ако всичко се предаде на пазарните сили, ние в известен смисъл ще обвържем бъдещето си с един вече много разрушителен алгоритъм. 

Йошуа Бенджио: Да, точно така. 

Live Science: Споменахте лобистките групи, които настояват машинното обучение да остане нерегулирано. Какви са основните им аргументи? 

Йошуа Бенджио: Един от аргументите е, че това ще забави иновациите. Но нали има надпревара за трансформиране на света възможно най-бързо? Не, ние искаме да го направим по-добър. Ако това означава да предприемем правилните стъпки за защита на обществеността, както направихме в много други сектори, това не е добър аргумент. Не става въпрос, че ще спрем иновациите, можете да насочите усилията си в посоки, които изграждат инструменти, които определено ще помогнат на икономиката и благосъстоянието на хората. Така че това е фалшив аргумент.  

Вторият аргумент е, че ако Западът забави темпото, защото искаме да бъдем предпазливи, тогава Китай ще скочи напред и ще използва технологията срещу нас. Това е реално опасение. 

Решението е средно положение, при което разговаряме с китайците и постигаме разбирателство, което е от взаимен интерес за избягване на големи катастрофи. Подписваме договори и работим по технологии за проверка, за да можем да се доверим един на друг, че не правим нищо опасно.  

Припомняме и тази галерия от нашия архив:

Дигитална трансформация

* Във видеото: AI модели правят революция в модната индустрия

Не пропускайте най-важните новини - последвайте ни в Google News Showcase

Коментари 3
Кирилица:
Фонетична
Имате 2000 позволени символа

* Моля, коментирайте конкретната статия и използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и написани само с главни букви!

3 коментара
 
Обратно в сайта X

ДОСТЪП ЗА ЛОГНАТИ ПОТРЕБИТЕЛИ За да пишете, оценявате или докладвате коментари, моля логнете се в профила си.

  1. Запомни ме
забравена парола Полетата маркирани с * са задължителни
Полето Потребителско име не трябва да е празно.
Полето E-mail не трябва да е празно.
Полето Парола не трябва да е празно.
Полето Повторете паролата не трябва да е празно.
  1. Декларирам, че съм се запознал с Общите условия за ползване на услугите на Нетинфо.
Полетата маркирани с * са задължителни
,

Колко е твърде много? Историята на най-дългото време без сън

Любопитно Преди 5 минути

Робърт Макдоналд изкарва мъчителни 18 дни, 21 часа и 40 минути без сън

Радев: Ужасното нападение в Магдебург в навечерието на Коледа е възмутително

Радев: Ужасното нападение в Магдебург в навечерието на Коледа е възмутително

България Преди 9 часа

Президентът осъди атаката в германския град

д

Мъж прекара три дни в кладенец заради предразсъдъци на селяни

Свят Преди 12 часа

За да запази силите си, човекът викал за помощ само веднъж на час

Обстановката на прохода "Шипка" се влошава

Обстановката на прохода "Шипка" се влошава

България Преди 12 часа

Движението не е затворено

,

Заподозреният за нападението в Магдебург е действал сам, съобщи полицията

Свят Преди 12 часа

Въз основа на събраните данни от разследването наличието на съучастник или съучастници може да бъде изключено

TikTok

Албания спира TikTok

Свят Преди 13 часа

По време на среща в Тирана с албански учители, родители и психолози Рама каза, че TikTok е главорезът на квартала

о

Блейк Лайвли съди Джъстин Балдони за сексуален тормоз

Свят Преди 14 часа

Всичко по темата може да прочетете в следващите редове

Киселова изрази съпричастност към семействата на загиналите и пострадалите в Магдебург

Киселова изрази съпричастност към семействата на загиналите и пострадалите в Магдебург

България Преди 14 часа

Тя изказва убеждението си, че гражданите на двете страни застават единни срещу безсмисленото погубване на животи

Александър Вучич

Вучич: Никога няма да отстъпя под натиск

Свят Преди 15 часа

Възмущението от смъртните случаи в северния град Нови Сад се разпространи из цялата страна

,

Временно е затворен Прохода на Републиката

България Преди 15 часа

Товарни автомобили са се завъртели

,

Руските сили са поели контрол над селище в Източна Украйна, твърди Министерството на отбраната в Москва

Свят Преди 15 часа

Ройтерс не е успял да потвърди по независим път предоставените от руската страна данни

<p>Отиде си пионерът на британската гимнастика (СНИМКИ)</p>

Отиде си мъжът на Вера Маринова - легендата на британската гимнастика Джон Аткинъсън

Свят Преди 16 часа

Той издъхна след дълго боледуване в болница „Принцеса Роял“ в Телфорд

Каква е връзката между музиката и болестта на Алцхаймер

Каква е връзката между музиката и болестта на Алцхаймер

Свят Преди 17 часа

Спомените на Фластър може и да избледняват, но едно нещо остава: радостта, която музиката му носи

<p>Пиян мъж се покатери на върха на гигантска коледна елха (СНИМКИ/ВИДЕО)</p>

Пиян мъж се покатери на върха на гигантска коледна елха в Полша

Свят Преди 17 часа

41-годишен пиян мъж решил да завладее Коледната елха, която стои срещу градската гара