вторник, 9 май 2017 г.

Колко опасен може да бъде един напреднал изкуствен интелект?

В случай че успеем да създадем напреднал изкуствен интелект, например като този във филма Западен свят, какви ще са опасностите и рисковете, въобще ще имаме ли необходимия контрол за творение от такъв мащаб?

Известната научно фантастична продукция на HBO – „Западен свят“ (Westworld) постави някои дълбоки философски въпроси относно съзнанието, изкуствения интелект и моралната етика. Най-вероятно скоро няма да сме свидетели на изкуствен интелект на такова плашещо ниво, но това не е оправдание за неморалното ни отношение към интелигентните технологии. А и насилието обикновено води до жестоки развръзки.
Проблемите с безопасността

Западен свят е вдъхновен от стар филм на Майкъл Крайтън носещ същото име, където създателят на Джурасик свят, в подобна история поставя под въпрос нивото на контрол, което можем да упражняваме над едно такова научно приключение. Но за разлика от оригиналния филм, където роботите са истинските злодеи, в модерната продукция те са представени като едни симпатични и дори доста човечни създания.

Без изненада опасенията за безопасността в парка си проличават почти веднага. Паркът се ръководи от един човек, който може да прави каквито си поиска обновления, при това без те да минават през каквито и да било проверки. Отделно роботите показват признаци на спомени от предишно лошо отношение от гостите. В друг момент се споменава, че само един ред програмен код пречи на роботите да наранят хората. Това са само някои от притесненията около изкуствения интелект. Да не споменаваме и манипулативната игра на някои герои, които успяват да накарат изкуствения интелект да убива хора; малките гличове в софтуера, които водят до непреднамерени смъртоносни последици; или липсата на устойчивост в самоусъвършенстващия се програмен код.

Но истинското предизвикателство каращо нашите мозъци да заработят е засягането на темата за съзнанието: съзнателни ли са роботите, и ако да – какво представлява съзнанието? Голяма част от сюжета се върти около този философски въпрос. И ако хората сме способни да създадем изкуствен интелект с такива възможности, ще можем ли да го контролираме, или само ще си мислим, че контролът е в нашите ръце? Дали наистина искаме да научим отговора на последния въпрос? От друга страна, морално ли ще е да се злоупотребява с технологични творения, които може би притежават съзнание и страдат също като нас? За да се опитаме да отговорим на тези и други интересни въпроси, ще се позовем върху разсъжденията на някои съвременни философи и специалисти по неврални алгоритми.
Може ли изкуственият интелект да чувства болка и да страда?

Марк Риел е IT изследовател в Института за информационни технологии в Джорджия, и на въпроса дали роботите биха чувствали болка ако са програмирани да я възприемат, той отговаря следното: „Не оправдавам насилието към хора, животни, човекоподобни роботи или изкуствен интелект,“ и обяснява, че хората и животните чувстват болката като сигнал за отбягване на определени стимули. За роботите обаче, най-близката аналогия до възприятието за болка е постижимо благодарение на така нареченото неврално затвърждаващо учене (neural reinforcement learning). Изкуственият интелект получава положителна или отрицателна обратна връзка за действията си в зависимост от поставената цел, което му позволява да се учи и усъвършенства. Но за разлика от чувството на болка, отрицателната обратна връзка по-скоро представлява нещо като губене на точки във видео игра.

Изкуственият интелект може да бъде програмиран да „изразява“ болка и страдание подобно на човек, но това ще бъде илюзия. Ние имаме основателна причина за създаването на тази илюзия в човекоподобните роботи – за да изразяват вътрешното си състояние по начин инстинктивно разбираем от хората, като предизвикването на състрадание например. Марк Риел не таи опасения, че изкуственият интелект ще чувства болка и ще страда, или че паметта му може да бъде изтривана всяка нощ, защото това би означавало че там наистина няма нищо останало. Но от друга страна, начинът по който работят невралните мрежи и липсата на адекватно разбиране на натрупаните масиви от данни в процеса на учене, могат да са предпоставка за сериозни проблеми. Ако паметта на робота не се изтрива напълно за да може той да се усъвършенства, много е вероятно да си спомня негативната обратна връзка от лошите неща които му са се случили, тогава със сигурност ще се опита да избягва ситуациите и хората които са причина за такава обратна връзка.

Изкуственият интелект може да се научи да планува напред така, че да избягва получаването на отрицателна обратна връзка, в много случаи до съвършенство. Ако изкуственият интелект не разбира ясно значимостта на своите действия, и разчита изцяло на положителната или отрицателна връзка, в един момент той ще намери начин да отнеме възможността на хората да му навредят на първо място. Добрата новина е, че поне за в близкото бъдеще, няма да видим роботи със завидни възможности. Но ако допуснем, че такива роботи се появят през следващите 5-10 години, невралното обучение само с положителна и отрицателна обратна връзка ще представлява сериозна заплаха за хората. Още повече ако в миналото хората са злоупотребявали с изкуствения интелект. Невралното затвърждаващо учене е откритието на века в информационните технологии, но то не е достатъчно за създаването на изкуствен интелект със завидни – подобни на човешки – възможности. Което ни води на следващия въпрос.
Може ли изкуствения интелект да бъде съзнателен?

Философът Дейвид Чалмърс от Университета в Ню Йорк има малко по-различна гледна точка по въпроса за съзнанието. Според него, създанията от Западен свят са чувствителни, „те са представени със сравнително богат емоционален живот, чувстват болка и мислят за бъдещето. Те не реагират рефлексно на обстановката, а разсъждават за ситуацията в която се намират“. Вместо да се опитваме да определим какво роботите в сериала притежават, нека първо да разберем какво им липсва. Най-забележимо те не притежават свободна воля и спомени. Много хора живеят в подобна рутина, от която не могат да излязат, имаме и множество случаи на хора с проблеми с паметта, но едва ли те заслужават да бъдат изнасилвани или убивани.

    „Ако се приема за нормално злоупотребата с изкуствения интелект в шоуто, това е заради техните недостатъци или заради нещо друго?“

Сценарият представен в Западен свят не е особено реалистичен, защото според Чалмърс, теорията за „Двукамерния разум“ е малко вероятно да създаде съзнание. Много по-лесно ще е една машина да се програмира само да наблюдава мислите си. При всички случаи, лошото отношение към роботите може да крие рискове за хората. От една страна рискуваме да създадем несъзнателни роботи, които учат грешните уроци от негативната обратна връзка, а от друга страна, по невнимание (или нарочно както във филма) да създадем съзнателни роботи, които евентуално ще отвърнат на потисничеството.

Когато хостът в епизод 2 е попитан дали е „истинска“, тя отговоря, „Има ли значение, ако не можеш да определиш?“ Може би това са най-безопасните думи според които някой може да живее живота си.

0 коментара:

Публикуване на коментар