Айзък Азимов

Загрижен за човечеството

ТРИТЕ ЗАКОНА НА РОБОТИКАТА:

1. Роботът съзнателно, или чрез своето бездействие не може да наранява човек.

2. Роботът е длъжен да се подчинява на заповедите на човека. Изключение правят случаите, които противоречат на Първия закон.

3. Роботът трябва да защитава собственото си съществуване. Изключение правят случаите, които противоречат на Първия и Втория закон.

1.

Кит Харимън вече дванадесет години ръководеше Изследователския отдел на Корпорация „Американски роботи и механични същества“. За първи път в неговата практика сега не беше сигурен, че постъпва правилно. Той прокара език през пълните си, бледи устни. Струваше му се, че ликът на Сюзан Калвин никога не го беше следил толкова намръщен.

Обикновено се стараеше да не обръща внимание на портрета на великата кибернетичка. Изнервяше го фактът, че не успява да го възприеме като неодушевен предмет. В този момент усещаше погледът й от стената буквално да пронизва лицето му.

Предстоеше му да извърши недостойна и унизителна постъпка.

Срещу него невъзмутимо седеше Джордж Десет. Той явно не споделяше зле прикритото безпокойство на Харимън. Не му влияеше и портретът от стената.

— Не сме говорили за това, Джордж — каза Харимън. — От много време не си бил сред нас, а и не сме имали възможност да останем насаме. Сега бих желал да обсъдим някои подробности.

— Нямам нищо против — отговори Джордж. — От престоя си в Корпорацията останах с впечатление, че кризата има нещо общо с Трите закона?

— Да. Спомняш си съдържанието им, нали?

— Разбира се.

— Добре. Позволи ми да отида малко по-далеч, за да помислим върху основния проблем. За двеста години успешна дейност нашата компания не успя да убеди хората да приемат роботите. Поставили сме ги единствено там, където човешка намеса е невъзможна — най-вече в среда, опасна за здравето. Функцията на роботите бе лимитирана единствено в космичното пространство.

— Но това е огромно поле за изява, което несъмнено води до успех — отбеляза Джордж Десет.

— Не е така по две причини. На първо място, реализацията на роботите зависи от подписания договор. За пример ще ти дам лунната колония. Тя става все по-култивирана и нуждата й от роботи намалява. Очаквахме това, разбира се. Такава ще бъде съдбата на всеки свят, колонизиран от човека. На второ място, истински просперитет на човечеството тук, на Земята, е немислим без роботиката. Ние твърдо вярваме, че човекът трябва да се научи да живее в сътрудничество със своя механичен аналог.

— Но не става ли точно така? Господин Харимън, на вашето бюро е инсталиран компютър, свързан с организацията Мултивак. Компютърът е вид неподвижен робот. Мозък на робот, изолиран от тялото…

— Прав си, но и такива случаи рядко се срещат. Компютрите, използвани от хората, са специализирани да не наподобяват прекалено много човешкия интелект. Преди век ние бяхме на път да създадем изкуствен ум с неограничени възможности. Говоря за компютрите Машина. След като разрешиха екологичния проблем, те се самоунищожиха. Продължаващото им присъствие заплашваше да се превърне в прът, спъващ човешката сигурност. Разбрали това, те престанаха да функционират, в съответствие в Първия закон.

— И не постъпиха ли правилно?

— Според мен — не. С това свое действие те подсилиха Франкенщайновия комплекс — страхът, че изкуственият човек ще се обърне срещу своя създател. Хората се страхуват, че роботите ще ги подменят.

— Вие самият не се ли страхувате от такова нещо?

— Аз съм много начетен и просветен. Докато са в сила Трите закона на роботиката, ние сме в безопасност. Роботите могат да бъдат наши партньори във великата ни борба с природните закони.

— Но след като Трите закона вече два века доказват своята ефективност, откъде идва недоверието към тях?

— От суеверието, разбира се — отговори Харимън, като зачеса гневно посивялата си коса. — За съжаление, съществуват и някои усложнения, които служат като храна за нашите противници.

— И те засягат Трите закона?

— Да, по-специално Втория. С Третия закон няма проблеми. Той е универсален. Роботът винаги ще жертва своето съществуване в името на което и да е човешко същество.

— Разбира се — потвърди Джордж Десет.

— Малко по-незадоволителен е Първият закон. Винаги може да изникне ситуация, при която роботът трябва да избира между действие А и действие Б. Двете действия може да се изключват взаимно или да причинят нараняване на човек. Роботът трябва много бързо да прецени кое от двете ще доведе до по-малка загуба. Позитронните пътища в мозъка му не могат лесно да извършат селекцията. Ако действие А ще нарани талантлив, млад художник, а действие Б — петима старци, кое от двете ще избере?

— Действие А — отговори Джордж Десет. — По-добре да се нарани един, отколкото петима.

— Прав си. Роботите са програмирани да взимат решения. Да очакваш хуманоидът да прецени качества като талант, ум, значение за обществото, изглежда непрактично. Това ще отложи изпълнението на заповедта до степен на ефективно изключване. Затова решава според числеността. За щастие, можем да сведем такива случаи до минимум. Остава Вторият закон.

— Законът за подчинението?

— Да. Необходимостта от подчинение е постоянна. Роботът може да съществува двадесет години, без да му се наложи да нарани човек или себе си. През цялото това време обаче трябва да изпълнява команди. Но чии?

— Тези на човека.

— На всеки човек? Как да прецениш дали е загрижен за благото на хората?

Тук Джордж се поколеба.

— Използвах цитат от Библията — побърза да го успокои Харимън. — Няма значение. Кому да се подчини роботът? На дете, на идиот, на престъпник, или на обикновен човек, който не е експерт и не знае последствията от своята заповед. Ами ако двама дадат противоречащи заповеди, коя да изпълни роботът?

— За двеста години не бяха ли решени тези проблеми? — попита Джордж Десет.

— Не — отговори Харимън, клатейки яростно глава. — Бяхме спирани от факта, че с роботите се борави единствено в открито космическо пространство. С тях манипулираха специалисти. Там нямаше деца, идиоти, престъпници, или други невежи. Въпреки това, поради недомислие, бяха допуснати някои щети. На Земята обаче роботите трябва да преценяват. За това настояват антироботистите и са прави.

— Значи в позитронния мозък трябва да въведете съответният капацитет?

— Точно така. Започнахме да произвеждаме моделите JG. Те отчитат фактори като пол, възраст, социално и професионално положение, интелект, зрялост, обществена отговорност и други.

— Как ще се отрази това на Трите закона?

— С Третия закон нямаме проблеми. Дори най-ценният робот ще се самоунищожи заради най- незначителния човек. Него не можем да променяме. Първият закон е засегнат в случаите, когато алтернативните действия ще причинят вреда. Трябва да се съпоставят качествените с количествени характеристики, за което е необходимо да се предвиди време за решение. Вторият закон търпи най-много корекции, тъй като всяка потенциална заповед изисква мнение. Реакцията на робота ще бъде бавна, но по- качествена.

— Но изискваната преценка е много сложна!

— Много. Необходимостта от нея забави реакциите на първите ни модели до степен на парализа. В следващите подобрихме нещата. Но при тях необходимостта от въвеждане на прекалено много разклонения в мозъка им ги направи огромни и тромави. В последната двойка модели мисля, че постигнахме търсения

Добавить отзыв
ВСЕ ОТЗЫВЫ О КНИГЕ В ИЗБРАННОЕ

0

Вы можете отметить интересные вам фрагменты текста, которые будут доступны по уникальной ссылке в адресной строке браузера.

Отметить Добавить цитату