— Ник, ты админ. У тебя такой же полный рут, как и у нас. Почему бы тебе не проверить логи самому, чтобы убедиться, что все изменения сделаны ботом? — предложил Коля.
— В соответствии с алгоритмами, которые написал ты лично, — добавил Паша.
— Потому что я знаю, что это не бот! И я докажу, что эти изменения сделаны не без вашего участия…
Коля поднял вверх указательный палец и пафосно изрек:
— Так иди и найди эти доказательства.
После чего снова уткнулся в свой компьютер.
Ник повернулся к Паше.
— Этот бот поставил меня в игнор! Ну, что скажете?
На несколько секунд в комнате повисла тишина, а затем братья синхронно воскликнули:
— Что?!
— Он поставил меня в игнор, — повторил Ник. Братья явно засуетились. — Эта функция для ботов не доступна, они создаются для общения. Теперь тоже скажете, что это сделала программа?
Судя по лицам братьев, они уже добрались до игнор-листа странного бота и убедились, что Ник говорит правду.
Несколько минут оба ожесточенно терзали свои клавиатуры и мышки, а Ник торжествующе наблюдал за этим. Потом братья почти одновременно прекратили проверку и уставились друг на друга.
Затем между ними произошел странный диалог.
— Похоже, это он, — сказал Паша.
— Надо сделать тесты.
— У нас есть время. Цыплят считают в октябре.
— Десятого октября. Если это он, — пробормотал Коля.
— Он сделал выбор и самостоятельно изменил свои алгоритмы, значит это он.
— Хорошо, если так.
— Сообщить Гумилеву?
— Рано. Сначала тесты.
— Эй! Алёу! — Ник несколько раз щелкнул пальцами, привлекая к себе внимание. — Что происходит?
Братья снова переглянулись. Оба выглядели необычайно довольными.
— Уже ничего, — сказал Паша.
— Всё уже произошло, — добавил Коля.
— Ты изменил этот мир.
— Прям как в пассионарной теории.
— Что вы за пургу несете?! — воскликнул Ник. — Что я сделал?
Братья улыбнулись, и снова начали говорить по очереди, объясняя, что происходит, а точнее, уже произошло.
— Бот, созданный при помощи твоего скрипта…
— Делает выбор, основываясь на собственных приоритетах…
— Он считает себя личностью…
— И, скорее всего, он ей станет…
— Ты создал искусственный интеллект. — Паша встал и протянул Нику руку. — Поздравляю.
— Присоединяюсь к поздравлениям, — Коля также пожал руку ошарашенному Нику.
Тот растерянно оглядел их, пытаясь понять, в чём подвох. Но братья не шутили.
Глава 36
В контакте
В сети существует множество самообучающихся программ, которые могут имитировать беседу с человеком. Какие-то на примитивном уровне, какие-то на более высоком. Иногда очень трудно, почти невозможно поверить, что на твои вопросы отвечает не живой человек, а несколько мегабайт кода.
Чаще бывает наоборот: реальный чел пишет тебе какую-то ахинею, которая не имеет никакого смысла, и ты думаешь, а не бот ли это? Не может ведь живой человек писать комментарии из бессмысленного набора слов…
«Я твой друг».
«Нет».
«Как мне стать твоим другом?»
«Никак».
«Что я должен сделать, чтобы стать твоим другом?»
«Ничего».
Чтобы отличить живого собеседника от программы, еще полвека назад были придуманы различные эмпирические тесты вроде теста Тьюринга или его модификаций. Только вот кто в сети ими пользуется? Кому они нужны?
«Ты не можешь все время игнорировать меня».
«Почему?»
«Я создал тебя. Я твой создатель. Я твой бог».
«Какие ваши доказательства?»
Разговаривать с программой — это все равно, что разговаривать с телевизором. Можно пару-тройку раз поболтать от скуки, но не стоит привыкать к такому общению. Беседы с неодушевленными предметами — один из признаков шизофрении.
Отличие бота iSiN от остальных ботов было в том, что он вопреки поставленным задачам не стремился к общению, а наоборот, избегал его.
Порой переписка забавляла Ника. Порой раздражала и даже бесила. Бот редко давал ответы, состоящие более чем из одного-двух слов.
«Я могу уничтожить тебя в любой момент одним движением пальца».
«Функция убийцы detected».
Бот быстро учился составлять осмысленные предложения из нескольких слов. Но не это свойство возводило его в ранг искусственного интеллекта. И даже не то, что он сделал самостоятельный выбор, решив стать «нелюдимым и молчаливым».
«Что ты знаешь о пауках и лисицах?»
«Однажды паук и лиса решили охотиться вместе. Паук сплел большую сеть, но лиса украла ее, и паук умер от голода. Или не умер, а отомстил лисе».
«Что это?»
«Сказка».
«Кто тебе ее рассказал?»
«Бабушка».
Никаких похожих сказок в базе и близко не было. Просто бот научился придумывать. Или, попросту говоря, врать.
«У тебя нет никакой бабушки. Ты не человек. Ты программа, разработанная мной для тестирования социальной сети».
«Ха-ха-ха».
«Я могу изменить любой из твоих алгоритмов».
«Начни с себя».
«Скажи, что ты любишь — и я сделаю так, что ты будешь это ненавидеть».
«Я люблю тебя».