Как предотвратить взрыв интеллекта
Значительная часть риторики по поводу экзистенциальных рисков, связанных с искусственным интеллектом (и сверхинтеллектом вообще), задействует метафору «взрыв интеллекта». Проводится аналогия с ядерными цепными реакциями: исследователи искусственного интеллекта словно бы работают с каким-то элементом смартонием, и, если будет достигнута достаточная его концентрация, мы получим неконтролируемый взрыв интеллекта — цепную реакцию — с непредсказуемыми результатами. Это нельзя назвать точным описанием реальных рисков. Взаимосвязанные алгоритмы искусственного интеллекта не станут ни с того ни с сего захватывать Вселенную. Взрыв интеллекта не произойдет случайно; это потребует построения особого вида системы ИИ, которая сможет обнаруживать в мире упрощающие структуры, конструировать вычислительные устройства, которые будут их использовать, а затем предоставлять автономию и ресурсы своим детищам, и т. д.
Чтобы произошел взрыв интеллекта, необходимое рекурсивное выполнение четырех шагов. Во-первых, система должна уметь проводить эксперименты в физическом мире. В противном случае она не сможет добавить никакого нового знания к уже созданному человеком. (Большая часть недавних достижений в области искусственного интеллекта связана с применением машинного обучения для воспроизведения человеческого знания, а не для его расширения.) В большинстве философских дискуссий по поводу искусственного интеллекта прослеживается естественная тенденция фокусироваться на чистом рассуждении, как будто этого достаточно для расширения знания. В особых случаях (например, в математике и некоторых разделах физики) новое знание может быть получено в ходе чистого рассуждения. Но, как правило, развитие научного знания почти исключительно достигается в ходе сбора эмпирических данных, подтверждающих или опровергающих те или иные гипотезы. Поэтому мы и построили Большой адронный коллайдер, поэтому любые инженерные изыскания связаны с созданием и тестированием прототипов. Машины явно способны с этим справиться, более того, уже существует несколько «автоматизированных ученых».
Во-вторых, эти эксперименты должны обнаруживать новые упрощающие структуры, которые можно использовать для того, чтобы обойти нераскрываемость рассуждения вычислительными средствами. Практически все интересные логические задачи (такие как нахождение оптимальной стратегии в игре, оптимизация на основании комплексных ограничений, доказательство математических теорем, построение предположений о структуре молекул) имеют класс NP. В рамках сегодняшнего нашего понимания вычислительной сложности это означает, что цена решения одного случая для определенной задачи экспоненциально возрастает с увеличением размерности этого случая. Прогресс в области разработки алгоритмов обычно требует отыскания определенной упрощающей структуры, которую можно использовать для того, чтобы обойти эту экспоненту. Взрыва интеллекта не случится, если не будет открыто множество таких структур (или пока не выяснится, что нынешнее наше понимание вычислительной сложности неверно).
В третьих, система должна быть способна проектировать и реализовывать новые вычислительные механизмы и новые алгоритмы. Те и другие будут эксплуатировать научные открытия, сделанные в ходе первого шага. В действительности можно сказать, что этот шаг, по существу, аналогичен первым двум, но сосредоточен на вычислении. Автономное проектирование и производство вычислительной аппаратуры вполне осуществимо в случае основанных на кремнии технологий, а новые разработки в области синтетической биологии, комбинаторной химии и 3D-печати в ближайшем будущем их еще больше упростят. Автоматическая разработка алгоритмов демонстрировалась уже много раз, так что это тоже осуществимо.
В-четвертых, система должна быть в состоянии предоставлять автономию и ресурсы новым вычислительным механизмам, чтобы они, в свою очередь, могли проводить эксперименты, открывать новые структуры, разрабатывать новые вычислительные методы и производить еще более мощное «потомство». Насколько мне известно, пока ни одна система такого не достигла.
Первые три шага не представляют опасности в плане возникновения «интеллектуальной цепной реакции». Опасен четвертый шаг — воспроизводство и автономия. Конечно, практически все потомство будет неудачным, точно так же практически все новые устройства и программные средства с первого раза не заработают. Но при достаточном числе циклов — или, что то же самое, при достаточном воспроизводстве с изменчивостью — взрыв интеллекта нельзя исключить.
Как его предотвратить? Мы можем надеяться, что второй шаг окажется неудачным — что мы уже нашли все структурные упрощения для повышения эффективности алгоритмов, а оставшиеся не будут иметь существенного значения. Но мало кто из инженеров-электротехников или программистов готов заявить, что исследования в их областях себя исчерпали.
Третий шаг дает своеобразную контрольную точку. Практически нет систем ИИ, которые применялись бы для разработки новых вычислительных устройств и алгоритмов. Напротив, эти системы применяются к таким задачам, как логистика, планирование, управление роботами, медицинская диагностика, распознавание лиц и т. д. Здесь нет риска цепной реакции. Мы могли бы продумать меры регулирования исследований для третьего шага. Нечто подобное уже предлагалось для синтетической биологии. Но пока никакие правила не утверждены, кроме того, будет сложно контролировать их