для работы одного большого центра обработки данных. И счета за электричество продолжают быстро расти с увеличением количества серверов и мощности компьютерных чипов. Луис Андре Баррозу, компьютерный инженер компании Google, делает вывод, что, если эффективность компьютеров существенно не возрастет, «в течение ближайших нескольких лет затраты на электроэнергию могут легко превысить затраты на аппаратное обеспечение, возможно, с большим отрывом».
Непроизводительные расходы, присущие модели «клиент-сервер», обременительны для отдельных компаний. Однако в отраслях картина намного хуже. Бо?льшая часть программ и аппаратных средств, с которыми сегодня работают компании, имеется у их конкурентов. Компьютеры, системы хранения данных, сетевое оборудование и наиболее популярные приложения стали товарами массового потребления с точки зрения компаний, которые их покупают. Они не отличают одну компанию от другой. То же самое касается сотрудников ИТ-отделов. Большинство из них занимаются рутинным обслуживанием, выполняя такие же задачи, что и их коллеги в других компаниях. Существование десятков тысяч независимых центров обработки данных, использующих аналогичные аппаратные средства, программное обеспечение и виды работ, негативно влияет на экономику. Это привело к наращиванию чрезмерных ИТ-активов почти в каждом секторе промышленности и уменьшению выгоды от компьютерной автоматизации.
Ведущие ИТ-поставщики стали самыми быстрорастущими и прибыльными компаниями в мире. Компания Билла Гейтса – идеальный тому пример. Почти каждая компания сегодня покупает копии операционной системы Microsoft Windows и офисного пакета приложений Microsoft Office для всех своих сотрудников, устанавливая программное обеспечение на каждом отдельном ПК и регулярно производя обновления. Большинство компаний также используют ОС Windows, по крайней мере на некоторых из своих серверов, и устанавливают другие дорогостоящие программы Microsoft в своих центрах обработки данных (например, Exchange для управления электронной почтой). За три десятилетия с момента своего основания годовые объемы продаж компании Microsoft выросли почти до 50 миллиардов долларов, годовая прибыль – до 12 миллиардов, а сумма наличных денежных средств – до 30 миллиардов долларов. И компания Microsoft не одинока. Многие другие производители программного обеспечения, вроде Oracle и SAP, поставщики серверов, например IBM и Hewlett-Packard, производители ПК типа Dell, а также сотни консалтинговых компаний извлекают выгоду из сложности современной отрасли бизнес-вычислений. Все они с готовностью играли роль поставщиков оружия в гонке вооружений, происходившей в сфере информационных технологий.
Почему сфера вычислений развивалась таким, казалось бы, неправильным образом? Почему персонализация компьютеров сопровождалась усложнением и напрасными затратами? Причина довольно проста. Она сводится к двум законам. Первый и самый известный был сформулирован в 1965 году блестящим инженером Intel Гордоном Муром. Закон Мура гласит, что мощность микропроцессоров удваивается каждый год или два. Второй закон был озвучен в 1990-х годах Энди Гроувом, коллегой Мура. По закону Гроува, пропускная способность телекоммуникационных систем удваивается каждые сто лет. Закон Гроува скорее выражает его неприятие умирающей телефонной индустрии, чем констатирует технический факт, тем не менее он обнаруживает простую истину: на протяжении всей истории развития вычислительной техники вычислительная мощность растет намного быстрее, чем пропускная способность коммуникационных сетей. Это несоответствие означает, что компания может воспользоваться преимуществами передовых компьютеров только в том случае, если установит их в собственных офисах и объединит их в собственную локальную сеть. Как это было с электричеством в эпоху систем постоянного тока, нет никакого практического способа эффективной передачи вычислительной мощности на большие расстояния.
Как показывают наблюдения Гроува, дефицит пропускной способности коммуникационных систем уже давно считается препятствием для эффективной обработки данных. Было ясно, что теоретически вычислительная мощность, как и электроэнергия, может поставляться через сеть крупными компаниями коммунального обслуживания и что такие централизованные сервисы станут работать гораздо более эффективно и гибко, чем множество частных центров обработки данных. Еще в 1961 году, когда ученые только начинали искать способы, позволяющие компьютерам общаться друг с другом, Джон Маккарти, эксперт в молодой области сетевых технологий, предсказал, что «процесс обработки данных однажды может превратиться в коммунальную услугу наподобие системы телефонной связи». Каждый прорыв в области сетевых технологий вызывал появление предпринимателей, которые надеялись превратить коммунальные вычисления в крупный бизнес. В эпоху мейнфреймов компании, осуществлявшие обработку данных в режиме разделения времени, устанавливали центральные компьютеры и сдавали их в аренду другим компаниям, позволяя напрямую подключаться к ним через телефонную линию. В 1970-х годах такие компании, как Automated Data Processing, начали предлагать некоторые рутинные вычислительные работы, в частности по расчету заработной платы, в качестве платной услуги. А в 1990-х годах при значительной поддержке венчурного капитала появилось множество «провайдеров прикладных услуг», которые собирались предоставлять компаниям доступ к программному обеспечению через интернет.
Однако все эти начинания в сфере коммунальных вычислений были либо обречены на провал, либо сильно ограничены из-за отсутствия достаточной пропускной способности. Даже в конце 1990-х годов, когда в отрасли телекоммуникаций началась модернизация сетей, пропускная способность по-прежнему не позволяла предоставлять услуги по обработке данных с той же скоростью и надежностью, которые обеспечивали компаниям их собственные машины. И поэтому компании продолжали запутываться в своих цифровых системах передачи мощности, смиряясь с их сложностью, неэффективностью и пустыми тратами как платой за автоматизацию своей деятельности.
Однако теперь все меняется. В последние несколько лет сетевой барьер начал рушиться. Благодаря проложенным коммуникационными компаниями во время бума доткомов оптоволоконным кабелям, длины которых, по некоторым оценкам, достаточно, чтобы обмотать земной шар более 11 тысяч раз, пропускная способность интернета резко увеличилась и подешевела. Закон Гроува был аннулирован. И это меняет все, по крайней мере в сфере обработки данных. Теперь, когда данные можно передавать через интернет со скоростью света, пользователи могут получить доступ к полной мощности компьютеров независимо от своего местоположения. Неважно, где находится серверный компьютер, управляющий вашей программой: в центре обработки данных дальше по коридору или в другой части страны. Все машины теперь объединены и используются совместно – они превратились в единую машину. Как в 1993 году предсказал исполнительный директор компании Google Эрик Шмидт, бывший в то время техническим директором Sun Microsystems, «когда передача данных станет такой же быстрой, как процессор, компьютеры перестанут быть отдельными устройствами и превратятся в сеть».
Оптоволоконный интернет для сферы обработки данных – то же, что сеть переменного тока для электроэнергетики: местоположение оборудования не имеет для пользователя никакого значения. Что еще важнее, интернет, приспособленный к любому типу компьютера и любой форме цифровой информации, играет роль роторного трансформатора Инсулла: он позволяет разрозненным и несовместимым ранее машинам работать в качестве единой системы. Он превращает какофонию в гармонию. Предоставляя универсальную среду для передачи данных, интернет стимулирует создание централизованных вычислительных станций, которые могут одновременно обслуживать тысячи или даже миллионы пользователей. То, чем раньше компании были вынуждены обеспечивать себя сами, теперь они могут приобрести в качестве платной услуги. Это означает, что они могут наконец избавиться от своих цифровых систем передачи мощности.
Системе коммунальных вычислений потребуется много лет, чтобы достичь зрелости. Как когда-то Эдисон и Инсулл, пионеры новой отрасли столкнутся с множеством проблем. Им предстоит найти оптимальный способ измерения и ценообразования на разные виды услуг. По мере роста спроса нужно будет сбалансировать нагрузку и управление коэффициентом неодновременности. Они станут сотрудничать с правительствами, чтобы создать эффективные режимы регулирования. Им необходимо будет достичь нового уровня безопасности, надежности и эффективности. А самая серьезная задача – это убедить крупные компании отказаться от своих систем и центров обработки данных, в которые они вложили так много денег. Однако все эти задачи будут решены, как и раньше. Экономические условия в сфере обработки данных изменились, а в настоящее время прогресс обусловливается именно новой экономикой. На смену эре персональных компьютеров приходит эпоха коммунальных вычислений.