компоненти шириною лише тридцять атомів. Однак процес мініатюризації не може тривати вічно. Рано чи пізно він припиниться з низки причин.
По-перше, тепло, що його виділяють потужні чіпи, в якийсь момент почне їх плавити. Одна наївна пропозиція полягала в тому, щоб покласти кілька кремнієвих підкладок одну на другу й створити таким способом кубічний чіп. Це збільшило б обчислювальну потужність процесора, однак ціною більшого тепловиділення. Кубічний чіп виділяє стільки тепла, що на ньому можна засмажити яйце. Причина проста: кубічний чіп має недостатню площу поверхні, щоб можна було його охолодити. Загалом, якщо гарячий чіп охолоджувати водою чи повітрям, то ефект прямо пропорційний величині поверхневого контакту. Але якщо чіп має форму куба, то його площа поверхні недостатня. Приміром, якщо ребро куба збільшити вдвічі, то тепло, яке він виділятиме, збільшиться у вісім разів (оскільки цей куб міститиме у вісім разів більше електричних компонентів), а його площа поверхні - лише в чотири рази. Це означає, що зі збільшенням розмірів кубічного чіпа обсяг тепла, яке він виділяє, зростає швидше, ніж можливість його охолодити. Що більший кубічний чіп, то важче його охолодити. Відтак кубічні чіпи можуть бути тільки частковим, тимчасовим розв’язком цієї проблеми.
Дехто пропонував просто використовувати для травлення мікросхем не ультрафіолетове проміння, а рентгенівське. В принципі, це могло б спрацювати, оскільки довжина хвилі рентгенівських променів може бути в 100 разів меншою, ніж в ультрафіолетового світла. Але є й зворотний бік. Якщо перейти з ультрафіолету на рентген, то збільшиться енергія променя — приблизно в 100 разів. Це означає, що рентгенівські промені можуть просто знищити кремнієву підкладку. Рентгенівську літографію можна порівняти зі спробою художника виліпити делікатну скульптуру за допомогою паяльної лампи. Рентгенівська літографія вимагає строгого контролю всіх параметрів і може бути тільки короткочасним вирішенням.
По-друге, є фундаментальна проблема, що випливає з квантової теорії: принцип невизначеності, який означає, що не можна точно знати водночас і місце перебування, і швидкість атома чи частинки. Сьогодні в процесорі
Як я вже згадував, колись мені довелося виступати з доповіддю перед трьома тисячами найкращих інженерів корпорації
Паралельна обробка даних - одна з ключових особливостей роботи нашого мозку. Якщо зробити магнітно-резонансну томографію мозку в момент, коли той мислить, то виявиться, що різні ділянки збуджуються одночасно; це означає, що мозок розбиває задачу на менші частини й опрацьовує їх усі одночасно. Саме тому нейрони (які передають електричні сигнали з нестерпно малою швидкістю - 200 миль за годину) можуть перевершити суперкомп’ютер, у якому інформація рухається майже зі швидкістю світла. Наш мозок програє в швидкості, але з лихвою надолужує це тим, що виконує мільярди маленьких обчислень одночасно, а тоді зводить усі результати докупи.
Складність паралельної обробки даних полягає в тому, що кожну задачу треба розбивати на кілька частин. Потім кожну частину обробляє окремий процесор, а наприкінці результати збираються докупи. Координування цієї розбивки на частини може виявитись надзвичайно складною процедурою, до того ж воно залежить від кожної конкретної задачі - універсальний алгоритм знайти дуже важко. Людський мозок робить це без особливих зусиль, але Матінка Природа мала на розв’язання цієї задачі мільйони років. Програмісти ж наразі працюють над нею лише близько десяти років.
