Системотехнические аспекты перспективных компьютерных технологий
7.1. Основные направления развития наноэлектроники
Прогнозируемый выход в 2010-2015 гг. элементной базы вычислительной техники в нанометровый диапазон ставит две взаимозависимые и принципиально новые научно-технические задачи:
- выращивание атомарных и молекулярных структур с заранее заданными и управляемыми извне пространственно-временными формами и "вычислительными" свойствами;
- создание интегрированных инструментальных комплексов проектирования, выпуска и эксплуатации гиперпараллельных вычислительных систем, "элементную базу" которых образует квантовое "рабочее тело".
В исследованиях нанометровой "элементной базы" можно выделить четыре основных направления (рис. 7.1):
- SET-электроника [92], где переключательные элементы (вентили) строятся на основе одноэлектронных транзисторов ;
- наноэлектроника [95], где вентили реализуются на основе атомарных и молекулярных кластеров;
- квантовые компьютеры (КК), где булевы и/или более сложные операторы реализуются на основе квантовых взаимодействий [93, 94] в твердом теле;
- супрамолекулярная электроника [95], где булевы и/или более сложные операторы реализуются на основе (био)молекулярных взаимодействий.
Первые два направления исследований ориентированы на булево представление решаемой задачи, а два других направления - на операторное ее представление.
Современные интегрированные инструментальные платформы, ядро которых сосредоточено в кремниевых компиляторах, способны сохранить свой облик только в SET -электронике [92], где основные изменения должны произойти в технологическом, контрольно-измерительном и испытательном оборудовании, которое слабо влияет на формально-логические, системо- и схемотехнические принципы и методы декомпозиции решаемых задач до их булева представления, хотя гиперрост размерности самих задач декомпозиции и эволюция "системы ценностей" должны отразиться на алгоритмах, критериях и ограничениях оптимальной декомпозиции.
В идеале квантовые и супрамолекулярные ( СМК ) компьютеры по принципам работы можно отнести к изделиям функциональной электроники, где задачи пользователя можно решить в операционном базисе физико-технических и/или (био)молекулярных процессов, которые не вырождены до переключательных функций. Поэтому в таких компьютерах задачи пользователя в конечном счете можно представить в базисе функций Шредингера, но в СМК они интегрированы в операционный базис (био)макромолекул, которые, в частности, можно использовать и как SET- электронные изделия [92].
В результате программные инструментальные платформы КК и СМК окажутся необходимыми только для того, чтобы разложить решаемую задачу до операторов языка высокого уровня. Прямая аппаратная реализация таких операторов выполняется фиксированными (что более характерно для КК ) или адаптивными (что более характерно для СМК ) пространственно-временными квантовыми структурами, служащими "рабочим телом" нанометровых вычислителей, воспроизводимым методами и средствами инструктированного синтеза или самоорганизации [176].
Тем не менее, современные исследования в области КК и СМК [94] в основном сконцентрированы на аппаратной поддержке булевых представлений решаемой задачи [177, 178]. Это можно объяснить тем, что авторами КК являлись физики, которые не вмешивались в прерогативы специалистов по вычислительной технике и поэтому оставили неизменными принципы и методы работы классических ЭВМ. Однако это не упростило решение кардинальной для КК проблемы декогерентизации [94], конечное время которой приводит к необходимости восстановления условий правильной работы КК либо за счет регенерации его "рабочего тела", либо за счет создания условий релаксации "рабочего тела" в исходное базисное состояние.
В результате операционные устройства КК и СМК имеют ограниченное время жизни, что вынуждает использовать в них базовый для МКМД-
бит-потоковых технологий [138] принцип "один поток-оператор - один поток-процессор". Разнятся КК и СМК тем, что глобальное управление CМК относительно проще осуществить методами структурной адаптации макромолекул [101, 130], что автоматически приводит к совмещению по времени и пространству процессов их "конструирования", "производства" и эксплуатации, так как текущую пространственно-временную и функциональную структуру таких вычислителей можно определить и реализовать только после инициализации соответствующего поток-оператора решаемой задачи, то есть в режиме интерпретации программ пользователя. КК ориентированы на традиционные методы параметрической адаптации "рабочего тела", функции которого изменяются под воздействием управл яющих сигналов, как правило, отличных по физической модальности от информационных сигналов.
Третье направление исследований в области создания перспективной элементной базы и компьютеров на их основе относится к наноэлек-тронике [95], которое является прямым наследником микроэлектронных приборов, которые приблизились к естественному физико-техническому пределу принципов и методов их создания и работы. Увеличение уровня микроминиатюризации современных полупроводниковых приборов ограничено следующими основными факторами: разрешающей способностью устройств литографии, с помощью которых осуществляется инструктированный синтез гетерогенных полупроводниковых структур, и законами квантовой механики, которым подчинено взаимодействие элементарных частиц в нанометровом диапазоне.
К началу 90-х годов темп снижения линейных топологических размеров вырос в 2 раза и достиг 10-кратного уменьшения в течение 5 лет (см. табл. 1.3). При сохранении этой тенденции, для чего на Западе имеются достаточные физико-технические и технологические предпосылки, теоретический предел (2x10-4 мкм) рентгенолитографии будет достигнут уже к 2025 г. Технический предел такой литографии (5x10-2 мкм), согласно данным японской организации ASET (Advanced Semiconductor Equipment Technology), будет достигнут в 2010 г. (см. табл. 1.4). В результате промышленно освоенная элементная база вычислительной техники перейдет в нанометровую область.
В современной классификации [95] к наночастицам относят образования из связанных атомов или молекул с размером < 100 нм (1 нм = 10-9 м = 10 Е). С формальных физических позиций кластер радиусом 1 нм содержит примерно 25 атомов, большинство из которых находится на поверхности кластера. Молекулы содержат более 25 атомов, особенно это относится к биополимерам, где достаточно простые молекулы включают порядка 100 атомов. Тем не менее, между нано- и супрамолекулярной электроникой нет четкой границы. Здесь важны используемые свойства
физических процессов, которые определяются некоторым критическим расстоянием или критической длиной, например тепловой диффузии или рассеяния. Такие расстояния называют средней длиной свободного пробега или характерной длиной рассеяния, и большинство физических свойств определяется соотношением размеров используемых частиц и критических расстояний, определяемых условиями и "конструкцией среды" взаимодействия этих частиц. Отсюда, наночастицей можно считать (рис. 7.2) любой агрегат атомов с размерами от 1 до 100 нм, составляющий часть объемного материала, но с размерами меньше некоторой характерной длины, от которой зависят используемые физико-химические свойства.
В каждом из рассмотренных диапазонов физические процессы имеют свои специфические особенности, но объединяет их одно - взаимодействие между такими структурами осуществляется по законам квантовой механики, где любое полимодальное взаимодействие, включая и синтез самой структуры, изменяет состояние всех компонент системы. При этом и составляющие "элементарные структуры", и созданные на их основе законченные изделия представляют собой случайные динамические системы, состояние которых постоянно изменяется и в пространстве и во времени.
Квантовые эффекты в нанометровом диапазоне (туннелирование тока через диэлектрики толщиной порядка единиц нанометров, высокое паразитное сопротивление истока и стока и т. п.) таковы, что, по оценкам специалистов фирмы IBM, критическим размером для традиционных полупроводниковых вентилей можно считать 20-50 нм. Промышленных технологий такого уровня пока нет, но маршрутная карта SIA, которой следует вся полупроводниковая промышленность США, должна была вступить в силу в 2002-2003 гг., а начало производства по такой технологии должно быть развернуто в 2005-2008 гг. [179].
Таким образом, ожидается, что к 2010 году и по физическим принципам работы, и по технологическим принципам изготовления традиционная твердотельная микроэлектроника исчерпает свои ресурсы практически одновременно.
В силу этих обстоятельств США и страны НАТО развернули широкомасштабные и имеющие четко выраженный прикладной характер исследования в следующих направлениях:
- физико-технические процессы нанометрового диапазона с выходом на технологии производства одноэлектронных транзисторов (SET-технологии), где отечественные ученые (К.К. Лихарев и др. [92, 180]) имеют общепризнанные приоритеты;
- мезоскопические контрольно-измерительные и литографические системы, которые призваны преодолеть эффект близости в электроннолучевой литографии и нестабильность фотошаблонов в рентгеноли-тографии, а также обеспечить контроль и управление синтезом (выращиванием) полупроводниковых структур нанометрового диапазона;
- квантовые компьютеры и системы, вычислительные процессы в которых адекватны квантовым процессам.
Масштабы этих исследований можно оценить на примере Германии, которая не является мировым лидером в области электроники. Тем не менее в ней уже сформирована сеть нанотехнологических центров с годовым бюджетом 90 млн. долл., которые призваны поддержать конкурентоспособность Германии на мировом уровне в этой динамично развивающейся области, причем одна из основных функций центров - консультации правительства по вопросам нанотехнологий.
Кроме этого, необходимо учитывать:
- бюджет Max Planck Sosiety (MPS) с 1999 г., который увеличен на 53 млн. долл. и составляет 980 млн. долл.;
- бюджет Агентства по предоставлению грантов на университетские исследования, которое получило дополнительно 59 млн. долл. и его бюджет составляет 1,298 млн. долл.;
- федеральные затраты на исследования и образование, которые правительство Г. Шредера удвоило.
В итоге следует ожидать, что ежегодное финансирование с 2004 г. нанотехнологий в Германии составляет порядка 500-1000 млн. долл. и это притом, что страна уже владеет промышленно освоенным микроэлектронным производством в субмикронном диапазоне.
В каждый центр входит по 25-100 групп представителей университетов, исследовательских центров и промышленности, которые перекрывают следующие направления исследований: ультратонкие функциональные слои (Дрезден), приложение наноструктур в оптоэлектронике (Берлин), латеральные наноструктуры (Аахен), химическая функционализация наноструктур, в частности прививка функциональных групп (Тюбинген), сверхпрецизионные измерения на поверхности (Брауншвейг), методы анализа наноструктур (Мюнхен).
К сказанному следует добавить, что НАТО еще в 1994 г. было озабочено гигантской скоростью накопления фундаментальных знаний в области наноструктур при низкой эффективности приложений. В итоге было выработано решение об отработке производственного процесса для мас-
сового изготовления наноприборов на основе сканирующих туннельных микроскопов (СТМ), обеспечивающих поточную, а не поштучную обработку, как это имело место в оптической литографии и что было потеряно в электроннолучевой литографии.
При этом все исследования в области наноприборов и кластеров были сгруппированы по двум направлениям: "сверху-вниз" и "снизу-вверх". В первом случае основная ставка делается на возможности зондо-вой микроскопии, обеспечивающей создание одноэлектронных транзисторов и схем, разрабатываемых по технологии кремниевой компиляции. Во втором случае главная ставка делается на жидкофазный синтез органических сверхмолекул и полупроводниковых наноструктур на основе процессов самоорганизации молекул.
Для сравнения, в бюджете США на 2001 г. [181] сформирована новая программа "Нанотехнологическая инициатива ( NNI )", на которую предусмотрено было затратить 497 млн. долл., что на 227 млн. долл. превышает госзатраты на нанотехнику в 2000 г. В рамках NNI представлены следующие направления исследований:
- фундаментальные исследования (порядка 195 млн. долл.);
- создание сетей высокого качества (порядка 110 млн. долл.);
- развитие нанотехнологической инфраструктуры, включающей метрологическое обеспечение и моделирование (порядка 77 млн. долл.);
- этические, правовые и социальные вопросы нанотехнологий (порядка 87 млн. долл.);
- оборудование и подготовка нового поколения специалистов (порядка 28 млн. долл.).
Включение в программу отработки и развития правовых, социальных и этических вопросов говорит о том, что нанотехнологии в США планируется широко использовать в генной инженерии и в инструктированном синтезе материалов с заранее заданными физико-химическими и молекулярно-биологическими свойствами, способными оказать решающее влияние на дальнейшую эволюцию человечества.
Современные прикладные исследования в области наноэлектронных транзисторов сконцентрированы на создании (рис. 7.3 [182]) полевых транзисторов, резонансно-туннельных диодов и транзисторов, одноэлектронных транзисторов и транзисторов на основе квантовой интерференции электронов.
В большинстве этих исследований сохраняется традиционный подход к синтезу схем из булевых вентилей. Поэтому основные усилия исследователей направлены на преодоление ограничений законов квантовой механики нанометрового диапазона. В первую очередь это относится:
- к снижению быстродействия нановентилей за счет высокого сопротивления сток-исток ( 14 кОм), которое обеспечивает пространственную локализацию электронов (условие правильной работы);
- к "тирании" полимодальных соединений и паразитному влиянию побочных взаимодействий, что приводит к неустойчивости рабочей точки, которая легко смещается между уровнями ON (проводимость) и OFF (заперт).
В результате практически вся современная наноэлектроника остается низкотемпературной ( ), быстродействие находится на уровне десятков миллисекунд или единиц секунд, а их надежное срабатывание обеспечивается потоком не менее чем 100-150 электронов.
Для сравнения, К.К. Лихарев [180] совместно с State University of New York получил устойчиво работающий делитель частоты с при рассеиваемой мощности 10 мкВт ( ). На одном чипе реализовано 8 делителей, каждый из которых содержит 68 джозефсоновских переходов с площадью 0,25 мкм2 и толщиной электрода ~150 нм. Из приведенных данных видно, что переход в SET- электронику снизит линейные размеры элементов в 102-103 раз, а тактовую частоту работы в 106-108 раз, в то время как в традиционной электронике снижение линейных размеров элементной базы всегда приводило к росту тактовой частоты.
Последовательным сторонником самосборки молекулярного уровня является фирма IBM Research [183], которая исходит из того, что биоэлектроника позволит создать материалы и приборы XXI века. В частности, Zurich Lab. (Швейцарский центр IBM) занимается выращиванием легко связываемых молекул с на основе сканирующего туннельного
микроскопа (СТМ) фирмы Watson Res. Center (США), который работает на 1,6 нм углеродных нанотрубках с изменяемой формой и ориентацией. Физическая основа процесса - это самосборка в микроскопических магнитных средах, которые можно уже использовать для хранения информации (достижимая плотность записи - 80 Гбит/см2).
Для сравнения, отечественный нанотехнологический комплекс [184] НК-100-1В на основе СТМ (Институт нанотехнологий международного фонда конверсии) обеспечивал разрешающую способность вплоть до атомарной с диапазоном сканирования от десятков ангстрем до 30 мкм.
Изделия наноэлектроники, КК и СМК объединяет полимодальный характер взаимодействий составляющих элементов по принципу "каждый с каждым". В таких условиях приходится не столько создавать, сколько использовать закономерности микромира, с тем чтобы избирательно усиливать функционально важные и блокировать (купировать) паразитные взаимодействия, которые уже существуют в квантовом "рабочем теле". Полимодальный характер только электромагнитных взаимодействий иллюстрирует рис. 7.4 [182], из которого видно, что в наноэлектронике даже внутренние "короткие" и "длинные" связи между компонентами системы осуществляются на разных физических принципах, начиная от туннельных взаимодействий (в области 1-2 нм) и заканчивая электромагнитными волнами (10-20 мкм). Такие полимодальные физико-технические эффекты необходимо использовать как в системе пр ямого функционального взаимодействия нанокластеров, кубитов КК или атомов и молекул СМК, так и в системе контроля и диагностики их состояния. Под кубитом понимается [94] двухуровневый квантовый элемент ( quantum bit ).
Одна из центральных и еще не решенных системотехнических проблем создания компьютеров нанометрового диапазона состоит в том, что их операционное ядро функционирует по законам квантовой механики, где диссипация энергии приводит к потере когерентности и, как следствие, к неправильной работе квантового "рабочего тела". При этом входные и выходные интерфейсы таких компьютеров должны функционировать по законам классической физики, где доставка, распределение и рассеяние энергии в пространстве представляют собой естественную схемотехническую и конструктивно-технологическую задачу. Поэтому нанометровые и супрамолекулярные изделия являются зеркально симметричными по отношению к традиционным изделиям опто- и микроэлектроники в том смысле, что продолжительное функционирование в них возможно только за счет перераспределения в пространстве и во времени энергии, в то время как в опто- и микроэлектронике любой переходный процесс сопровождается расходом энергии. Более того, в нанометровом диапазоне для организации правильной работы необходимо не только создать условия для реализации переходных процессов, но и избирательно подавить "тиранию" квантовых полимодальных связей (взаимодействий), и сделать это необходимо без выделения тепла, которое непрогнозируемым образом изменяет состояние всей квантовой системы.
МКМД-бит-потоковые вычислительные технологии вносят системотехнический вклад в решение проблемы подавления внутренних паразитных полимодальных взаимодействий, так как в FIFO- регистровых каналах передача информации осуществляется по принципу "близко-действия". В этом случае допускается использование только одного типа взаимодействия, например туннелирования, которое можно купировать
в пространстве, и распространение информации осуществлять передачей возмущения от одной локальной материальной гетероструктуры к другой.
Кроме проблемы создания устойчивых квантовых структур, реализующих с вероятностью "единица" требуемые и изменяемые во времени вычислительные функции, необходимо решить проблему интерфейсов с внешней средой, то есть проблему устойчивого перехода от макро- к микросистемам и обратно, причем в широком диапазоне отображений и внешних воздействующих факторов.
Другая достаточно сложная системотехническая проблема, которую предстоит решить при создании вычислителей нанометрового диапазона, вызвана тем, что переход на атомарные или супрамолекулярные структуры пока сопровождается катастрофическим падением быстродействия. Компьютеры нанометрового диапазона способны достичь быстродействия свыше 100 ГГц [92], но пока оно находится на уровне единиц Гц [185] в SET- электронике и десятков Гц в КК [186]. В то же время темпы роста требуемой производительности составляют 3-4 порядка за 10 лет, что вынуждает на начальном этапе становления нанометровых вычислителей добиваться гипервысоких коэффициентов распараллеливания вычислений, чтобы такие вычислители смогли составить конкуренцию субмикронным компьютерам. В частности, уже сейчас актуальны задачи, требующие производительности 1015-1016 операций/с [89], для достижения которой средствами современной твердотельной электроники с быстродействием порядка 750 ГГц на вентиль [180] необходимы гипербольшие коэффициенты распараллеливания ( 106).
В алгоритмически ориентированных опто- и микроэлектронных систолических [70] и бит-матричных [139] вычислительных структурах с микронными топологическими нормами оказался достижим только сверхвысокий коэффициент распараллеливания вычислений (порядка 103-105), причем не за счет эффективных процедур параллельной компиляции программ, а за счет (полу)прямого отображения на специфические аппаратные средства алгоритмов решения задач с явно выраженным параллелизмом на бит-, слов- и поток-процессорном уровнях векторно-конвейерной организации вычислений.
Наиболее остро проблема гиперпараллельной компиляции (свыше 106 активных операционных устройств, реализующих, вообще говоря, различные инструкции программы) встанет в SET- электронных компьютерах, так как в КК и в СМК в одном цикле работы потенциально можно реализовать достаточно "сложную" вычислительную функцию, требующую в фон-неймановском (скалярном) эквиваленте до 106-1010 различных операций. Поэтому и в SET- электронике более эффективными могут оказаться не методы традиционной компиляции, "подстраивающие" требуемый операционный ресурс под возможности существующего и строго
фиксированного, а методы (полу)прямого отображения алгоритмов на гипербольшие коллективы относительно примитивных вычислителей, где информационное взаимодействие подчинено принципу "близкодействия" [187], а существующий однородный аппаратный ресурс "перемещаем" как между устройствами разного функционального назначения, так и между активно используемым и резервным, что приводит к качественно новым методам парирования отказов [188], используемым в рамках МКМД-бит-потоковых вычислительных технологий.
Однако как показал опыт проектирования и использования бит-потоковых субпроцессоров [138, 139], системные аппаратно-временные издержки на динамичное (полу)прямое отображение алгоритмов на аппаратуру окупаются только при потоковой организации вычислений, где инициализируемой единицей служат не отдельные инструкции и операнды, а потоки инструкций и данных. Поэтому для скалярных SET- электронных компьютеров проблема гиперпараллельной компиляции сохраняет свою актуальность.
Рассмотренные методы "погружения" решаемых задач до уровня аппаратной или физико-технической реализации объединяет то, что они исходят из аналитической формы представления задачи пользователя, получение которой требует фундаментальных дорогостоящих и продолжительных исследований предметной области. В результате темпы развития алгоритмического и программного обеспечения современных компьютеров отстают на 3-6 порядков от темпов роста функциональной интеграции их элементной базы [189].
Поэтому кроме развития инструментальных средств экспериментальных и модельных исследований предметной области, а также интеллектуальных оболочек, формирующих алгоритмические и программные модели, необходимо развивать нейрокомпьютерные технологии [87-89, 179, 190]. В этих технологиях предметную область можно представить обучающей (табличной, экспериментальной или модельной) выборкой и на ее основе синтезировать нейросеть, решающую задачу пользователя в "произвольном" операционном базисе, реализуемом элементной базой нанометрового диапазона [88]. Это вынуждает определить сходства и отличия традиционной опто- и микроэлектронной схемо- и системотехники от нанометровой и на этой основе сформулировать формальнологические и системные требования к нейрокомпиляторам перспективных (нейро)вычислителей.
Из приведенных данных можно заключить:
- В средней и далекой перспективе нанотехнологии будут развиваться в двух взаимно дополняющих направлениях, одно из которых базируется на булевых вентилях и традиционной организации, в том числе и параллельных вычислений, а другое - на квантовых эффектах, использующих преимущества квантовых алгоритмов. В результате можно ожидать, что КК займут проблемно-ориентированный субпроцессорный уровень, который обеспечит сопряжение с контуром реального времени, если восприятие внешних воздействий в них будет доведено до микросекундных дискретов времени, а темп выработки реакции будет доведен до единиц и долей миллисекунд.
- Переход вычислительной техники на элементную базу нанометрового диапазона обусловлен прорывом в решении следующих физико-технических проблем:
- выращивание, самосборка или инструктированный синтез устойчивых гетероструктур с плотностью упаковки порядка 100 Е и ниже;
- нахождение компромисса между высоким уровнем изоляции квантовой системы от внешнего мира и легкой доступности каждого элемента для манипулирования его состоянием;
- обеспечение информационной связности и полной энергетической независимости квантовых систем обработки и диагностики;
- создание средств устойчивой коммутации, как по близкодействию, так и по схеме "каждый с каждым";
- стабилизация высоких и низких уровней квантовых элементов в широком диапазоне изменения внешних воздействий, по крайней мере, при высокой стабильности низкотемпературных условий ( );
- повышение на 4-6 порядков частоты работы квантовых гетероструктур, так как существующую инерционность невозможно компенсировать только за счет сверхвысоких коэффициентов распараллеливания вычислений, что наиболее характерно для миллисекундных сценариев ведения оборонительных боевых действий.
- Принципиальное отличие производства квантовых гетероструктур состоит в том, что плотная упаковка (< 100 Е) составляющих элементов представляет собой преобразование исходных компонент, изменяющее структурно-функциональные свойства исходного субстрата. В микроэлектронных твердотельных технологиях работа функциональных и коммутационных элементов строится на различных физических механизмах, и плотность упаковки здесь сказывается только на тактовой частоте, а не на работоспособности всей ВС. Поэтому отставание отечественного аналитического приборостроения, особенно в области СТМ-технологий, скажется не на количественных характеристиках нановычислителей, а на их принципиальной работоспособности.
Компенсировать отсталость технологического оборудования можно:
- за счет прогресса в области направленного избирательного взаимодействия по типу "атом - поле", что пока маловероятно,
- за счет прорыва в области инструктированного синтеза или самосборки молекулярных систем коммутации, которые ослабят ограничения на плотность упаковки функциональных наноэлементов и модулей, но увеличат время задержки, что свойственно ВС с FIFO-регистровыми каналами обмена.
- Для перевода фундаментальных физико-технических исследований наноэлектронных и супрамолекулярных гетероструктур в практическую плоскость требуется не только централизованное финансирование, но и устойчивая 10-15-летняя государственная техническая политика при закупке импортного технологического и аналитического оборудования, используемого в интересах конкретных исследовательских программ, а не отдельных научных коллективов.