Полная версия

Главная arrow Информатика arrow Архитектура ЭВМ

  • Увеличить шрифт
  • Уменьшить шрифт


<<   СОДЕРЖАНИЕ   >>

Перспективы развития ЭВМ

Создание качественно новых вычислительных систем с более высокой производительностью и некоторыми характеристиками искусственного интеллекта, например с возможностью самообучения, — очень актуальная тема. Последние 10 лет такие разработки ведутся во многих направлениях, наиболее успешное и быстро развивающееся из них — квантовые компьютеры, нейрокомпьютеры и оптические компьютеры, поскольку современная элементная и технологическая база имеют все необходимое для их создания.

На настоящий момент можно с уверенностью сказать, что современная технология создания вычислительных систем (компьютеров и др.) изживает себя. Микропроцессоры последних поколений содержат огромное число транзисторов (10 млн и более). Можно уменьшать физические размеры транзисторов и интегральных схем, применяя нанотехнологию (создание электронных и других элементов с использованием специальной техники для получения размеров 1 нм = 0,000000001 м), но всему есть предел. Это лишь малая часть огромной проблемы, возникшей перед специалистами в сфере компьютерных технологий, — проблемы приближения к пределу быстродействия. За последние несколько лет появился такой феномен, как перенос всей текстовой, графической и другой информации на компьютерные носители. Если раньше база данных с информацией в 1000 записей довольно быстро справлялась с поиском, то теперь, когда в базе данных стало 10 млн записей, значительно увеличивается время поиска, и новые алгоритмы поиска ненамного уменьшат время поиска.

В этом случае нужны компьютеры с более высокими скоростными характеристиками, поэтому специалисты во всем мире взялись за решение этой проблемы путем создания вычислительной системы будущего. На данный момент существует способ ее решения — ведутся экспериментальные разработки новых компьютеров.

Специалисты Центра космических исследований NASA в Хантсвилле, Алабама, занялись разработкой суперскоростных

оптических компьютеров, в основе которых будут не электроны, выбиваемые с поверхности полупроводниковых металлов, а волны светового диапазона, изменяющие направление при столкновении с искусственными органическими молекулами. По словам представителя NASA, оптика «сможет в течение часа решить проблему, на которую у современной электроники ушло бы 11 лет». Оптика уже используется для производства компьютеров. Информация в Интернете передается через стекловолоконные оптические кабели, причем с такой скоростью, которую нельзя достичь, используя медные провода.

Однако оптические компьютеры появятся не так скоро. Ближайшее будущее компьютерной техники — за ЭВМ, в которых будут творчески сочетаться компоненты оптики и электроники. Между электронными узлами процессора пойдут со скоростью 160 Гб/с световые волны информации, которые уже не будут причиной перегрева медных проводов. Электроника хороша в вычислительных операциях, оптика — в передаче информации.

Проникновение оптических методов в вычислительную технику ведется по трем направлениям. Первое основано на использовании аналоговых интерференционных оптических вычислений для решения специальных задач, связанных с необходимостью быстрого выполнения интегральных преобразований. Второе направление связано с использованием оптических соединений для передачи сигналов на различных ступенях иерархии элементов вычислительной техники, т. е. создание чисто оптических или гибридных (оптоэлектронных) соединений вместо обычных, менее надежных электрических соединений. При этом в конструкции компьютера появляются новые элементы — оптоэлектронные преобразователи электрических сигналов в оптические и обратно.

Но самое перспективное направление развития оптических вычислительных устройств — создание компьютера, полностью состоящего из оптических устройств обработки информации. Это направление интенсивно развивают с начала 1980-х гг. ведущие научные центры (MTI, Sandia Laboratories и др.) и компании — производители компьютерного оборудования (Intel, IBM).

В основе работы компонентов оптического компьютера (трансфазаторов-оптических транзисторов, триггеров, ячеек памяти, носителей информации) лежит явление оптической бистабильности.

Оптическая бистабильность — это одно из проявлений взаимодействия света с веществом в нелинейных системах с обратной связью, при котором определенной интенсивности и поляризации падающего на вещество излучения соответствуют два (аналог 0 и 1 в полупроводниковых системах) возможных стационарных состояния световой волны, прошедшей через вещество, отличающееся амплитудой и (или) параметрами поляризации. Причем предыдущее состояние вещества однозначно определяет, какое из двух состояний световой волны реализуется на выходе. Весь набор полностью оптических логических устройств для синтеза более сложных блоков оптических компьютеров реализуется на основе пассивных нелинейных резонаторов-интерферометров. В зависимости от начальных условий (начального положения пика пропускания и начальной интенсивности оптического излучения) в пассивном нелинейном резонаторе нелинейный процесс завершается установлением одного из двух устойчивых состояний пропускания падающего излучения. А из нескольких нелинейных резонаторов можно собрать любой, более сложный логический элемент (триггер).

На практике пассивные нелинейные резонаторы-интерферометры — вакуумно-напыленные тонкопленочные многослойные полупроводниковые структуры с несколькими промежуточными слоями из арсенида галлия (ОаАз), фосфида индия (1пР) или се-ленида цинка (7п8е), формирующие в тонкопленочном элементе полупроводниковую сверхрешетку.

Элементы памяти оптического компьютера представляют собой полупроводниковые нелинейные оптические интерферометры, в основном созданные из арсенида галлия (ОаАз). Минимальный размер оптического элемента памяти определяется минимально необходимым числом атомов для наблюдения оптической бистабильности. Это число составляет -1000 атомов, что соответствует 1 — 10 нм. Важная особенность оптической памяти — ее высокая защищенность от электромагнитных шумов и надежность (количество переключений не ограничено).

К настоящему времени уже созданы и оптимизированы составляющие оптических компьютеров (оптические процессоры, ячейки памяти), однако до полной сборки еще далеко. Основная проблема, стоящая перед учеными, — синхронизация работы элементов оптического компьютера в единой системе, поскольку уже существующие элементы характеризуются различными параметрами рабочей волны светового излучения (интенсивность, длина волны) и уменьшением его размера.

Таким образом, создание оптических компьютеров очень перспективно, исследователи из MIT обещают к 2008 г. сконструировать полностью работающий вариант оптического компьютера.

Квантовые компьютеры. Не так давно к одному известному ученому, специалисту в области вычислительной техники, пришли за консультацией люди, отвечающие за информационную безопасность страны. Вынужденные по долгу службы знакомиться со всеми новинками в области криптографии, они натолкнулись на сообщение о принципиальной возможности создания устройства, легко взламывающего шифры. Представителей спецслужбы интересовали ответы на вопросы, правда ли это и насколько быстро такой аппарат может появиться на рынке. Ученый констатировал, что все это чистая правда, а на вопрос о сроках ответил уклончиво: «У вас в запасе точно есть четыре-пять лет».

Устройство, которое через считанные годы лишит сна военных, банкиров и вообще всех, чье благополучие или безопасность критически зависит от надежности защиты информации, называется квантовым компьютером. Самые надежные из известных сегодня шифров основываются на разбиении достаточно большого числа на простые множители (так называемая задача факторизации). К примеру, взлом системы RSA-129 (факторизация 129-разрядного числа) потребовал в 1994 г. восьмимесячной работы 1600 мощных рабочих станций, расположенных по всему миру и объединенных посредством Интернета. Разгадывание шифра с ключом на основе разбиения на простые множители трехсотразрядного числа на классическом компьютере потребует уже 13 млрд лет непрерывной работы, а квантовый компьютер, по словам специалистов, справится с такой задачей за несколько недель.

Человек должен был неизбежно изобрести что-то подобное квантовому компьютеру. Закон Мура, требующий удвоения производительности вычислительных систем каждые 18 месяцев, пока ни разу не нарушался. Гордон Мур сформулировал свой закон в середине 1960-х гг., подсчитав темпы роста числа транзисторов в интегральной микросхеме в зависимости от времени. Экспоненциальный рост числа транзисторов в микросхеме требовал все ускоряющегося уменьшения их размеров (из-за существующих принципиальных технологических ограничений размеры самого чипа, на котором размещаются транзисторы, практически не меняются, и в считанных квадратных сантиметрах поверхности монокристалла из кремния приходится размещать все больше и больше конструктивных элементов).

Сегодняшняя стандартная технология работает с размерами в десятую долю микрона (1(Г7 м), а чип содержит десятки миллионов транзисторов. Уже разработаны транзисторы, размеры которых составляют сотые доли микрона, а следующий шаг в сторону микромира приведет к нанометрам (1(Г9 м) и миллиардам транзисторов в одном чипе, еще чуть-чуть — и можно попасть в диапазон атомных размеров, где все начинает подчиняться необычным квантовым правилам.

Бит классического компьютера, всегда находящийся только в одном из двух состояний (0 или 1), на квантовом уровне «размажется» — он словно будет находиться в обоих состояниях одновременно, и можно говорить лишь о вероятности обнаружения его в одном из них.

Квантовые вычислительные системы не только возможны, но и благодаря принципу суперпозиции состояний битов окажутся гораздо мощнее классических, т. е. один квантовый компьютер (цепочка квантовых битов) сможет работать как комбинация очень большого числа классических компьютеров, производящих вычисления одновременно.

Квантовые вычисления гораздо эффективнее классических не только при взломе шифров, но и при поиске в неупорядоченных базах данных (такая проблема возникает, например, при поиске нужного номера в телефонной книге, где фамилии абонентов расположены совершенно произвольным образом).

Подобно классическому биту информации, квантовый бит, который с легкой руки американского физика Бена Шумахера теперь называют кубитом, теоретически может быть реализован на любой двухуровневой системе, например атоме, который может находиться в двух энергетических состояниях (первый и второй уровни будут соответствовать нулю и единице классического бита). Природа предлагает великое множество таких систем, но главное препятствие на пути построения квантового компьютера — внешняя среда, которая за довольно короткое время (называемое временем декогерентности) разрушает приготовленное квантовое состояние.

Модель квантового компьютера из двух кубитов была построена в 1997 г. на молекуле хлороформа группой исследователей из 1ВМ, Массачусетсского технологического института и Калифорнийского университета в Беркли. Впрочем, у технологии есть существенный недостаток: построение компьютера хотя бы из десятка таких кубитов потребует охлаждения молекул до температур, всего на тысячные доли градуса отличающихся от абсолютного нуля (-273 °С).

Голографическая и молекулярная память. Появление в скором будущем задач, требующих очень большой вычислительной мощности, заставляет уже сейчас устремиться к поиску новых технических решений не только в плане совершенствования самих процессоров, но и других компонентов ПК. Широкие перспективы открывает технология оптической записи, известная как голография: она позволяет обеспечить очень высокую плотность записи при сохранении максимальной скорости доступа к данным. Это достигается за счет того, что голографический образ (голограмма) кодируется в большой блок данных, который записывается всего за одно обращение. А когда происходит чтение, этот блок целиком извлекается из памяти. Для чтения или записи блоков, голографически хранимых на светочувствительном материале (за основу был принят ниобат лития) данных («страниц»), используются лазеры. Теоретически тысячи таких цифровых страниц, каждая из которых содержит до 1 млн бит, можно поместить в устройство размером с кусочек сахара.

При такой плотности записи оптический слой, имеющий толщину около 1 см, позволит хранить около 1 Тбайт данных. А если учесть, что такая запоминающая система не имеет движущихся частей и доступ к страницам данных осуществляется параллельно, можно ожидать, что устройство будет характеризоваться плотностью в 1 Гб/см3 и даже выше.

Другой радикально иной подход в создании устройств хранения данных — молекулярный. Группа исследователей центра «?.М.» под руководством профессора Роберта Р. Бирга уже относительно давно получила прототип подсистемы памяти, использующей для запоминания цифровые биты молекулы. Это — молекулы протеина, который называется бактериородопсин. Он имеет пурпурный цвет, поглощает свет и присутствует в мембране микроорганизма, называемого Ьа1оЬас1егшт Ьа1оЫит, который «проживает» в соляных болотах, где температура может достигать + 150 °С.

Бактериородопсин был выбран потому, что фотоцикл (последовательность структурных изменений, которые молекула претерпевает при реакции со светом) делает эту молекулу идеальным логическим запоминающим элементом типа «&» или типа переключателя из одного состояния в другое (триггер).

По оценкам Бирга, данные, записанные на бактериородоп-синном запоминающем устройстве, должны сохраняться приблизительно пять лет. Другая важная особенность бактериоро-допсина — то, что эти два состояния имеют заметно отличающиеся спектры поглощения, это позволяет легко определить текущее состояние молекулы с помощью лазера, настроенного на соответствующую частоту.

Был построен прототип системы памяти, в котором бакте-риородопсин запоминает данные в трехмерной матрице. Такая матрица представляет собой кювету (прозрачный сосуд), заполненную полиакридным гелем, в который помещен протеин. Кювета имеет продолговатую форму размером 1 х 1 х 2".

Страница данных может быть прочитана без разрушения до 5000 раз. Каждая страница отслеживается счетчиком, и если происходит 1024 чтения, то страница «освежается» (регенерируется) с помощью новой операции записи.

Человек в сфере интеллектуальных способностей как биологический вид, по-видимому, завершил эволюцию. А ЭВМ на глазах развиваются с огромной скоростью, обыгрывают в шахматы Каспарова, объединяются в глобальные сети.

Один англичанин, создатель электронных игрушек на основе нейросистем, утверждал, что, с точки зрения стороннего наблюдателя, такие игрушки ведут себя как сознательные существа, если их предоставить самим себе, то они даже начинают общаться, конкурировать и создавать сообщества, похожие на человеческие. И никто не докажет, что эта игрушка не думает или не обладает волей. Кстати, хотим мы это признавать или нет, но порабощение людей вычислительными машинами уже идет, вспомните про новое заболевание — интернет-зависимость.

Сегодня мы близки к исчерпанию атома, поняли, как он устроен, даже научились на нем считать. Возможно, мы близки к исчерпанию информационного ресурса природы в целом.

 
<<   СОДЕРЖАНИЕ   >>