Далеко не всегда революции искромётны и быстротечны. Но в них обязательно есть острейший конфликт, разрешить который полумерами нельзя. Нам «повезло», мы живём в интересное время — на наших глазах меняются технологические эпохи. Традиционная электроника близка к исчерпанию возможностей и не может обеспечить требуемый рост производительности. Носители информации — яркое тому подтверждение. Ждём перемен?
Пока не было компьютеров Бумага, верой и правдой служившая человечеству столетиями, стала программным носителем ещё в начале XIX века. Работой автоматического ткацкого станка, изобретённого французом Жозефом Жаккардом, управляли картонные карты с пробитыми в них заранее отверстиями, в которые входили иглы. Согласно программе, разноцветные нити основы и узора то опускались и переплетались, то поднимались, образуя стежок. Станок был первым массовым промышленным устройством, работающим по заданному плану. Вдохновляющий пример Жаккарда натолкнул английского математика Чарльза Бэббиджа на идею о создании машины-«расчётчика» для нужд навигации. В 1822 году он построил модель машины, «умеющей» складывать и вычитать. Но работа над созданием реального «расчётчика» растянулась на целых 9 лет и так и не была закончена. «Мельница», «склад» и перфокарты В ходе битвы с непокорным детищем учёный задумался о более универсальной машине, способной обрабатывать не только числовую информацию. Бэббидж назвал её аналитической и, сам того не подозревая, заложил теоретические основы построения современных компьютеров. Судите сами: в единой логической схеме были увязаны арифметическое устройство (Бэббидж назвал его «мельницей» — чем не прообраз процессора?), регистры памяти, объединённые в «склад», и устройство ввода-вывода информации, работавшее с перфокартами трёх типов. Перфокарты операций управляли режимами работы (конкретной арифметической операцией), перфокарты переменных задавали передачу данных из памяти в арифметическое устройство и обратно, а числовые могли служить как для ввода данных, так и для хранения результатов. В первом работоспособном, программно управляемом и свободно программируемом компьютере Z3, созданном немецким инженером Конрадом Цузе в 1941 году, для ввода и хранения программ использовалась перфолента — прямая наследница карт Жаккарда. Лента легко рвалась, её было сложно редактировать, но, самое главное, по скорости она безнадёжно отставала от требований времени: запись производилась до 150 байт/с, а скорость считывания не превышала 1500 байт/с. Например, сегодня только чтение небольшого 2‑минутного трейлера в HD-качестве на такой скорости заняло бы более 4 часов! Перфоленты благополучно дожили до начала 80‑х, но закономерно уступили место магнитным носителям. На смену бумаге пришли магниты. Хранить больше, но короче Магнитная запись — яркое воплощение нынешнего информационного противоречия: объёмы данных возрастают на порядки, а сроки и надёжность хранения резко падают. Жёсткий диск, фундамент компьютерной цивилизации, — устройство крайне ненадёжное! Большое количество хрупких подвижных деталей, работающих в экстремальном режиме, «гарантируют» среднее время жизни менее 5 лет. Можно возразить, что за это время и диск, и компьютер устареют и будут заменены, а для сохранности данных их можно хранить в «облаке». Но если речь идёт о действительно ценной информации, было бы неплохо регулярно проводить резервирование информации на независимые носители. Про дата-центры, в которых те же жёсткие диски собраны в безумных количествах, вообще разговор особый. В них, в отличие от домашних устройств, состояние всех носителей постоянно проверяется, и при малейших признаках возможного аппаратного сбоя данные перебрасываются в другие хранилища. Но всегда возможны форс-мажорные ситуации, грозящие серьёзным ущербом «здоровью» дата-центра и хранящейся в нём информации. Время оптических носителей — CD, DVD-, Bluray-дисков — закончилось довольно быстро. Причиной тому стала их негибкость (невозможность оперативного изменения данных) и медлительность. К тому же у дисков с возможностью записи/перезаписи часто возникали проблемы с надёжностью. Пользователи нередко не могли извлечь информацию с дисков, записанных всего несколько лет назад. Появились даже странные для непосвящённого термины типа «цифрового гниения», «бронзования», описывающие, в общем, одно и то же неприятное явление — деградацию оптических носителей. И если с повреждённого компакт-диска можно спасти хотя бы часть данных, то в случае «убитого» флеш-накопителя это чаще всего невозможно. Причём речь не только о «флешках», но и обо всех запоминающих устройствах на основе флеш-памяти — картах различных форматов, твердотельных накопителях, внутренней памяти смартфонов. Все они обладают одним крупным недостатком — ограниченным числом циклов перезаписи.
Что же в итоге? Все популярные носители не идеальны во многих отношениях (правда, «диагноз» у каждого вида свой) и не способны обеспечить долговременное хранение данных, уступая в этом отношении пятисотлетним средневековым пергаментам. А каким вообще должен быть носитель, приближённый к совершенству?
Требуем идеала Первейшее требование — энергонезависимость. Если удастся создать носитель, который сохраняет записанные данные без питания, то это радикально изменит архитектуру компьютеров, далёкую от совершенства. Судите сами: в первичной оперативной памяти (сюда можно отнести основную и видеопамять) хранятся текущие данные, пропадающие при отключении питания. Они загружаются из энергонезависимых устройств вторичной памяти — жёстких или оптических дисков, ПЗУ (постоянные запоминающие устройства) и флеш-драйвов — через шины с ограниченной пропускной способностью. А теперь представьте, что такого деления нет и весь установленный объём памяти доступен в любой момент, в том числе и при отключённом питании. Любые задержки с «прокачкой» данных через шины принципиально отсутствуют, то есть такие понятия, как загрузка операционной системы, гибернация и так далее, исчезнут вовсе: всё уже в рабочей памяти, ничего грузить не надо. Второе требование — скорость. Чем она выше, тем лучше, и этот тезис становится очевидным, если вспомнить нынешний «разнобой»: у кэш-памяти время доступа исчисляется наносекундами, основная динамическая память может «похвастаться» уже десятками наносекунд, а вот самые быстрые жёсткие диски в тысячу раз медленнее. Популярные сейчас вариации флеш-памяти при определённых условиях способны обойти «винчестеры» по скорости считывания, но в операциях записи показывают не слишком выдающиеся результаты. Поэтому появление недорогих и вместительных энергонезависимых устройств, способных обеспечить произвольный доступ за считаные наносекунды, без всяких сомнений, станет эпохальным событием. На годы и века Наконец — надёжность и долговечность хранения. Хорошо бы обеспечить хотя бы полвека гарантированной сохранности, иначе люди могут столкнуться с повторением эпопеи со спасением драгоценных данных, полученных в ходе выполнения многих космических миссий NASA, в том числе исследований Марса по программе «Викинг». Целых 10 лет после завершения программы магнитные ленты с марсианской информацией толком не обрабатывались, потому что специализированные программы для декодирования «сырых» данных с камер «Викингов» были выброшены вместе со старыми компьютерами. В конце 90‑х даже возник термин «цифровые тёмные века», смысл которого лучше всего объясняется в реплике знаменитого учёного и «гуру» информатики Винтона Сёрфа, бывшего вице-президента Google: «Старые форматы документов, созданных нами, могут не читаться на последних версиях программного обеспечения. И может произойти то, что даже если мы накопим обширные архивы цифрового контента, мы просто не узнаем, что в них». Классические компьютеры, основанные на кремниевой электронике, близки к принципиальному порогу производительности. Преодолеть его прежними способами — наращивая число транзисторов, умножая количество ядер, меняя редакции USB и охлаждая процессоры жидким гелием — невозможно.
На перепутье Работы по совершенствованию вычислительной техники можно условно разделить на три потока. В первом — разработчики, фактически сохраняя статус-кво, модифицируют уже существующие носители. Именно их работу оплачивает потребитель, регулярно меняя смартфоны, компьютеры и телевизоры без особой на то необходимости.
Во втором потоке ведутся работы более перспективные. Инженеры пытаются найти новые материалы и технологии, которые теоретически способны обеспечить ощутимый прирост ряда параметров, как то: энергопотребление, стоимость, производительность и прочие. Пожалуй, именно эта сфера щедрее всего поставляет читателям громкие заголовки о «революционных» разработках: органических процессорах, вечной голографической памяти, фотонных шинах передачи данных… Но, к большому сожалению, подавляющая часть этих заявлений остаётся пустым сотрясением воздуха.
И, наконец, немногочисленные «еретики» от информатики ищут абсолютно новые концепции построения вычислительных машин. Областью исследований стали довольно неожиданные для информатики квантовые и вероятностные принципы, фотоника и нелинейная оптика, нейробиология. И это далеко не окончательный список возможных доноров идей для следующего импульса развития вычислительной техники. Или это будет уже не техника?