| ||
Будущее архитектуры x86Алексей Смирнов "IT'S REALLY going to be a monster.You haven't seen anything yet with Merced." Конъюнктура high tech сегодняО кризисе мировой индустрии информационных технологий говорят уже достаточно давно (смотри, например, статью "И это пройдет..." в мартовском номере), тут вам и снижение темпов роста продаж новой техники, и отсутствие новых оригинальных идей, а также физические и технологические ограничения, накладываемые на минимальный размер полупроводникового транзистора. Кажется, что скоро придется выкидывать ставшие уже привычными и родными персоналки на Wintel-платформе, и покупать новехонький, поблескивающий на солнце полупрозрачным корпусом, дивной формы, "суперкомпьютер". В качестве это блестящего вычислительного "супермонстра" люди видят то квантовый компьютер, то нейрокомпьютер, а то и некое чудо, построенное с использованием нанотехнологии. Что же, возможно, когда-нибудь так и будет, даже скорее наверняка, но вот случится это не сегодня и не завтра, поэтому списывать со счетов PC еще рано. Судите сами, если верить бодрым заявлениям Intel, у корпорации есть технологический задел для перевода всего производства на 0,09 мкм техпроцесс уже в 2003 году, а к концу десятилетия они обещают 0,065 мкм техпроцесс и частоты вплоть до 10-20 гигагерц. Есть куда расти, даже не сразу можно вспомнить задачи, которым могут потребоваться столь значительные мощности. Конечно, конкурирующие технологии тоже не стоят на месте, например, фирме IBM в 2001 году удалось в лабораторных условиях создать семикубитовый квантовый компьютер для факторизации чисел, но решенная им задача вряд ли способна поразить воображение (компьютер верно определил, что делителями числа 15 являются числа 5 и 3, если вообще можно назвать "компьютером" пробирку с огромным числом однотипных молекул, специальное устройство для их программирования с помощью электромагнитных импульсов разной частоты и сканер ядерно-магнитного резонанса для считывания информации). С нейрокомпьютером дела тоже обстоят не очень хорошо. После длительного обучения нейросеть отлично справляется с прогнозированием курса акций, сносно - с распознаванием сложных образов и задачами искусственного интеллекта, но совершенно не годится для многих чисто вычислительных задач (например, таких как построение 3D-моделей, игры, текстовые редакторы, математические задачи и т.д.). Наиболее близко к продвижению в массовое потребление стоит нанотехнология, но и ей на это потребуется явно не меньше десяти лет. И хоть десять лет - ничтожный срок для истории, для компьютерной индустрии это достаточно длительный отрезок времени. Тем более компьютер, построенный с использованием новой технологии, в отличие от квантового и нейро-чуда, будет все тем же, традиционным, привычным нам компьютером, только работающим на другой элементной базе - внешних изменений никаких, даже процессор будет внешне так же выглядеть и в привычную материнскую плату вставляться. Кризис x86?Но чем же тогда вызван гул голосов, говорящих про тупик развития Wintel-платформ? Ведь, как отмечает Сергей Ярошенко в статье "И это пройдет", сейчас все чаще авторы статей обращаются к истории развития и наиболее значимым достижениям отрасли, пытаясь остановиться, оглянуться назад и найти путь выхода из наметившегося кризиса. Попробуем разобраться, почему это происходит. Действительно, многим уже давно заметно явное снижение темпа роста производительности центральных процессоров семейства х86 по отношению к увеличению их сложности. Раньше поколения процессоров менялись приблизительно каждые 3 года, причем каждое новое поколение предоставляло пользователям огромное количество нововведений и дополнительных возможностей. 286 процессор дал защищенный режим работы, возможность многозадачности и виртуальную память, 386 - 32-битный режим, расширенные возможности многозадачности (режим виртуального 8086 процессора), 486 -встроенный сопроцессор и новые команды работы со встроенным кэшем. Дальше начались небольшие заминки, количество транзисторов в процессорах росло, частота тоже увеличивалась, росла и производительность, но далеко не пропорционально частоте работы и сложности процессора (табл. 1). Так, Pentium (P5) и 486, работая на одной и той же частоте, по производительности отличались приблизительно в два раза, а по количеству транзисторов в три! Добавление команд ММХ и увеличение размера кэша при переходе от P5 к P5MMX сменой поколений назвать нельзя, да и на увеличении производительности это сказалось слабо (5-10% процентов на неоптимизированных приложениях и 10-20% на приложениях, использующих команды MMX). Все же процессоры PII, PIII, Celeron и так далее, являлись небольшими вариациями ядра P6, появившегося в 1995 году в лице процессора Pentium Pro. И что заметно, при переходе от Pentium Pro ко второму поколению количество транзисторов увеличилось на 40 процентов, а производительность почти не изменилась! Еще хуже выглядит ситуация при сравнении процессоров PIII и PIII Coppermine. Эти процессоры практически ничем не отличаются, недаром Intel называет Coppermine всего лишь, как PIII с префиксом E. Единственное отличие - перемещение кэша второго уровня на кристалл процессора. Кэш на скорость выполнения вычислений, как известно, не влияет, он призван устранять слабые места платформы, коими в случае x86 являются скорость чтения и записи в память. Поэтому и производительность системы при переходе от PIII к Coppermine увеличивается слабо, а вот сложность процессора возрастает почти в три раза!!! И вот, просуществовав пять лет, старое ядро P6 заменяется фирмой Intel на новое. В 2001 году перед нашими очами предстает PIV, и что? Очередное увеличение количества транзисторов в полтора раза наталкивает на мысль, что при работе на одинаковой частоте с PIII Coрpermine он окажется во столько же раз быстрее. Но, нет. Увы! Вы удивитесь, но он будет работать даже медленнее, вот вам и прогресс. В чем же слабость?Очевидно, что существует какой-то фактор, преграда, сдерживающая дальнейший рост производительности, и такой преградой, как мне кажется, может являться морально устаревшая архитектура x86-совместимых процессоров. Ведь изначально это семейство процессоров зарождалось в середине восьмидесятых, тогда о возможностях и, главное, о задачах, стоящих перед современными вычислительными машинами, даже и не подозревали. Поэтому первые модели микропроцессоров проектировались как однозадачные устройства, то есть одновременно на таких процессорах могла выполняться только одна программа, соответственно и набор команд даже не предусматривал возможностей их параллельного выполнения. Они имели переменную длину операндов, и на выполнение каждой команды затрачивалось различное количество тактов. Первые микропроцессоры (8088 и 8086) в среднем на выполнение одной операции тратили 12 тактов. А самое главное, процессор имел очень мало регистров общего назначения (всего 8). Концепция двоичной совместимости "снизу-вверх", благодаря которой wintel-платформа и стала популярной, не позволяла изменять старую систему команд, можно было только добавлять новые, таким образом, все рудименты старых процессоров перекочевали в новые. Со временем стала развиваться идея конвейеризации вычислений, а потом и суперскалярности. Конвейер известен давно, со времен Генри Форда, но о его реализации в PC можно говорить лишь начиная со времени появления 486 процессора, хотя сама концепция Форда почти не претерпела изменений. Конвейерные микропроцессоры выполняют команды подобно сборочной линии: полная обработка каждой инструкции занимает несколько тактов, но, разбивая процесс на несколько этапов, и начиная выполнение следующей команды сразу вслед за тем, как предыдущая команда пройдет первый этап, можно быстро выдать несколько завершенных команд. Ядро же суперскалярных процессоров состоит из нескольких исполнительных блоков (конвейеров), что позволяет выполнять одновременно несколько операций на каждом из них. Понятно, что поскольку разное время выполнения команд препятствует их одновременному исполнению, то обстоятельство, что две команды очень часто оперируют с одними и теми же регистрами (а это из-за малого количества регистров случается очень и очень часто), еще больше усложняло ситуацию. С этим нужно было бороться, и с этим боролись. Для борьбы с регистровой взаимозависимостью в процессорах, начиная с P6, используется так называемое отображение регистров. При отображении регистров происходит преобразование программных ссылок на архитектурные регистры в ссылки на 40 физических регистров микрокоманд, реализованных в буфере восстановления последовательности. По существу, процессор "клонирует" ограниченное число программируемых архитектурных регистров и отслеживает, какие клоны содержат наиболее поздние значения. Это предотвращает задержки, которые в противном случае были бы внесены в процесс обработки команд с взаимозависимостями в результате конфликтующих обращений к регистрам. Для улучшения параллельной обработки все х86-команды дешифраторами разбиваются на более простые RISC-подобные микрокоманды, которые уже могут выполняться не в том порядке, который предполагает программный код, а более быстрым, оптимизированным способом. Простые дешифраторы обрабатывают команды x86, транслируемые в единственную микрокоманду. Сложный дешифратор работает с командами, которым соответствуют от одной до четырех микрокоманд. Некоторые особенно сложные команды невозможно непосредственно декодировать даже сложным дешифратором, поэтому они передаются в планировщик последовательности микрокоманд, генерирующий необходимое число микрокоманд. Если простой дешифратор встречает команду, которая не поддается трансляции, то она передается в сложный дешифратор либо в планировщик последовательности микрокоманд. Такая пересылка слегка замедляет дешифрацию, но, за счет буферизации, не очень значительно сказывается на производительности. Как мы видим, сейчас разработчики процессоров стремятся создавать чипы, содержащие как можно больше функциональных узлов - что позволяет обрабатывать больше команд параллельно - но одновременно им приходится существенно усложнять управляющие цепи для распределения потока команд по обрабатывающим узлам. На данный момент лучшие процессоры не могут выполнять более четырех команд одновременно, при этом управляющая логика занимает слишком много места на кристалле. В то же время, последовательная структура кода программ и большая частота ветвлений делают задачу распределения потока команд крайне сложной. Современные процессоры содержат огромное количество управляющих элементов для того, чтобы минимизировать потери производительности, связанные с ветвлениями, и извлечь как можно больше "скрытого параллелизма" из кода программ. Они изменяют порядок команд во время исполнения программы, пытаются предсказать, куда необходимо будет перейти в результате очередного ветвления, и выполняют команды до вычисления условий ветвления. Если путь ветвления предсказан неверно, процессор должен сбросить полученные результаты, очистить конвейеры и загрузить нужные команды, что требует достаточно большого числа тактов. Таким образом, процессор, теоретически выполняющий четыре команды за такт, на деле выполняет менее двух. Проблему еще осложняет тот факт, что микросхемы памяти не успевают за тактовой частотой процессоров. Когда Intel разработала архитектуру х86, процессор мог извлекать данные из памяти с такой же скоростью, с какой он их обрабатывал. Сегодня процессор тратит сотни тактов на ожидание загрузки данных из памяти, даже несмотря на наличие большого и быстрого кэша. Мы пойдем другим путемВсе слабости устаревающего семейства, заметные сейчас, давно уже стали очевидны его прародителям - инженерам фирмы Intel, не такие уж они недальновидные и самонадеянные. Поэтому почти ровно восемь лет назад, в июле 1994, Intel и Hewlett-Packard объявили о совместном исследовательском проекте, целью которого было создание более совершенных технологий в сфере "рабочих станций конца десятилетия, серверов и информационно-вычислительных продуктов масштаба предприятия". Проект включал разработку "архитектуры 64-разрядного набора команд" и оптимизирующих компиляторов. Около трех лет понадобилось двум микропроцессорным гигантам для выбора основных концепций и идей, которые будут реализованы в предполагаемом семействе процессоров будущего (Intel называет это семейство Explicitly Parallel Instruction Computing или EPIC (Вычисления с Явной Параллельностью Инструкций, где "явной" означает явно указанной при трансляции)). Причем каждая фирма сконцентрировалась на создании собственного микропроцессора: основные силы Intel были брошены на разработку первенца, а HP сосредоточилась на более долгосрочной перспективе - процессоре McKinley, который должен был через пару лет сменить детище Intel. А уже в октябре 1997 года фирма Intel объявила, что производство Merced, первого представителя нового семейства 64-разрядных микропроцессоров, начнется в 1999 году по 0.18-микронному технологическому процессу. Новый процессор должен был обладать следующими чертами: Несмотря на все сложности разработки и реализации новой архитектуры, со значительной задержкой (больше, чем на полтора года) и уже под именем Itanium этот процессор все же появился на свет. Intel выполнила свои обещания, процессор предстал именно таким, каким его и описывал Джон Крафорд (John Crawford) в 1997 году на Микропроцессорном форуме в Сан-Хосе. С этого момента стало совершенно очевидно, что Intel настроена очень серьезно по отношению к будущему семейству микропроцессоров, а значит, будет вкладывать огромные средства на перевод всей индустрии PC на новый стандарт. Ни для кого не секрет, что обычно таким способом ей удается претворять в жизнь даже не самые лучшие, но выгодные для нее технологические решения. Не избежит своей участи и семейство EPIC-процессоров, поэтому стоит рассказать о нем поподробней. EPIC, подробностиПредставители Intel и HP называют EPIC концепцией следующего поколения и противопоставляют ее CISC и RISC. Основное отличие EPIC состоит в том, что команды IA-64 упаковываются (группируются) компилятором в "связку" длиною в 128 pазpядов. Связка содержит 3 команды и шаблон длиной в несколько бит, в котором указываются зависимости между командами (можно ли с первой командой запустить параллельно вторую, или же вторая команда должна выполниться только после первой), а также между другими связками (можно ли с командой три из первой связки запустить параллельно команду четыре из второй связки). Одна такая связка, состоящая из трех команд, соответствует набору из трех функциональных устройств процессора. Процессоры IA-64 могут содержать разное количество таких блоков, оставаясь при этом совместимыми по коду. Ведь благодаря тому, что в шаблоне указана зависимость и между связками, процессору с N одинаковых блоков из трех функциональных устройств будет соответствовать командное слово из N*3 команд (N связок). Таким образом, должна обеспечиваться масштабируемость IA-64. Несомненно, это очень красивая концепция. Другая, не менее красивая концепция, использующаяся в EPIC-процессорах, - это технология "отмеченных команд", новый способ обрабатывать условные ветвления. Суть этого способа заключается в том, что компилятор указывает, что обе ветви выполняются на процессоре параллельно. Ведь EPIC-процессоры должны иметь много функциональных устройств. Обычно компилятор транслирует оператор ветвления, который в среднем встречается через каждые шесть команд, в блоки машинного кода, расположенные последовательно в потоке. В зависимости от условий ветвления процессор выполняет один из этих блоков и перескакивает через остальные. Современные процессоры стараются предсказать результат вычисления условий ветвления и предварительно выполняют предсказанный блок. При этом, в случае ошибки, много тактов тратится впустую. Такая структура кода делает крайне сложным его параллельное и быстрое выполнение. Когда компилятор для IA-64 находит оператор ветвления в исходном коде, он исследует ветвление, определяя, стоит ли его "отмечать". Если такое решение принято, компилятор помечает все команды, относящиеся к одному пути ветвления, уникальным идентификатором, называемым предикатом. Например, путь, соответствующий значению условия ветвления TRUE, помечается предикатом Рr1, а каждая команда пути, соответствующего значению условия ветвления FALSE - предикатом Рr2. Система команд EPIC-процессоров на данный момент позволяет одновременно работать с 64 предикатами. После того как команды "отмечены", компилятор определяет, какие из них могут выполняться параллельно. Поскольку каждый путь ветвления заведомо не зависит от других, какое-то "количество параллелизма" почти всегда будет найдено. Разумеется, в какой-то момент процессор, наконец, вычислит значение условия ветвления. После этого он завершает выполнение команд, соответствующих правильной ветви, результат остальных команд сбрасывается. Механизм загрузки по предположению предназначен для снижения простоев процессора, связанных с ожиданием выполнения команд загрузки из относительно медленной основной памяти. Цель предварительной загрузки - разделить собственно загрузку и использование данных. Как и в технологии "отмеченных команд", здесь также сочетается оптимизация на этапе компиляции и на этапе выполнения. Компилятор перемещает команды загрузки данных из памяти так, чтобы они выполнились как можно раньше. Следовательно, когда данные из памяти понадобятся какой-либо команде, процессор не будет простаивать. Перемещенные таким образом команды называются командами загрузки по предположению и помечаются особым образом. А непосредственно перед командой, использующей загружаемые по предположению данные, компилятор вставит команду проверки предположения. Иногда попытка оказывается неудачной - например, команда, требующая данные, находится после ветвления, условия которого еще не вычислены. "Обычный" процессор тут же генерирует исключение. IA-64 откладывает генерацию исключения до того момента, когда встретит соответствующую команду проверки загрузки. Но к этому времени условия ветвления, вызывавшего исключение, уже будут вычислены. Как мы видим, основная особенность EPIC та же, что и VLIW - распараллеливанием потока команд занимается компилятор, а не процессор. Достоинства данного подхода: Недостатки: Альтернативный путь, ответ IBMНе менее известная, и не менее влиятельная, чем Intel, фирма IBM тоже давно осознала назревшее противоречие и предложила свой выход из ситуации. Подход, выбранный IBM, кардинально отличается от предложений HP и Intel. Возникшие разногласия по поводу наиболее эффективной архитектуры носят принципиальный характер: отличия проистекают уже из исходных посылок разработчиков - из того, какие особенности современных микропроцессоров становятся тормозом повышения их производительности. В процессорах EPIC заложена идея распараллеливания на уровне команд (так называемый ILP - Instruction Level Parallelism), в то время как IBM предлагает обеспечить высокую эффективность распараллеливания на более высоких аппаратных уровнях, чем ILP, поэтому особое внимание при разработке нового процессора Power4 было обращено на построение классических SMP-систем. Вместо того чтобы создавать один сверхсложный микропроцессор с очень высоким ILP (как это делается в EPIC), в Power4 предложена идея CMP (Сhip MultiProcessing) - мультипроцессирование внутри микросхемы. В соответствии с этим подходом, в микросхеме располагается не один, а два процессора, но гораздо более простых. Можно сказать, что в микросхеме Power4 интегрирована SMP-система. Кроме того, в Power4 обеспечивается поддержка высокоскоростных портов для шин, связывающих процессоры разных микросхем. Стремление расположить на микросхеме сразу два процессора имеет еще одно дополнительное основание - в более простых процессорах логические блоки оказываются ближе друг к другу, что уменьшает время распространения сигнала, а это особенно существенно на высоких тактовых частотах. Аналогом архитектуры "двух процессоров на микросхеме" можно считать двухкластерную систему. "Молоток" от AMD - EPIC killer? Сейчас же ситуация, если не коренным образом, то достаточно сильно изменилась: AMD находятся в довольно интересном положении: с одной стороны, они выпустили самый быстрый микропроцессор на рынке x86-систем, с другой стороны, Athlon имеет очень маленький потенциал "разгона", он сильно греется и не в состоянии победить PIV в гонке за частотой (косвенно об этом говорит тот факт, что AMD снова начала маркировать свои процессоры по так называемому P-рейтингу, а не по реальной тактовой частоте). В маркетинговом отношении AMD обязательно нужно предложить что-то новое в ответ на инициативы Intel и HP. В то же время они недостаточно велики, чтобы потеснить Intel, и достаточно уважаемы на рынке, чтобы предложить новый путь развития индустрии. Понятно, что протолкнуть полностью новую (несовместимую с x86) архитектуру на рынок AMD не способна. Кроме того, ей совершенно бессмысленно это делать - она не претендует на место паровоза, тянущего за собой все индустрию. Поэтому и взгляд AMD на технологию перехода к 64-битной архитектуре коренным образом отличается от интеловского. Это уже не соревнование между двумя компаниями, это два различных пути развития. Сейчас AMD хочет поступить так же, как когда-то поступала Intel, предлагая переход от 16-битной к 32-битной архитектуре, получив таким образом то, что они назвали x86-64. Преимущества такого подхода ясны - вам не придется приносить в жертву свои 32-разрядные программы, вы получите наилучшую производительность в 32-битном режиме, какую только может предложить AMD, и при этом совместимость с 64-разрядным кодом, и все в одном ядре. На этой технологии основан новый процессор AMD - K8, имеющий кодовое название SledgeHammer ("молот, кувалда"). Как следует из заявлений Фреда Вебера (Fred Weber), вице-президента AMD по разработкам: "С x86-64 вы получаете все преимущества 64-битной архитектуры и полную совместимость с x86 без потери производительности". AMD уже опубликовали материал по архитектуре x86-64, позволяющий программистам начать разработки обеспечения для этой платформы. 64-битное расширение набора инструкций x86 добавляет существенное количество новшеств в 32-битный режим работы x86. Самым главным является наличие 8 новых регистров общего назначения шириной 64 бита, 64-битный способ адресации памяти и, конечно, 64-битные регистры и указатель команд. В дополнение к 8 новым регистрам общего назначения, архитектура x86-64 расширяет существующие регистры до 64 бит, как в свое время i386 расширила 16-битные регистры до 32 бит (рис. 1). Чего нам ждать?Давать прогнозы - дело неблагодарное: если они сбываются, все считают, что исход был очевиден заранее практически каждому, если же нет, то все готовы закидать вас камнями и объявить недальновидным и некомпетентным. Но все же, прогнозирование - наиболее интересное и зачастую полезное занятие, так как оно помогает дистанцироваться от сегодняшнего дня, и посмотреть на проблему шире и полнее. Тем более оно интересно, что вопрос о будущем компьютерной индустрии далеко не праздный, ответ на него важен, как для пользователей PC, так и для программистов. Первым желательно знать, какую технику покупать сейчас, чтобы в недалеком будущем не пришлось выбрасывать ее на помойку, вторым - на какую платформу ориентировать разрабатываемый продукт (рис. 2). Итак, в силу высказанных уже предпосылок, рассматривать Power4 как серьезного конкурента в борьбе за будущее господство на рынке desktop-систем, я думаю, не имеет смысла (хотя, чем черт не шутит). Остаются две конкурирующие и взаимоисключающие концепции: EPIC и x86-64. Intel со своим Itanium вышла на рынок 64-битных систем два года назад, сейчас же она представила процессор второго поколения McKinley. В отличие от нынешнего Itanium, работающего с тактовой частотой до 800 МГц, с 64-разрядной шиной данных и 32 Кб кэша L1, 96 Кб кэша L2, 48 Мб внешнего кэша L3, McKinley состоит из 221 млн транзисторов, тактовые частоты начинаются с 1 ГГц, шина данных с тактовой частотой 100 МГц (эффективные 400 МГц) является 128-разрядной, 3 Мб кэша L3 перебрались на чип. AMD, в свою очередь, обещает представить первые образцы K8 только через полгода, поэтому выигрыш во времени, естественно, у Intel. За эти два года она значительно продвинулась как в разработке компиляторов под новое семейство, так и обкатке EPIC-совместимых 64-битных операционных систем и технологии в целом, а также в стимулировании перекомпиляции или написании новых прикладных программ, пользующихся преимуществом EPIC. K8, к моменту своего выхода, будет не свободен от детских болезней роста и при этом преимуществами x86-64 будет использовать ничтожно малое число продуктов. Да и преимущества, предоставляемые x86-64 по сравнению с традиционным x86, незначительны, поэтому революционного прироста производительности ожидать не стоит - все, что действительно ускорит работу, - это наличие дополнительных регистров. Учитывая высокую скорость загрузки данных из кэша первого уровня, а также существенный уровень суперскалярности современных x86-процессоров, можно прогнозировать очень небольшой прирост производительности, по крайней мере, для распространенных алгоритмов. Плюс 10-25% - это все, на что мы можем рассчитывать. Конечно, K8 сможет обращаться к значительно большим объемам памяти, чем, скажем, его предшественник K7, но многие ли будут устанавливать в свои машины больше 64 Гигабайт оперативной памяти (а именно с таким объемом может работать PII, используя 36-битную адресацию). Но и у K8 есть огромные преимущества перед всем семейством EPIC-процессоров - совместимость со старым программным обеспечением. В Itanium и McKinley она практически полностью программная, а значит, очень медленная. В K8 сохранена полная бинарная совместимость со всеми 16- и 32-битными ОС, и 64-битные данные и код могут быть использованы совместно с 32/16-битными. Характерный пример: адаптация компиляторов и *NIX ОС для этой архитектуры произошла мгновенно, и практически без проблем, а значит, также просто будут перекомпилироваться и остальные программы. Следующий аргумент - цена. Пока у Itanium она слишком высока для настольных систем - около 1000 долларов, а у McKinley она будет еще выше, так как очень высока себестоимость кристалла с 220 млн транзисторов. Про цену "молотка" пока ничего не известно, но я сомневаюсь, что она окажется выше 300-400 долларов, так как Hammer более прост в производстве. Не менее важный фактор - операционные системы. Уэйн Крон (Wayne Krone), менеджер по разработке HP-UX для Itanium/McKinley, в своем докладе осветил вопросы поддержки 64-разрядных процессоров со стороны ОС. По его словам, сегодня существуют и развиваются 64-разрядные версии трех ОС - Windows 2000 64-bit Edition, Linux/Itanium и HP-UX. Первая из них обладает теми же возможностями, что и стандартная 32-разрядная Windows 2000 (плюс поддержка до 16 TB памяти), и может выполнять 32-битовые приложения с иcпользованием особого режима Windows on Windows 64 (WOW 64). В марте 1998 года был запущен проект Trillian по переводу Linux на платформу Itanium, в результате чего появилась версия Linux с 64-разрядными ядром и средой пользователя, способная также выполнять 32-разрядные приложения. Особое внимание уделялось HP-UX - "родной" для Hewlett-Packard операционной системе, которая сегодня является единственной из существующих на рынке, работающей на платформе IA-64 в полнофункциональном режиме (production mode), - и путям миграции пользователей с PA-RISC на Itanium-систем. Понятно, что наиболее полно использовать ресурсы, предоставляемые EPIC-процессорами, будет можно только под HP-UX, что наверняка не понравится консервативным пользователям. Да и сам подход Intel к EPIC-процессорам говорит о том, что компания пока не собирается продвигать их на рынок настольных систем. По крайней мере, не собиралась до аннонсирования AMD x86-64. Теперь, возможно, положение дел изменится. Посмотрим на текущие планы Intel: ее "роудмэп" включает процессоры Madison, Deerfield, Montecito - все они 64-битные. Madison - переход на 0,13 мкм будет осуществлен в 2003 году с Madison, где будет использоваться умопомрачительный объем L3 кэша в 6 Мб, интегрированных на ядро. Madison будет совместим по контактам с McKinley. Deerfield - также базируется на 0,13 мкм техпроцессе, однако L3-кэш у него будет меньше, чем у Madison. Позиционироваться процессор будет на "бюджетный" IA-64 рынок, отсюда будут поддерживаться только двухпроцессорные конфигурации. Deerfield также появится в 2003 году. Montecito - в 2004 году мы увидим первый 0,09 мкм IA-64 процессор от Intel. Про него пока мало что известно, разве что следует упомянуть улучшенную архитектуру при полной программной/платформенной совместимости с McKinley и Madison/Deerfield. Пока Intel сможет отделаться малой кровью, лишь повышая частоту своего PIV. Но все равно, до появления бюджетного Deerfield, у AMD будет маркетинговый козырь - наличие 64-битного режима, которым она не преминет воспользоваться. В ближайшие два-три года AMD ждет большой рост продаж, но тупиковый путь развития так и останется тупиковым, и двигаться по нему слишком долго нельзя. Я думаю, это понимают и инженеры из AMD, и x86-64 для них лишь временный вариант, уверен, в тиши лабораторий они уже корпят над новым, принципиально новым семейством. Так ли это - покажет время. А кто же победит в этой борьбе: Intel или AMD - не так уж важно, в конечном итоге победим мы с вами, имея альтернативу выбирать из двух лучшее. Источник: "Компьютер Price", http://www.comprice.ru
| ||
Copyright © "Internet Zone", http://www.izcity.com/, info@izcity.com |