Отправляет email-рассылки с помощью сервиса Sendsay
  Все выпуски  

Web Help - секреты программного обеспечения. #NEWS 3 (16.01.06)


Информационный Канал Subscribe.Ru

Дата: 16.01.06
C Web Help #NEWS 4
Подписчиков: 7223 + 4195
Всем привет! Вот и вышел в свет новый выпуск нашей рассылки. Очень бы попросил активнее высказываться по содержанию рассылки, что нравится, что не нравится. Мнения высказывать сюда. И ещё если у кого есть пришлите пожалуйста USB драйвер Simens C75 на этот адрес.
Навигация:     О авторах    www.kkkilll.pp.ru - АРХИВ РАССЫЛКИ

СТАТЬИ

Что нужно знать, выбирая ЖК монитор

В догонку предыдущей статье хотелось бы закончить тему ЖК мониторов статьёй, о том, что нужно знать, выбирая ЖК монитор

Время реакции, или время отклика пиксела, как правило, указывается в технической документации на монитор и считается одной из важнейших характеристик монитора. В ЖК-мониторах время реакции пиксела до сих пор измерялось десятками миллисекунд. Для статической картинки такое время реакции не критично, но если говорить о просмотре видео или динамической игре, то «инертность» пикселов приводит к смазанности границ и эффекту наложения кадров, то есть ко всему тому, что именуется артефактами. Всё это делает ЖК-мониторы малопригодными для игровых и мультимедийных ПК, которые используются, в том числе, и в качестве замены телевизору и бытовому DVD-проигрывателю. Да и сами ЖК-телевизоры, которых в последнее время расплодилось хоть отбавляй, выглядят на фоне этой проблемы не слишком эффектно.

Однако и прогрессивные умы человечества не стоят на месте. Надо сделать время реакции пиксела меньше – не вопрос, сделаем. Было бы финансирование и время. И видимо, было и то и другое. Ну а результат налицо – на рынке стали появляться новые модели ЖК-мониторов с рекордно низким на сегодняшний день временем реакции пиксела, составляющим 8, 4, 5 и даже 3 мс. Правда, вместе с указанием этого рекордно низкого времени производители мониторов стали указывать, что речь идёт не о банальном времени, к которому, надо сказать, все уже привыкли, а о новой методике измерения Gray-to-Gray (GTG).

Возможно, все дело именно в этой самой методике измерения и всё это не более чем маркетинговые уловки производителей? В этой статье мы попробуем детально разобраться, что представляет из себя новая методика измерения GTG и за счёт каких фокусов производители добиваются рекордно малого времени реакции пиксела.
 

Определимся с понятиями

Прежде чем продолжить наше повествование, давайте немного определимся с терминологией и, заодно, напомним основные принципы функционирования ЖК-мониторов. Впрочем, сразу оговоримся, что в этой статье мы не станем углубляться в подробности функционирования и особенности различных типов ЖК-матриц (благо, на эту тему написано уже немало, в том числе и на нашем сайте). Всё, что нас будет интересовать в дальнейшем – это инерционные свойства ЖК-пикселов. Поэтому для простоты мы будем в дальнейшем считать, что ЖК-монитор состоит из набора пикселов, каждый из которых, в свою очередь, состоит из трёх базовых субпикселов – красного, синего и зеленого. Цвет субпиксела формируется с помощью цветовых фильтров, и если не рассматривать эти фильтры, то все субпикселы абсолютно идентичны. Для того, чтобы получить произвольный цвет пикслела, базовые цвета субпикселов смешиваются в определенной пропорции. Чтобы получить нужную пропорцию базового цвета, нужно научиться менять яркость каждого субпиксела. Вот тут-то мы и подходим к понятию ЖК-ячейки, которая и отвечает за регулирование яркости субпиксела. В ЖК-ячейке жидкие кристаллы под воздействием приложенного к ячейке напряжения поворачиваются на определённый угол, что, в свою очередь (детали про поляризаторы и т.п. мы опускаем), позволяет регулировать количество света, формируемого лампами подсветки и проходящего через ЖК-ячейки. В современных цифровых мониторах напряжение, подаваемое на ЖК-ячейку, дискретно, и всего можно задать 256 (от 0 до 255) различных уровней напряжения, что, в свою очередь, определяет 256 различных углов поворота ЖК-молекул. Соответственно, каждый субпиксел может находиться в одном из 256 различных состояний, каждому из которых соответствует свой уровень яркости пиксела. В закрытом состоянии ЖК-ячейки она полностью непрозрачна, что соответствует чёрному цвету субпиксела, а в открытом состоянии ЖК-ячейка полностью прозрачна, что соответствует белому цвету (цветофильтры нас не интересуют). Все промежуточные яркости пиксела соответствуют различным градациям, или оттенкам, серого цвета (Gray Level, GL), поэтому в дальнейшем вместо яркости пиксела мы будем говорить о 256 градациях серого: от 0 (обозначается, как GL 0) до 255 (обозначается, как GL 255).

Информацию о требуемом цвете и яркости пиксела монитор получает от видеокарты. Далее в работу включается контроллер монитора, который определяет требуемый для этого GL-уровень каждого субпиксела и, просматривая собственную таблицу соответствия уровней серого и требуемых для этого напряжений, задаёт необходимое напряжение на каждом субпикселе (это, конечно, слишком упрощённая схема работы монитора, но, как мы уже говорили, подробности нас пока не интересуют). Задание напряжения на субпикселах происходит не в произвольные моменты времени, а синхронизированно с кадровой развёрткой. То есть в начале каждого кадра за относительно малый промежуток времени электроника монитора подаёт напряжения на все субпикселы ЖК-матрицы и до начала следующего кадра напряжение на субпикселах, а значит, и их яркость, не меняется.

Проблема, однако, заключается в том, что субпикселы достаточно инертны и не могут переключиться из одного состояния в другой мгновенно. Для поворота ЖК-молекул на требуемый угол требуется определённое время, причём это время измеряется десятками миллисекунд. Учитывая, что при частоте кадровой развёртки 60 Гц (типичная частота для ЖК-мониторов) длительность одного кадра составляет 16,7 мс, получается, что из одного состояния в другое пикселы не успевают переключать даже за время одного кадра. Если, к примеру, в каждом следующем кадре цвет и яркость пикселов не меняется (статическая картинка), то инертность пикселов не представляет большую проблему. Но вот если картинка на мониторе постоянно меняется, то в каждом следующем кадре пикселу будут присваиваться новые значения и цвета, и яркости. Вот тут-то и начинаются проблемы: пиксел ещё не успел переключить в требуемое состояние, а уже приходит команда на переключение в другое состояние.

Итак, минимальная информация, которая нам потребуется в дальнейшем, изложена, поэтому можно перейти к рассмотрению того, что понимают под временем реакции пиксела.
Стандартизированное время реакции пиксела (Black-White-Black)

Различают время включения и выключения пиксела. Под временем включения пиксела понимается промежуток времени, необходимый для открытия ЖК-ячейки (переход с GL 0-GL 255), а под временем выключения — промежуток времени, необходимый для закрытия ЖК-ячейки (переход GL 255-GL 0). Когда же говорят о времени реакции пиксела, то понимают суммарное время включения и выключения пиксела, то есть переход Black-White-Black (BWB).

Методика измерения времени реакции пиксела определяется стандартом ISO 13406-2. В этом же стандарте оговаривается, что под временем включения пиксела понимается время, необходимое для изменения яркости пиксела от 0 до 90% (а не от 0 до 100%), а под временем выключения пиксела понимается время, необходимое для изменения яркости пиксела от 100 до 0%.

Время включения пиксела и время его выключения могут существенно отличаться друг от друга. На рис. 1 показаны типичные временные диаграммы включения и выключения пиксела ЖК-матрицы.


Итак, стандартом ISO 13406-2 предусмотрено измерение времени реакции пиксела при переключениях между чёрным и белым цветами. Вопрос только в том, насколько адекватно время реакции пиксела, измеряемое по стандарту ISO 13406-2, отражает динамические характеристики монитора. Насколько корректно утверждать, что если время реакции пиксела для одного монитора составляет 20 мс, а для другого – 30 мс, то первый монитор лучше другого в том смысле, что он не приводит к образованию смазанной картинки?

В реальных приложениях переключение пиксела GL 0-GL 255 или GL 255-GL 0 встречается относительно редко. В большинстве приложений реализуются, как правило, переходы между полутонами (градациями серого). Но как будет меняться время реакции пиксела, если его измерять при переключении между различными полутонами? Оказывается, что для большинства ЖК-матриц время перехода между полутонами оказывается больше, чем время перехода между чёрным и белым цветами. Что же из этого следует? Как минимум, это означает, что заявляемое производителем время реакции пиксела по стандарту ISO 13406-2 не позволяет однозначно судить о динамических свойствах монитора. Ну, это мы, конечно, смягчили, а если всё называть своими именами, то время реакции пиксела, заявляемое производителями мониторов, не означает ровным счётом ничего и используется разве что чисто в маркетинговых целях.

Тогда возникает законный вопрос – если стандарт ISO 13406-2 не годится, то какая характеристика может использоваться для адекватной оценки динамических качеств монитора? Если более важным является время переключения между полутонами, то именно это время и надо рассматривать в качестве характеристики динамических свойств монитора. Однако количество возможных переходов между градациями серого, не много не мало, 256х256=65536. Конечно, все времена всех возможных переходов можно измерить, но что принять за результат? Печатать в технической документации таблицу времён переходов размером 256х256 – не слишком удачная идея. Однако можно использовать среднее время переключения между полутонами. Конечно, такая характеристика, как усреднённое время переключения между полутонами, не лишена недостатков, однако она куда более информативна и, если можно так выразиться, более правдива, чем время реакции пиксела, измеряемое по стандарту ISO 13406-2.

И несмотря на то, что стандартом не определена методика вычисления и измерения времени реакции пиксела между градациями серого, многие производители ЖК-мониторов стали отмечать в технической документации на свои мониторы именно среднее время переключения пиксела между градациями серого (Gray-to-Gray, GTG). Правда, отсутствие стандарта (он, кстати сказать, ожидается в 2006 году) порождает массу нюансов. К примеру, между какими градациями серого нужно измерять время перехода? Как вычислять среднее (среднее арифметическое или среднее геометрическое). В общем, вопросов больше, чем ответов и, как мы увидим в дальнейшем, это обстоятельство позволяет производителям трактовать время переключения GTG , как это им выгодно с маркетинговой точки зрения.

Итак, после описания двух различных методик измерения времени отклика ЖК-монитора вернёмся к главной теме нашей статьи, которая, если вы ещё не забыли, посвящена описанию тех фокусов, которые используются для получения сверхмалого времени отклика.

Технология ускорения времени реакции пиксела

Самое интересное заключается в том, что технология ускорения времени реакции пиксела реализована исключительно на уровне электроники ЖК-монитора и никак не затрагивает технологию производства самих ЖК-матриц. Поскольку время переключения пиксела из одного состояния в другое зависит от прикладываемого к ячейке напряжения, то можно ускорить время переключения, если в процессе самого перехода использовать напряжение больше или меньше (в зависимости от того, между какими уровнями серого реализуется переход), чем требуется (чем соответствует требуемому уровню серого).

Рассмотрим процесс переключения пиксела из состояния GL 1 в состояние GL 2  Пусть уровню GL 1 соответствует напряжение U 1, а уровню GL 2 – напряжение U 2 ( GL 2> GL 1, U 2> U 1). Время переключения в данном случае зависит от разницы напряжений U 1 и U 2.

Если требуется осуществить переход из состояния GL 1 в состояние GL 3, причём GL 3> GL 2, то для этого перехода потребуется и более высокий уровень напряжения U 3, но и время переключения станет меньше. А теперь попробуем объединить две ситуации воедино, то есть реализовать переход GL 1-GL 2, но за время перехода GL 1-GL 3. Этого можно достигнуть, если в течение времени длительности первого кадра подать на ячейку напряжение U 3 (больше, чем требуется), а в течение последующих кадров снизить это напряжение до требуемого уровня U 2. То есть идея заключается в том, чтобы первоначально более высоким импульсом напряжения форсировать поворот ЖК-молекул. Поскольку управляющее напряжение на ЖК-ячейке может меняться только с приходом каждого следующего кадра, длительность форсирующего (компенсирующего) импульса напряжения соответствует длительности одного кадра, а вот уровень этого компенсирующего напряжения подбирается таким образом, чтобы за время длительности одного кадра уровень яркости пиксела не превысил бы значения GL 2 (рис. 3). В противном случае возможно появление нежелательных артефактов.


Совершенно аналогично можно ускорить время переключения пиксела при переходе с более высокого уровня яркости GL 2 на менее высокий GL 1 (рис. 4). Для этого напряжение на ячейки в течение длительности одного кадра уменьшается до значения, меньшего, чем требуется для перехода GL 2-GL 1. При этом уровень компенсирующего напряжения подбирается таким образом, чтобы при уменьшении яркость пиксела не стала бы меньше требуемого значения GL 1.

Технология ускорения времени реакции пиксела получила название Response Time Compensation (RTC). Хотя, конечно, производители ЖК-мониторов, пытаясь выделится из общего ряда, используют собственные названия данной технологии, однако суть от этого не меняется.

Резюмируя вышеизложенное, можно сказать, что технология RTC позволяет уменьшить время переключения пиксела между градациями серого цвета, сократив его до времени длительности одного кадра. Кроме того, технология RTC принципиально не может повлиять на время переключения с чёрного на белый, равно как и с белого на чёрный цвета, и в этом смысле время реакции пискела, измеряемое как суммарное время переключения Black-White-Black, при использовании RTC-технологии не меняется. Отметим также, что если без использования технологии RTC время переключения пиксела между градациями серого цвета меньше времени длительности одного кадра, то технология RTC не только не может сократить время переключения, но, более того, её использование приведет к артефактам. Действительно, если время переключения GL 1-GL 2 (GL 2 > GL 1) без использования технологии RTC меньше, чем длительность одного кадра, то за время длительности одного кадра будет реализован переход GL 1-GL 2. При использовании технологии RTC для реализации перехода GL 1-GL 2 подаётся последовательность напряжений U 1-U 3-U 2. Тогда за время первого кадра пиксель успевает переключиться в состояние GL 3. После подачи напряжения U 2 во втором и последующих кадрах пиксель перейдёт в состояние GL 2. Таким образом, вместо требуемого перехода GL 1-GL 2 на самом деле реализуется переход GL 1-GL 3-GL 2. При этом в течение некоторого промежутка времени (часть первого кадра и часть второго кадра) пиксел будет «пересвечен», то есть его яркость будет выше требуемого уровня GL 2, что можно рассматривать как своего рода артефакт (рис. 5).

Вопрос о том, уменьшается ли при этом время переключения пискела, вообще-то говоря, неоднозначен. Дело в том, что уровень GL 2 достигается дважды: через время T 1 и через время T 2. Время T 1 соответствует достижению уровня GL 1 в первом кадре, то есть когда подано напряжение U 3, а время T 2 – во втором кадре, когда подано напряжение U 2. Остаётся лишь выяснить, какое из этих двух времён считать временем переключения пиксела. Понятно, что с точки зрения производителя выгоднее считать за время переключение пиксела именно время T 1, однако учитывая, что в промежутке T 2-T 1 мы имеем дело с «пересвечиванием» пиксела, то правильно считать за время переключения именно время T 2. Интересно отметить, что в данном случае технология RTC не только не способствует уменьшению времени переключения пискела, но и наоборот, приводит к его увеличению.

Как уже отмечалось, для корректной реализации технологии RTC необходимо, чтобы каждому переходу между градациями серого соответствовал бы свой уровень компенсирующего напряжения, подаваемого в первом кадре. Причём уровень компенсирующего напряжения зависит не только от уровня серого, на который происходит переход, но и от уровня серого, с которого происходит переход. Поэтому для реализации технологии RTC сигнальный процессор монитора должен иметь кадровый буфер, в котором хранится предыдущий кадр. При приходе нового кадра для каждого пикселя на основе предыдущего и требуемого уровней GL происходит расчёт требуемого уровня форсирующего напряжения. Для этого монитор содержит специальную таблицу Look-Up Table (LUT), в которой хранится соответствие между выходным уровнем серого (соответствующего форсированному импульсу напряжения) и уровнями серого предыдущего и текущего кадров.

Уловки производителей

Итак, после довольно подробного описания технологии RTC перейдём к рассмотрению реальных примеров её реализации. В качестве примера мы рассмотрим 19-дюймовый ЖК-монитор Samsung SyncMaster 970P на основе S-PVA матрицы.

Согласно технической документации, среднее время реакции пиксела для данного монитора составляет 6 мс (GTG). Причём главное, что в этом мониторе имеется чип RTA (Response Time Accelerator), который и реализует технологию RTC.

Ну что ж, перейдём от заявленных характеристик к реалиям. Для начала рассмотрим осциллограмму переключения пиксела для перехода GL 0-GL 200 (рис. 6).

На данной осциллограмме можно чётко выделить два уровня яркости пиксела: GL 0 и GL 200. Как видим, сформированный импульс напряжения, действующий на пиксел в течение 16,7 мс (времени длительности первого кадра), приводит к тому, что пискел достигает значения GL 200 уже через 14 мс. Ну что ж! Не так уж и плохо с точки зрения маркетинга, хотя, конечно, заявленными 6 мс тут и не пахнет. Впрочем, делать выводы ещё рано! Дело в том, что через 14 мс яркость пиксела не достигает, а пересекает значение GL 200, и некоторое время пиксел оказывается «пересвеченным», то есть с яркостью большей, чем GL 200. На протяжении следующих кадров яркость писела постепенно уменьшается до требуемого значения GL 200, достигая требуемого уровня только через 43 мс. Так и хочется спросить: «Где же правда, брат?» Всё-таки 14 и 43 мс – это далеко не одно и то же!

Ну а правда в том, что малое время переключения пиксела – это не что иное, как уловка производителя. Такой результат достигается за счёт «пересвечивания» пикселов, и довольно оригинального, но более чем спорного способа измерения времени переключения (благо, методика GTG не стандартизирована). То есть малое время отклика – это не что иное, как искусство измерения. Однако измерять время переключения пиксела можно и иначе. И если за время переключения принять время достижения (а не пересечения) уровня GL 200, то оно составит 43 мс. Как видим, на практике использование технологии RTC может не только не уменьшить время переключения пиксела, но и наоборот, увеличить его.

Впрочем, может мы поторопились с выводами? Действительно, можно ли делать выводы на основании рассмотрения всего одного перехода GL 0-GL 200! Что ж, дабы быть непредвзятыми, приведём осциллограммы переключения пиксела и для других переходов (рис. 7).


Наверное, комментарии в данном случае излишни – факты говорят сами за себя. Да! Можно мудрить с рекламными заявлениями, но вот обмануть осциллограф трудно. На этой же осциллограмме можно обнаружить и ещё один крайне интересный факт. Посмотрите на переход GL 0-GL 255, то есть на переключение пиксела с чёрного на белый цвет. Теоретически технология RTC не позволяет сократить время перехода GL 0-GL 255 просто потому, что уровню GL 255 и так соответствует максимальный уровень напряжения, и форсирующему импульсу напряжения просто неоткуда взяться. Но это только теоретически! Практика же говорит о другом. Как видим, даже для перехода GL 0-GL 255 имеется «пересвеченное» состояние пиксела. Но что же получается? Значит уровень GL 255, соответствующий белому цвету, на самом деле является оттенком серого? Означает ли это, что за счёт уменьшения цветового охвата монитора (уменьшения количества воспроизводимых цветов) производители добиваются уменьшения времени отклика даже при переключении с чёрного на белый цвета? Вопросов в данном случае больше, чем ответов.
 


AMD или Intel что предпочесть?

На протяжении всего 2005 года между компаниями Intel и AMD шла напряжённая борьба за лидерство на рынке. Что ж, пришла пора подвести итог и огласить победителя. Впрочем, результаты настолько очевидны, что вряд ли нуждаются в каких-либо комментариях. Если говорить о процессорах, то безоговорочную победу одержала компания AMD, чьи процессоры и производительнее, и дешевле, и имеют меньшее тепловыделение. Конечно, тут можно возразить и сослаться и на то, что всё зависит от параметров сравнения, и на возможность разной трактовки понятия производительности. Безусловно, можно найти приложение (и даже не одно), в которых процессоры Intel одержат верх над AMD, а, к примеру, Intel Pentium 4 670 во всех приложениях будет производительнее AMD Sempron. Речь, конечно же, пойдёт о сравнении процессоров, сопоставимых по цене. То есть, если сравнить производительность процессоров Intel и AMD, примерно одинаковых по стоимости, то, конечно же, производительность процессоров AMD будет выше. Топовые модели процессоров AMD (речь идет об игровых процессорах AMD Athlon 64 FX-55/57) также превосходят по производительности процессоры Intel, да и в сегменте бюджетных процессоров AMD лидирует.
Конечно же, говоря о превосходстве процессоров AMD над своими конкурентами, нужно сделать одну существенную оговорку. Речь ни в коей мере не идёт о существенном превосходстве, которое можно было бы заметить «невооружённым глазом». То есть мы с полной ответственностью может утверждать, что не найдётся такого приложения, в котором пользователь смог бы определить «на глазок», какой именно процессор – Intel или AMD – используется в системе (речь, конечно, идёт о сравнении сопоставимых процессоров). Поэтому когда говорят о превосходстве одних процессоров над другими, уместно вспомнить аналогию с соревнованиями, когда победитель неочевиден и определяется по фотофинишу.

Так что же действительно произошло на IT-рынке, что позволило вырваться вперёд компании AMD?

Король умер. Да здравствует король!
Чтобы ответить на этот непростой вопрос, давайте вспомним, что на протяжении всей истории развития процессоров семейства Intel Pentium 4 основным средством повышения производительности было наращивание тактовой частоты. Собственно, сама архитектура NetBurst, положенная в основу процессоров Intel Pentium 4, была изначально рассчитана на масштабирование по частоте. Фокус этой микроархитектуры заключался в беспрецедентно длинном конвейере, что, собственно, и позволяло наращивать тактовые частоты. И рецепт наращивания тактовой частоты служил верой и правдой в продолжение всей истории существования семейства процессоров Intel Pentium 4. Оптимизма в отношении тактовых частот было предостаточно, и уже проскальзывали прогнозы, что недалёк тот день, когда процессоры будут работать на частотах в 10 ГГц и более. Действительно, начав с частоты немногим более 1 ГГц, тактовая частота процессоров Intel Pentium 4 сначала преодолела рубеж в 2 ГГц, затем в 3 ГГц и стала упорно подходить к отметке в 4 ГГц.

Казалось бы, всё чудесно и нет никаких оснований сомневаться в том, что так же успешно будет преодолён рубеж в 4 и 5 ГГц. Но… С ростом тактовой частоты росла и потребляемая мощность процессоров, и, как следствие, тепловыделение. И даже переход с 130-нанометрового технологического процесса производства процессоров на 90-нанометровый не смог в полной мере решить всех проблем. По всей видимости, прогнозы компании Intel в отношении возможности преодоления проблемы токов утечки (именно возникающие токи утечки являются основной причиной повышения энергопотребления и тепловыделения процессоров) оказались ошибочны. Если точнее, то речь идёт не о принципиальной возможности решения проблемы токов утечки вообще, а о возможности решения данной проблемы без существенного удорожания процесса производства процессоров. То есть нет никаких оснований сомневаться том, что компания Intel знает рецепт, как сделать процессор с архитектурой NetBurst с низким энергопотреблением и, как следствие, с высокими тактовыми частотами, однако столь же очевидно, что это потребует существенного удорожания процесса производства, что сделает этот процессор неконкурентноспособным. Если же говорить о существующем технологическом процессе производства процессоров, то реалии таковы, что топовые модели процессоров Intel выделяют более 100 Вт теплоты, а тактовая частота процессоров замерла на отметке 3,8 ГГц.

В принципе, ничто не мешает создать (анонсировать) процессор с частотой и 4 ГГц, вопрос только в том, как его охлаждать. Существующие системы охлаждения (и воздушные, и водяные) находятся на пределе своих возможностей, и охладить систему с частотой 4 ГГц им просто не под силу. По большому счёту, даже современные процессоры Intel Pentium 4 с тепловыделением более 100 Вт нередко работают в режиме тепловой защиты, когда при достижении критической температуры тактирование ядра процессора приостанавливается на определённые промежутки времени, что позволяет процессору остыть. Из всего этого становится очевидным, что в рамках существующей микроархитектуры и технологического процесса производства процессоров дальнейшего увеличения тактовой частоты процессоров семейства Intel Pentium 4 ждать не приходится, и тактовая частота в 3,8 ГГц будет оставаться максимальной частотой ещё на протяжении длительного времени. Казалось бы, развитие архитектуры NetBurst зашло в тупик, наткнувшись на проблему тепловыделения. Конечно, после перехода на 65-нанометровых техпроцесс будет создан некий технологический запас по наращиванию тактовой частоты, но также очевидно, что камнем преткновения опять таки станет тепловыделение процессора и невозможность его охлаждения. В результате, скорее всего, тактовую частоту удастся повысить, возможно, даже до 5 ГГц, но в смысле прироста производительности это не так уж и много, и тратить миллиарды долларов на разработку нового техпроцесса производства ради прироста производительности всего на 20 – 30 % просто расточительно и нелогично.

Конечно, говорить о том, что наращивание тактовой частоты – это единственный рецепт увеличения производительности процессоров с архитектурой NetBurst, было бы не вполне корректно. С каждой новой версией процессорного ядра, то есть с переходом на новый техпроцесс производства процессоров, косметическим изменениям подвергалась и микроархитектура ядра. Так, длина конвейера постепенно увеличивалась за счёт добавления передаточных степеней Drive, что также способствовало возможности дальнейшего увеличения тактовой частоты. Кроме того, увеличивался и размер кэша L2, совершенствовались отдельный блоки процессора. Кроме того, в своё время архитектура NetBurst была дополнена технологией Hyper-Threading. Собственно, технология Hyper-Threading была заложена в процессоры Intel Pentium 4 изначально, однако по маркетинговым соображениям её анонсирование и разблокирование в процессорах было сделано лишь через три года после анонсирования самих процессоров этого семейства. Напомним, что основная задача технологии Hyper-Threading заключалась в том, чтобы по возможности ликвидировать негативные последствия супердлинного конвейера процессора Intel Pentium 4 и максимально его загрузить. Всё это также способствовало увеличению производительности процессора, но не решало главной проблемы – проблемы тепловыделения.

Когда стало очевидным, что дальнейший рост тактовой частоты процессоров семейства Intel Pentium 4 такими же темпами, как это было на заре развития архитектуры NetBurst, невозможен, в маркетинговом плане стали постепенно отходить от частоты. Первый шаг в этом направлении был сделан, когда из названия процессоров была убрана тактовая частота в явном виде, а на ей смену пришли порядковые номера процессоров. Объяснялась необходимость использования порядковых номеров процессоров вполне логично – ведь, кроме тактовой частоты, процессоры характеризуются такими параметрами, как частота FSB, размер кэша L2 и набор поддерживаемых технологий. И только все эти характеристики в совокупности определяют производительность процессора, а потому указание одной лишь тактовой частоты было бы некорректным. Более того, существуют процессоры с одной и той же тактовой частотой, но с разным размером кэша и набором поддерживаемых технологий. Кроме чисто практических соображений, введение порядковых номеров процессоров преследовало ещё одну очень важную маркетинговую цель – необходимо было отучить пользователей от сопоставления тактовой частоты процессора с его производительностью. Собственно, компания Intel стала бороться именно с тем, к чему так долго нас и приучала (а, по сути, стала исправлять свои же маркетинговые ошибки).

Поскольку главный козырь архитектуры NetBurst упёрся в проблему тепловыделения, а непополнение модельного ряда процессоров грозит потерей доли рынка, процессоры стали постепенно наделять различными функциональными возможностями. И в первую очередь – технологиями энергосбережения Enhanced Intel SpeedStep и технологиями теплового мониторинга Thermal Monitor и Thermal Monitor 2. Кроме того, появилась поддержка 64-битного расширения памяти (Intel EM64T), а также поддержка аппаратной защиты от вирусов Execute Disable Bit. Все эти технологии позволили компании Intel расширить модельный ряд процессоров семейства Intel Pentium 4, а вот насколько они реально востребованы – вопрос отдельный. По сути, технологии Intel SpeedStep, Thermal Monitor и Thermal Monitor 2 позволяют отчасти решать проблему тепловыделения процессоров, но за счёт снижения частоты и напряжения питания процессоров. Конечно, данные технологии востребованы, и без них топовые модели процессоров просто бы перегревались. В отношении востребованности технологий Intel EM64T и Execute Disable Bit всё очень просто. Много ли сейчас пользователей используют в своих компьютерах более 4 Гбайт памяти? А много ли найдётся пользователей, которые знают, что именно и где нужно настраивать, чтобы активировать или, наоборот, деактивировать технологию Execute Disable Bit? Думаем, что ответ вполне очевиден.

Кроме наделения процессоров различными функциональными возможностями и технологиями, компания Intel пересмотрела саму маркетинговую стратегию развития процессоров. И если ранее основным лейтмотивом развития процессоров была производительность, то теперь во главу угла поставлен тезис оптимизированной производительности, то есть производительности в расчёт на каждый ватт потребляемой электроэнергии.

Итак, если подвести итог всему вышеизложенному, то становится очевидным, что в настоящее время развитие архитектуры NetBurst подошло к своему логическому завершению. Была ли эта архитектура изначально ошибочной и насколько она смогла оправдать возложенные на неё надежды – вопрос отдельный. На наш взгляд, говорить об ошибочности архитектуры было бы неверно. Не стоит забывать о том, что эта технология верой и правдой служила компании Intel в течение пяти лет.

Но что же дальше? Тупик? Какой же тупик, если уже сейчас можно говорить об реинкарнации технологии NetBurst в двухъядерных процессорах семейства Intel Pentium D? Да, действительно, поняв невозможность эффективного масштабирования тактовой частоты процессоров, и компания Intel, и компания AMD стали говорить о возможности дальнейшего увеличения производительности процессоров за счёт перехода к двухъядерным и, в дальнейшем, многоядерным процессорам.

Действительно, переход к двухъядерной архитектуре процессоров позволяет повысить их производительность, но с одной оговоркой. Для этого требуется использовать приложения, которые бы могли хорошо распараллеливаться, то есть были изначально ориентированы на многопроцессорность. Пока таких пользовательских приложений немного, и ожидать существенного прироста производительности в большинстве случаев не приходится. Впрочем, есть и немало примеров того, когда двухъядерная архитектура процессоров положительно сказывается на росте производительности. К примеру, при одновременном использовании нескольких приложений, что становится нормой в офисной работе, работе дизайнеров, верстальщиков и т.д., то есть выгода от двухъядерных процессоров очевидна.

С другой стороны, если говорить о двухъядерных процессорах Intel Pentium D, сама по себе двухъядерность не решает главной проблемы архитектуры NetBurst – проблемы тепловыделения. К примеру, топовые двухъядерные процессоры семейства Intel Penium D имеют тепловыделение 130 Вт со всеми вытекающими отсюда негативными последствиями. Поэтому, если говорить об архитектуре NetBurst, то это действительно тупиковая ветвь развития.

Впрочем, в самой корпорации Intel тот факт, что неизбежно наступит момент, когда дальнейшее увеличение тактовой частоты упрётся в проблему тепловыделения, стал очевиден уже давно. Именно поэтому в недрах лабораторий корпорации Intel уже не первый год ведется разработка принципиально новой архитектуры процессоров следующего поколения, микроархитектуры, которая будет положена в основу как настольных, так и мобильных и серверных процессоров. Причём процессоры с новой микроархитектурой появятся уже в конце 2006 года, так что ждать осталось не так уж и долго. Ну а если говорить о дне сегодняшнем, его можно назвать переходным периодом и охарактеризовать как закат архитектуры NetBurst и рождение новой процессорной микроархитектуры. И в этот переходный период перевес будет находиться на стороне процессоров AMD. В чью пользу будет перевес после анонсирования новой процессорной микроархитектуры Intel – покажет время.

AMD: причины успеха
Итак, причина успеха компании AMD вполне понятна. Перевес в её пользу (только в смысле производительности процессоров) стал возможен на фоне того, что архитектура NetBurst подошла к своему логическому завершению, а новая архитектура, хотя и разработана, но ещё не родилась.

Казалось бы, именно сейчас, в этот переходный для компании Intel период, у компании AMD есть очень неплохие шансы для завоевания существенной доли рынка. Но не всё так просто. Если говорить о компании AMD, то её деятельность в двух словах можно кратко охарактеризовать так: отличные процессоры и абсолютно бездарный маркетинг. Собственно, говорить о какой-либо маркетинговой политике AMD вообще не приходится. Этой политики просто нет. Нет ни рекламы своих продуктов, ни продуманной политики по завоеванию рынка. Возможно, никакого маркетинга компании AMD действительно не нужно. Процессоры AMD и так пользуются спросом, повышать который ещё больше просто нет смысла. Не стоит забывать и о том, что у компании AMD всего две фабрики по производству процессоров, и производить больше того количества, которое выпускается на нынешний момент, компания просто не в состоянии. Поэтому не приходится говорить и о возможности существенного пересмотра доли рынка процессоров AMD.

С другой стороны, все те проблемы, с которыми уже сейчас столкнулась компания Intel, с неизбежностью ждут и компанию AMD. И хотя сама компания AMD никогда не преподносила рост тактовой частоты как рецепт увеличения производительности процессоров, она всегда ему следовала. Уже сейчас тактовая частота процессоров AMD для топовых моделей составляет 2800 МГц, а тепловыделение превысило рубеж 100 Вт. При попытке дальнейшего увеличения тактовой частоты возникнут проблемы с охлаждением процессора. Собственно, уже сейчас охладить топовые модели процессоров AMD – целая проблема, а учитывая, что в них отсутствует технология тепловой защиты (только режим аварийного отключения), нередко возникают проблемы зависания компьютеров из-за их перегрева.

Что именно планирует делать компания AMD, чтобы решить проблему тепловыделения процессоров, не вполне понятно. Во всяком случае, ни о какой разработке новой микроархитекутруры компания не заявляла. Да и рано пока думать о новой микроархитектуре. Ведь архитектура AMD64 ещё достаточно молода и её ещё надо окупить.

Конечно, у архитектуры AMD64 есть технологический запас по масштабированию тактовой частоты. Так, переход на 65-нанометровый техпроцесс производства, который по планам компании AMD произойдет в 2007 году, позволит и дальше наращивать тактовую частоту и, как следствие, производительность процессора. Однако 2007 год – это будущее. Если же говорить о дне сегодняшнем, то у AMD такая же тупиковая ситуация, как и у Intel – можно выпустить процессор с тактовой частотой и 3 ГГц, вопрос только в том, как его охлаждать. Более того, можно даже предположить, что компания AMD действительно так поступит и выпустит процессор AMD Athlon64 FX-59 с тактовой частотой 3 ГГц, но, скорее всего, это будет виртуальный процессор с баснословной ценой, который, во-первых, вряд ли можно будет купить (попробуйте сейчас купить на рынке процессор AMD Athlon64 FX-57), а если даже его и удастся купить, то охладить будет ох как непросто.

Что же остается делать компании AMD до того момента, когда произойдет переход на 65-нанометровый техпроцесс? Козыри в запасе у AMD, конечно же, имеются. К примеру, ничто не мешает добавить в процессоры поддержку памяти DDR2. Можно даже перейти на использование нового процессорного разъёма, как это в своё время сделала компания Intel, заменив разъём Socket 478 на LGA775. И если компания AMD последует этому примеру, начав выпуск процессоров в новой упаковке с разъёмом, к примеру, Socket M2 (это намек), то вот вам и ещё один модельный ряд процессоров. Можно даже дополнить процессоры новыми функциональными возможностями, например, технологиями тепловой защиты, технологиями виртуализации (аналог технологии Intel Vanderpool) и защиты данных (аналог технологии Intel LaGrand) Вообще, рецептов, как оттянуть время и при этом пополнять модельный ряд процессоров, у компании AMD предостаточно, тем более что «дорожка» уже протоптана и остаётся лишь следовать по ней.

Однако все эти рецепты не позволят решить AMD главной проблемы – проблемы тепловыделения. И что-то подсказывает, что после анонса новой процессорной микроархитектуры Intel баланс сил на рынке процессоров может существенно измениться в пользу последней. Если только не одно «но». Ещё один козырь, который имеется в запасе у AMD, – это партнёрство с таким гигантом, как IBM. Корпорация IBM достаточно закрытая, однако потенциал этой компании таков, что ожидать от неё можно чего угодно. Вполне может статься, что именно партнёрство с IBM в дальнейшем породит новую архитектуру процессоров AMD. Впрочем, пока это только наши домыслы.

Источник: ferra.ru
Автор Василий Леонов

 

 

~ О авторах ~
KKKILLL - администратор рассылки (идея, дизайн).   ICQ: 329-575-572

user3000 - ведущий рубрики #NEWS.   ICQ: 7555158
Sniper - ведущий рубрики #Security Zone.

Предложения, пожеланиия, замечания об ошибках и всё остальное - пишите СЮДА


© Ruzone team ©
Киселёвск 2004-2006
N


Subscribe.Ru
Поддержка подписчиков
Другие рассылки этой тематики
Другие рассылки этого автора
Подписан адрес:
Код этой рассылки: comp.soft.others.office
Архив рассылки
Отписаться Вебом Почтой
Вспомнить пароль

В избранное