Процессоры. Процессоры Intel Pentium4 LGA775 Процессоры intel пентиум 4

4 считается самой удачной по сравнению с другими модификациями производителя, ведь в течение многих лет работы она доказала право на своё существование. В данной статье читатель сможет узнать, чем же так хороши эти процессоры, узнает их технические характеристики, а тестирование и отзывы помогут потенциальному покупателю определиться с выбором на рынке компьютерных комплектующих.

Гонка за частотами

Как показывает история, поколения процессоров сменялись одно за другим благодаря гонке производителей за частотами. Естественно, внедрялись также новые технологии, но они были не на первом плане. И пользователи, и производители понимали, что настанет день, когда эффективная частота процессора будет достигнута, и это случилось после появления четвёртого поколения Intel Pentium. 4 GHz - частота работы одного ядра - стала пределом. Кристаллу для работы требовалось слишком много электроэнергии. Соответственно, и рассеиваемая мощность в виде колоссального тепловыделения ставила под сомнение работу всей системы.

Все последующие модификации а также аналоги конкурентов стали производиться в пределах 4 ГГц. Тут уже вспомнили про технологии с использованием нескольких ядер и внедрение специальных инструкций, которые способны оптимизировать работу по обработке данных в целом.

Первый блин комом

В сфере высоких технологий монополия на рынке ни к чему хорошему привести не может, в этом уже убедились многие производители электроники на собственном опыте (диски DVD-R были заменены на DVD+R, а ZIP-дисковод вообще канул в Лету). Однако компании Intel и Rambus решили всё-таки хорошо заработать и выпустили совместный многообещающий продукт. Так на рынке появился первый Pentium 4, который работал на Socket 423 и на очень высокой скорости общался с оперативной памятью Rambus. Естественно, многие пользователи пожелали стать владельцами самого быстрого компьютера в мире.

Стать монополистами на рынке двум компаниям помешало открытие двухканального режима памяти. Проведённые тестирования новинки показали колоссальный прирост производительности. Новой технологией тут же заинтересовались все производители компьютерных комплектующих. А первый процессор Pentium 4 вместе с сокетом 423 стал историей, ведь производитель не обеспечил платформу возможностью модернизации. На данный момент комплектующие под эту платформу востребованы, как оказалось, ряд государственных предприятий успели закупить сверхбыстрые компьютеры. Естественно, замена комплектующих на порядок дешевле полного апгрейда.

Шаг в правильном направлении

У многих владельцев персональных компьютеров, которые не играют в игры, а предпочитают работать с документацией и просматривать мультимедиа контент, до сих пор установлен Intel Pentium 4 (Socket 478). Миллионы тестов, проведённых профессионалами и энтузиастами, показывают, что мощности данной платформы достаточно для всех задач рядового пользователя.

Данная платформа использует две модификации ядер: Willamette и Prescott. Судя по характеристикам, отличия между двумя процессорами незначительные, в последней модификации добавлена поддержка 13 новых инструкций для оптимизации данных, получивших краткое название SSE3. Частотный диапазон работы кристаллов находится в пределах 1,4-3,4 ГГц, что, по сути, и удовлетворяет требования рынка. Производитель рискнул ввести дополнительную ветку процессоров под сокет 478, которые должны были привлечь внимание любителей игр и оверлокеров. Новая линейка получила название Intel Pentium 4 CPU Extreme Edition.

Преимущества и недостатки 478 сокета

Судя по отзывам ИТ-специалистов, процессор Intel Pentium 4, работающий на платформе 478 сокета, является до сих пор довольно востребованным. Не каждый владелец компьютера может позволить себе модернизацию, которая требует приобретения трёх базовых комплектующих (материнская плата, процессор и оперативная память). Ведь для большинства задач, для улучшения производительности всей системы достаточно установить более мощный кристалл. Благо вторичный рынок ими переполнен, ведь процессор намного долговечнее той же материнской платы.

И если производить апгрейд, то внимание нужно уделить самым мощным представителям в данной категории Extreme Edition, которые до сих пор показывают достойные результаты в тестах на производительность. Недостатком мощных процессоров под является большая рассеиваемая мощность, которая требует хорошего охлаждения. Поэтому к расходам пользователя добавится и необходимость приобретения достойного кулера.

Процессоры по низкой цене

Читатель однозначно сталкивался на рынке с моделями процессоров Intel Pentium 4, имеющих в маркировке надпись Celeron. По сути - это младшая линейка устройств, которая обладает меньшей мощностью за счёт уменьшения инструкций и отключения блоков внутренней памяти микропроцессора (кэш). Рынок Intel Celeron нацелен на пользователей, которым прежде всего важна цена компьютера, а не его производительность.

Среди пользователей бытует мнение, что младшая линейка процессоров является отбраковкой в процессе производства кристаллов Intel Pentium 4. Истоком данного предположения является ажиотаж на рынке в далёком 1999 году, когда группа энтузиастов доказала общественности, что Pentium 2 и его младшая модель Celeron являются одним и тем же процессором. Однако за прошедшие годы ситуация в корне изменилась, и производитель имеет отдельную линию по выпуску недорогого устройства для нетребовательных покупателей. К тому же нельзя забывать о конкуренте AMD, который претендует на то, чтобы вытеснить компанию Intel с рынка. Соответственно, все ценовые ниши должны быть заняты достойной продукцией.

Новый виток эволюции

Многие специалисты в области компьютерных технологий считают, что именно появление на рынке процессора Intel Pentium 4 Prescott открыло эпоху устройств с несколькими ядрами и завершило гонку за гигагерцами. С появлением новых технологий производителю пришлось перейти на сокет 775, который и помог раскрыть потенциал всех персональных компьютеров в работе с ресурсоёмкими программами и динамическими играми. По статистике, более 50% всех компьютеров на планете работают на легендарном разъёме Socket 775 от компании Intel.

Появление процессора Intel привело к ажиотажу на рынке, ведь производитель на одном ядре умудрился запустить два потока инструкций, создав прообраз двухъядерного устройства. Технология получила название Hyper-threading и на сегодня является передовым решением при производстве самых мощных кристаллов в мире. Не останавливаясь на достигнутом, компания Intel презентовала технологии Dual Core, Core 2 Duo и Core 2 Quad, которые на аппаратном уровне имели по несколько микропроцессоров на одном кристалле.

Двуликие процессоры

Если ориентироваться на критерий «цена-качество», то в фокусе однозначно окажутся процессоры с двумя ядрами. Их низкая себестоимость и отличная производительность дополняют друг друга. Микропроцессоры Intel Pentium Dual Core и Core 2 Duo являются самыми продаваемыми в мире. Их основное отличие между собой в том, что последний имеет два физических ядра, которые работают независимо друг от друга. А вот процессор Dual Core реализован в виде двух контроллеров, которые установлены на одном кристалле и их совместная работа неразрывно связана между собой.

Частотный диапазон устройств, имеющих два ядра, немного занижен и колеблется в пределах 2-2,66 ГГц. Вся проблема - в рассеиваемой мощности кристалла, который сильно греется на повышенных частотах. Примером служит вся восьмая линейка Intel Pentium D (D820-D840). Именно они получили первыми два раздельных ядра и рабочие частоты свыше 3 ГГц. Потребляемая мощность этих процессоров составляет в среднем 130 Вт (в зимнее время вполне приемлемый обогреватель комнаты для пользователей).

Перебор с четырьмя ядрами

Новинки с четырьмя ядрами Intel(R) Pentium(R) 4 явно были рассчитаны на пользователей, которые предпочитают приобретать комплектующие с большим запасом на будущее. Однако рынок программного обеспечения вдруг остановился. Разработка, тестирование и внедрение приложений производится для устройств, имеющих одно или два ядра максимум. А как же быть с системами, состоящими из 6, 8 и более микропроцессоров? Обычный маркетинговый ход, ориентированный на потенциальных покупателей, которые желают приобрести сверхмощный компьютер или ноутбук.

Как с мегапикселями на фотоаппарате - лучше не тот, где написано 20 Мп, а устройство с большей матрицей и фокусным расстоянием. А в процессорах погоду делает набор инструкций, которые обрабатывают программный код приложения и выдают результат пользователю. Соответственно, программисты должны этот самый код оптимизировать так, чтобы микропроцессор его быстро и без ошибок обрабатывал. Так как слабых компьютеров на рынке большинство, то разработчикам выгодно создавать нересурсоёмкие программы. Соответственно, большая мощность компьютера на данном этапе эволюции не нужна.

Владельцам процессора Intel Pentium 4 желающим произвести модернизацию с минимальными затратами, профессионалы рекомендуют посмотреть в сторону вторичного рынка. Но для начала нужно выяснить технические характеристики установленной в системе материнской платы. Сделать это можно на сайте производителя. Интересует раздел «поддержка процессоров». Далее в средствах массовой информации необходимо найти и, сравнив с характеристиками материнской платы, выбрать несколько достойных вариантов. Не помешает изучить отзывы владельцев и ИТ-специалистов в СМИ по выбранным устройствам. После чего можно заняться поиском необходимого процессора, бывшего в употреблении.

Для многих платформ, поддерживающих работу микропроцессоров с четырьмя ядрами, рекомендуется устанавливать Intel Core Quad 6600. Если система умеет работать только с двухъядерными кристаллами, то стоит поискать серверный вариант Intel Xeon или инструмент для оверлокера Intel Extreme Edition (естественно, под сокет 775). Их стоимость на рынке находится в пределах 800-1000 рублей, что на порядок дешевле любого апгрейда.

Рынок мобильных устройств

Помимо стационарных компьютеров, процессоры Intel Pentium 4 устанавливались также на ноутбуки. Для этого производителем была создана отдельная линейка, которая в своей маркировке имела букву «М». Характеристики мобильных процессоров были идентичны стационарным компьютерам, однако частотный диапазон явно был занижен. Так, самым мощным среди процессоров для ноутбуков считается Pentium 4M 2,66 ГГц.

Однако с развитием платформ в мобильных версиях всё так напутано, что сам производитель Intel до сих пор не предоставил дерево развития процессоров на своём официальном сайте. Используя 478-контактную платформу в ноутбуках, компания изменяла лишь технологию обработки процессорного кода. В результате, на одном сокете удалось развести целый "зоопарк" процессоров. Самым популярным, по статистике, принято считать кристалл Intel Pentium Dual Core. Дело в том, что это самое дешёвое устройство в производстве, и его рассеиваемая мощность ничтожно мала по сравнению с аналогами.

Гонка за энергосбережением

Если для процессором мощность не является для системы критичной, то для ноутбука ситуация кардинально меняется. Тут устройства Intel Pentium 4 были вытеснены менее энергозависимыми микропроцессорами. И если читатель познакомится с тестами мобильных процессоров, то он увидит, что по производительности старый Core 2 Quad из линейки Pentium 4 не сильно отстаёт от более современного кристалла Core i5, а вот энергопотребление последнего в 3,5 раза меньше. Естественно, такое различие сказывается на автономности работы ноутбука.

Проследив за рынком мобильных процессоров, можно обнаружить, что производитель снова вернулся к технологиям прошлого десятилетия и начинает активно устанавливать во все ноутбуки продукты Intel Atom. Только не нужно их сравнивать с маломощными процессорами, устанавливаемыми на нетбуки и планшеты. Это совершенно новые, технологичные и очень производительные системы, имеющие на борту 2 или 4 ядра и способные принять участие в тестировании приложений или игр наравне с кристаллами Core i5/i7.

В заключение

Как видно из обзора, легендарный процессор Intel Pentium 4, характеристики которого претерпели изменений за многие годы, не только имеет право на сосуществование с новыми линейками производителя, но и успешно конкурирует в сегменте «цена-качество». И если речь идёт об апгрейде компьютера, то перед совершением важного шага стоит понять, есть ли смысл менять шило на мыло. В большинстве случаев, особенно когда речь идёт о производительных играх, профессионалы рекомендуют произвести модернизацию заменой видеокарты. Также многие пользователи не знают, что слабым звеном компьютера в динамических играх является жёсткий магнитный диск. Замена его на SSD-накопитель способна увеличить производительность компьютера в несколько раз.

Относительно мобильных устройств ситуация несколько другая. Работа всей системы сильно зависима от температуры внутри корпуса ноутбука. Понятно, что мощный процессор в пиковых нагрузках приведёт к торможениям или полному отключению устройства (много негативных отзывов этот факт подтверждают). Естественно, при покупке ноутбука для игр нужно уделить внимание экономичности процессора в плане энергопотребления и достойного охлаждения всех комплектующих.

Серия процессоров Intel Pentium 4 является наиболее удачной, если сравнивать с другими модификациями разработчика, так как на протяжении многих лет работы было доказано право на ее существование. В представленной статье можно узнать о том, чем отличаются данные процессоры, ознакомиться с их техническими характеристиками.


Благодаря результатам проведенного тестирования и отзывам можно определиться с выбором.

Гонка за частотами

Поколения процессоров постоянно сменяются одно за другим за счет гонке разработчиков за частотами. Конечно, появились и новые технологии, однако были не на первом плане. Таким образом, не только пользователи, но и производители прекрасно понимали, что в один прекрасный день будет достигнута эффективная частота процессора. Это произошло после выхода в свет четвёртого поколения Intel Pentium.

Частота функционирования одного ядра в 4 GHz стала пределом. Это произошло по той причине, что кристаллу для работы необходимо было много электроэнергии. Таким образом, рассеиваемая мощность в форме колоссального тепловыделения поставила под сомнение функционирование всей системы. Дальнейшие модификации процессоров Intel и аналоги соперников стали производиться в районе 4 ГГц. Следует также упомянуть про технологии, в которых использовалось нескольких ядер, а также о внедрении специальных инструкций, способных оптимизировать работу по обработке данных.

Первый блин комом

В области высоких технологий монополия на рынке не привела ни к чему хорошему. Это подтверждают многочисленные производители электроники, которые смогли убедиться в этом на собственном опыте. Но компании Intel и Rambus приняли решение хорошо заработать. В результате был выпущен совместный продукт, подающий большие надежды. Таким образом, свет увидел первый процессор Intel Pentium 4, работающий на Socket 423 и на достаточно высокой скорости общался с оперативной памятью Rambus. В результате многие пользователи захотели стать обладателями этого быстрого компьютера. Правда, эти две компании так и не стали монополистами на рынке.

Этому стало помехой открытие двухканального режима памяти. Результаты проведенного тестирования показали высокий прирост производительности. Таким образом, новой технологией сразу заинтересовались все разработчики компьютерных комплектующих. А Что касается первого процессора Pentium 4, он и сокет 423 стали историей, так как производителем не была обеспечена платформа возможностью модернизации. На сегодняшний день комплектующие под данную платформу являются востребованными. Оказывается, несколько государственных предприятий закупили сверхбыстрые компьютеры. Таким образом, замена комплектующих несколько дешевле полного апгрейда.

Шаг в правильном направлении

Большинство обладателей персональных компьютеров, играющих в игры и предпочитающих работать с документацией и смотреть мультимедиа контент, имеют установленный Intel Pentium 4 (Socket 478). Многие тесты, которые были проведены профессионалами и энтузиастами, свидетельствуют о том, что мощности этой платформы вполне хватает для выполнения всех задач, поставленных перед рядовым пользователем. Такая платформа задействует две модификации ядер:

Willamette;
Prescott.

Их характеристики свидетельствуют о том, что отличия между двумя процессорами небольшие. Последняя модификация предусматривает поддержку 13 новых инструкций, предназначенных для оптимизации данных, которые получили краткое название SSE3. Частотный диапазон функционирования кристаллов пребывает в промежутке 1,4-3,4 ГГц, что вполне удовлетворяет требования рынка. Разработчик пошел на риск и ввел дополнительную ветку процессоров под сокет 478. Данные устройства должны были привлечь внимание ценителей игр и оверлокеров. Новая серия стала называться Intel Pentium 4 CPU Extreme Edition.

Плюсы и минусы 478 сокета

Отзывы ИТ-специалистов свидетельствуют о том, что процессор Intel Pentium 4, который функционирует на платформе 478 сокета, до сих пор считается востребованным. Далеко не каждый пользователь может позволить себе модернизацию, требующую покупки трёх базовых комплектующих. Стоит отметить, что для решения многих задач, предназначенных для улучшения производительности всей системы, стоит просто установить более мощный кристалл. Хорошо, что вторичный рынок ими переполнен, так как процессор долговечнее даже материнской платы.

Если разрабатывать апгрейд, первостепенное внимание следует уделить наиболее мощным представителям этой категории Extreme Edition, которые сегодня показывают высокие результаты при проведении проверки на производительность. В качестве минусов процессоров под Socket 478 стоит выделить рассеиваемую мощность, требующую достойного охлаждения. Таким образом, к расходам пользователя добавляется и потребность покупки достойного кулера.

Процессоры по низкой стоимости

Наверняка, многие пользователи сталкивались с моделями процессоров Intel Pentium 4, представленными на рынке. Они имеют в маркировке надпись Celeron. Данные устройства являются младшей линейкой агрегатов, которые обладают меньшей мощностью благодаря уменьшению инструкций, а также отключения блоков внутренней памяти микропроцессора (кэш). Intel Celeron предусмотрен для пользователей, которым важна в первую очередь стоимость компьютера, а не его производительность. Многие владельцы подобных устройств высказывают мнение, что младшая линейка процессоров считается отбраковкой в ходе производства кристаллов Intel Pentium 4.

Это предположение возникло на рынке в 1999 году, когда некоторые энтузиасты доказали, что Pentium 2 и его младшая модель Celeron представляют собой один и тот же процессор. Правда, за прошлые годы ситуация сильно изменилась. Теперь разработчик обладает отдельной линией по выпуску сравнительно дешевого устройства, предназначенного для нетребовательных покупателей. Кроме того, стоит помнить о том, что существует еще конкурент AMD, претендующий на вытеснение компании Intel с рынка. Таким образом, все ценовые ниши должны быть заняты высококачественной продукцией.

Новый виток эволюции

Большинство специалистов, работающих в области компьютерных технологий, имеют мнение, что именно возникновение на рынке процессора Intel Pentium 4 Prescott ознаменовало начало эпохи устройств с несколькими ядрами, а также завершило гонку за гигагерцами. С внедрением новых технологий разработчику потребовалось перейти на сокет 775, который и позволил раскрыть потенциал персональных компьютеров в работе с программами и динамическими играми, нуждающимися в больших объемах ресурсов.

Данные статистики свидетельствуют о том, что более 50% всех устройств, существующих на планете, способны работать на легендарном разъёме Socket 775, представленном компанией Intel. Выход процессора Intel Pentium D вызвал ажиотаж на рынке, так как у разработчика на одном ядре получалось запустить два потока инструкций, создавая тем самым прообраз двухъядерного устройства.

Данная технологи стала называться Hyper-threading. На сегодняшний день она является передовым решением в процессе производства кристаллов, обладающих высокой мощностью. Не стала останавливаться на достигнутом компания Intel и презентовала технологии Dual Core, Core 2 Duo и Core 2 Quad, имеющие на аппаратном уровне по несколько микропроцессоров на одном кристалле.

Двуликие процессоры

Если взять ориентир на критерий «цена-качество», то в преимуществе оказываются процессоры, имеющие два ядра. Они отличаются такими важными характеристиками, как низкая себестоимость и высокая производительность. Микропроцессоры Intel Pentium Dual Core и Core 2 Duo считаются наиболее продаваемыми в мире. Основное отличие заключается в том, что последний обладает двумя физическими ядрами, работающими независимо друг от друга. Что касается процессора Dual Core, он выполнен в виде двух контроллеров, установленных на одном кристалле, совместная работа которых неразрывно связана между собой.

Правда, частотный диапазон устройств, обладающих двумя ядрами, слегка занижен и находится в промежутке 2-2,66 ГГц. Основная проблема заключается в рассеиваемой мощности кристалла. Он довольно сильно нагревается на повышенных частотах. В качестве примера можно привести восьмую линейку Intel Pentium D (D820-D840). Они первыми получили два раздельных ядра, а также рабочие частоты, превышающие 3 ГГц. Потребляемая мощность данных процессоров достигает около 130 Вт.

Перебор с четырьмя ядрами

Усовершенствованные устройства, имеющие четыре ядра ядрами Intel(R) Pentium(R) 4 были рассчитаны на потребителей, которые стремятся приобрести комплектующие с запасом на будущее. Но рынок программного обеспечения вдруг остановился. Таким образом, разработка, тестирование, а также внедрение приложений осуществляется для оборудования, которые имеют одно или два ядра максимум. Что же делать с системами, которые обладают 6, 8 и более микропроцессорами?

Это обыкновенный маркетинговый ход, который ориентирован на потенциальных покупателей, желающих приобрести компьютер или ноутбук самой высокой мощности, существующей в мире. Можно провести аналогию с мегапикселями на фотоаппарате – лучшим оказывается не тот, на котором написано 20 Мп, а устройство с большей матрицей и фокусным расстоянием. В процессорах значение имеет набор инструкций, обрабатывающиеся программным кодом приложения. Они и выдают результат пользователю.

Таким образом, программисты должны оптимизировать этот ход, чтобы микропроцессор его без проблем и с высокой скоростью мог обработать. Стоит отметить, что слабых компьютеров на рынке много, поэтому производителям становится выгодно разрабатывать нересурсоёмкие программы. Из этого можно сделать вывод, что большая мощность компьютера на этом этапе эволюции не требуется.

Советы по модернизации

Обладателям процессора Intel Pentium 4 (775 сокет), которые хотят провести модернизацию с минимальными затратами, рекомендуется посмотреть в сторону вторичного рынка. Сначала необходимо ознакомиться с техническими характеристиками материнской платы, установленной в системе. Совершить это легко на официальном сайте разработчика. Там следует найти раздел «поддержка процессоров». Затем в средствах массовой информации нужно отыскать таблицу производительности процессоров, а после этого сравнить ее с характеристиками материнской платы, отобрав несколько оптимальных вариантов. Также необходимо изучить отзывы по выбранным устройствам.

Затем предлагается приступить к поиску требуемого процессора, который уже был в употреблении. Для большинства платформ, где осуществляется поддержка работы микропроцессоров с четырьмя ядрами, желательно устанавливать Intel Core Quad 6600. Когда система способна работать лишь с двухъядерными кристаллами, следует найти серверный вариант Intel Xeon или инструмент, предназначенный для оверлокера Intel Extreme Edition. Их цена на рынке пребывает в промежутке 800-1000 рублей, что значительно дешевле любого апгрейда.

Рынок мобильных устройств

Кроме стационарных компьютеров, процессоры Intel Pentium 4 могут быть установлены на ноутбуки. Для этого разработчики предусмотрели отдельную линейку, которая в собственной маркировке содержала букву «М». Что касается характеристик мобильных процессоров, они были аналогичны стационарным компьютерам. Правда, наблюдался заниженный частотный диапазон. Таким образом, наибольшей мощностью среди процессоров для ноутбуков обладает Pentium 4M 2,66 ГГц. Хотя, с развитием платформ в мобильных версиях настолько все напутано, что даже сам разработчик Intel до сегодняшнего дня не предоставил дерево развития процессоров на собственном официальном сайте.

С применением 478-контактной платформы в ноутбуках компания изменяла только технологию обработки процессорного кода. Как результат, на одном сокете получается развести множество процессоров. Наибольшей популярностью, о чем свидетельствуют данные статистики, пользуется кристалл Intel Pentium Dual Core. Стоит отметить, что он является самым дешёвым устройством в производстве, а его рассеиваемая мощность достаточно мала, если сравнивать с аналогами.

Гонка за энергосбережением

Следует заметить, что для компьютеров потребляемая процессором мощность не считается критичной для системы. В ситуации с ноутбуком дело обстоит несколько иначе. В данном случае устройства Intel Pentium 4 вытеснены менее энергозависимыми микропроцессорами. Если пользователь ознакомится с тестами мобильных процессоров, он сможет убедиться, что по производительности старый Core 2 Quad, входящий в линейку Pentium 4, не особо отстаёт от современного кристалла Core i5. Что касается энергопотребления последнего, оно в 3,5 раза меньше. Таким образом, различие отражается на автономности работы устройства. Если проследить за рынком мобильных процессоров, легко определить, что разработчик снова вернулся к технологиям, которые были популярны в прошлом десятилетии.


Казалось бы не так уж и давно вышел Pentium 4 2,8 ГГц, но неугомонная компания Intel видать настолько горда способностью своего нового процессорного ядра к постоянному «разгону», что не дает нам покоя анонсами все новых и новых процессоров:). Однако сегодняшний наш герой отличается от предыдущей топовой модели не только на 200 с небольшим мегагерц — то, о чем давно мечтали некоторые особо продвинутые пользователи, наконец-то свершилось: технология эмуляции двух процессоров на одном процессорном ядре, ранее бывшая достоянием лишь сверхдорогих Xeon, наконец-то «освобождена» и отправлена в «свободное десктопное плавание». Хотите двухпроцессорный домашний компьютер? Их есть у нас! Все последующие модели Pentium 4, начиная с рассматриваемой в этом материале, будут обладать поддержкой Hyper-Threading. Однако кто-то может вполне резонно поинтересоваться: «А зачем мне двухпроцессорная машина дома? У меня же не сервер какой-нибудь!». И действительно — зачем? Именно это мы и постарались объяснить ниже. Итак: Hyper-Threading — что это такое и зачем он может быть нужен в обычных персональных компьютерах?

SMP и Hyper-Threading: «галопом по европам»

Для начала, давайте сделаем вид, что начинаем «с чистого листа» т. е. механизмы функционирования многопроцессорных систем нам неизвестны. Мы не собираемся начинать данной статьей цикл монографий, посвященных этому вопросу:), поэтому сложных моментов, связанных, к примеру, с виртуализацией прерываний и прочими вещами, трогать не будем. Фактически, нам нужно просто представлять как работает классическая SMP(Symmetric Multi-Processor)-система с точки зрения обычной логики. Нужно это хотя бы потому, что не так уж велико количество пользователей, хорошо себе представляющих как работает SMP-система, и в каких случаях от использования двух процессоров вместо одного можно ожидать реального увеличения быстродействия, а в каких — нет. Честное слово, один из авторов этого материала как-то угробил часа полтора времени, доказывая своему, скажем так, «не бедному» другу, что Unreal Tournament у него на многопроцессорной машине будет работать ничуть не быстрее, чем на обычной:). Смешно? Уверяю вас — только со стороны. Итак, представим, что у нас есть, к примеру, два процессора (остановимся на этом, самом простом примере) вместо одного. Что это нам дает?

В общем-то… ничего. Потому что в дополнение к этому нам нужна еще и операционная система, умеющая эти два процессора задействовать. Система эта должна быть по определению многозадачной (иначе никакого смысла в наличии двух CPU просто быть не может), но кроме этого, ее ядро должно уметь распараллеливать вычисления на несколько CPU. Классическим примером многозадачной ОС, которая этого делать не умеет, являются все ОС от Microsoft, называемые обычно для краткости «Windows 9x» — 95, 95OSR2, 98, 98SE, Me. Они просто-напросто не могут определить наличие более чем одного процессора в системе… ну и, собственно, дальше объяснять уже нечего:). Поддержкой SMP обладают ОС этого же производителя, построенные на ядре NT: Windows NT 4, Windows 2000, Windows XP. Также в силу своих корней, этой поддержкой обладают все ОС, основанные на идеологии Unix — всевозможные Free- Net- BSD, коммерческие Unix (такие как Solaris, HP-UX, AIX), и многочисленные разновидности Linux. Да, к слову — MS DOS многопроцессорность в общем случае тоже «не понимает»:).

Если же два процессора все же определились системой, то дальнейший механизм их задействования в общем-то (на «логическом», подчеркнем, уровне!) довольно-таки прост. Если в данный момент времени исполняется одно приложение — то все ресурсы одного процессора будут отданы ему, второй же будет просто простаивать. Если приложений стало два — второе будет отдано на исполнение второму CPU, так что по идее скорость выполнения первого уменьшиться не должна вообще никак. Это в примитиве. Однако на самом деле все сложнее. Для начала: исполняемое пользовательское приложение у нас может быть запущено всего одно, но количество процессов (т. е. фрагментов машинного кода, предназначенных для выполнения некой задачи) в многозадачной ОС всегда намного больше. Начнем с того, что сама ОС — это тоже приложение… ну и не будем углубляться — логика понятна. Поэтому на самом деле второй CPU способен немного «помочь» даже одиночной задаче, взяв на себя обслуживание процессов, порожденных операционной системой. Опять-таки, к слову об упрощениях — именно так, идеально, разделить CPU между пользовательским приложением и ОС, конечно, все равно не получится, но, по крайней мере, процессор, занятый исполнением «полезной» задачи, будет меньше отвлекаться.

Кроме того, даже одно приложение может порождать потоки (threads), которые при наличии нескольких CPU могут исполняться на них по отдельности. Так, например, поступают почти все программы рендеринга — они специально писались с учетом возможности работы на многопроцессорных системах. Поэтому в случае использования потоков выигрыш от SMP иногда довольно весо м даже в «однозадачной» ситуации. По сути, поток отличается от процесса только двумя вещами — он во-первых никогда не порождается пользователем (процесс может запустить как система, так и человек, в последнем случае процесс = приложение; появление потока инициируется исключительно запущенным процессом), и во-вторых — поток умирает вместе с родительским процессом независимо от своего желания — к примеру, если родительский процесс «глюкнул и упал» — все порожденные им потоки ОС считает бесхозными и «прибивает» уже сама, автоматически.

Также не стоит забывать, что в классической SMP-системе оба процессора работают каждый со своим кэшем и набором регистров, но память у них общая. Поэтому если две задачи одновременно работают с ОЗУ, мешать они друг другу будут все равно, даже если CPU у каждой «свой собственный». Ну и наконец последнее: в реальности мы имеем дело не с одним, не с двумя, и даже не с тремя процессами. На приведенном коллаже (это действительно коллаж, потому что со скриншота Task Manager были удалены все пользовательские процессы, т. е. приложения, запускаемые «для работы») хорошо видно, что «голая» Windows XP, сама по себе, не запустив еще ни одного приложения, уже породила 12 процессов, причем многие из них к тому же еще и многопоточные, и общее количество потоков достигает двухсот восьми штук (!!!).

Поэтому рассчитывать на то, что нам удастся прийти к схеме «по собственному CPU на каждую задачу» совершенно не приходится, и переключаться между фрагментами кода процессоры будут все равно — и физические, и виртуальные, и будь они хоть виртуальные в квадрате и по 10 штук на каждое физическое ядро:). Впрочем, на самом деле все не так грустно — при грамотно написанном коде ничего в данный момент не делающий процесс (или поток) процессорного времени практически не занимает (это тоже видно на коллаже).

Теперь, разобравшись с «физической» многопроцессорностью, перейдем к Hyper-Threading. Фактически — это тоже многопроцессорность, только… виртуальная. Ибо процессор Pentium 4 на самом деле один — вот он, стоит в сокете, сверху кулер пришлепнут:). Второго сокета — нет. А процессоров ОС видит — два. Как это? В общем-то, очень просто. Смотрим на рисунок.

Здесь нам придется все-таки немного углубиться в технические детали, потому что иначе, увы, что-либо объяснить не получится. Впрочем, те, кому оные детали неинтересны, могут данный абзац просто пропустить. Итак, классическому «одноядерному» процессору в нашем случае добавили еще один блок AS — IA-32 Architectural State. Architectural State содержит состояние регистров (общего назначения, управляющих, APIC, служебных). Фактически, AS#1 плюс единственное физическое ядро (блоки предсказания ветвлений, ALU, FPU, SIMD-блоки и пр.) представляет из себя один логический процессор (LP1), а AS#2 плюс все то же физическое ядро — второй логический процессор (LP2). У каждого LP есть свой собственный контроллер прерываний (APIC — Advanced Programmable Interrupt Controller) и набор регистров. Для корректного использования регистров двумя LP существует специальная таблица — RAT (Register Alias Table), согласно данным в которой можно установить соответствие между регистрами общего назначения физического CPU. RAT у каждого LP своя. В результате мы получили схему, при которой на одном и том же ядре могут свободно выполняться два независимых фрагмента кода т. е. де-факто — многопроцессорную систему!

Hyper-Threading: совместимость

Кроме того, возвращаясь к вещам практическим и приземленным, хотелось бы затронуть еще один немаловажный аспект: не все ОС, даже поддерживающие многопроцессорность, могут работать с таким CPU как с двумя . Связано это с таким «тонким» моментом, как изначальное определение количества процессоров при инициализации операционной системы. Intel прямо говорит, что ОС без поддержки ACPI второй логический процессор увидеть не смогут. Кроме того, BIOS системной платы также должен уметь определять наличие процессора с поддержкой Hyper-Threading и соответствующим образом «рапортовать» системе. Фактически, применительно, к примеру, к Windows, это означает, что «в пролете» у нас оказывается не только линейка Windows 9x, но и Windows NT — последняя ввиду отсутствия поддержки ACPI не сможет работать с одним новым Pentium 4 как с двумя. А вот что приятно — это то, что несмотря на заблокированную возможность работы с двумя физическими процессорами, с двумя логическими, получаемыми с помощью Hyper-Threading, сможет работать Windows XP Home Edition. А Windows XP Professional, кстати, несмотря на ограничение количества физических процессоров до двух, при двух установленных CPU с поддержкой Hyper-Threading честно «видит» четыре:).

Теперь немного о «железе». То, что новые CPU с частотой более 3 ГГц могут потребовать замены системной платы, знают, наверное, уже все — земля (а точнее — Internet) слухами полнится уже давно. К сожалению, это на самом деле так. Даже при номинальном сохранении все того же процессорного разъема Socket 478 Intel не удалось оставить в неприкосновенности потребляемую мощность и тепловыделение новых процессоров — потребляют они больше, и греются, соответственно, тоже. Можно предположить (хоть это и не подтверждено официально), что увеличение потребления по току связано не только с ростом частоты, но и с тем, что из-за ожидаемого использования «виртуальной многопроцессорности» нагрузка на ядро в среднем вырастет, следовательно, возрастет и средняя потребляемая мощность. «Старые» системные платы в некоторых случаях могут быть совместимы с новыми CPU — но только если делались «с запасом». Грубо говоря, те производители, которые делали свои PCB в соответствии с рекомендациями самой Intel относительно потребляемой Pentium 4 мощности, оказались в проигрыше по отношению к тем, кто немного «перестраховался», поставив на плату VRM с запасом и соответствующим образом ее разведя. Но и это еще не все. Кроме ОС, BIOS и электроники платы, с технологией Hyper-Threading должен быть совместим еще и чипсет . Поэтому счастливыми обладателями двух процессоров по цене одного:) смогут стать только те, чья системная плата основана на одном из новых чипсетов с поддержкой 533 МГц FSB: i850E, i845E, i845PE/GE. Несколько особняком стоит i845G — первая ревизия этого набора микросхем Hyper-Threading не поддерживает , более поздняя — уже совместима.

Ну, вот, вроде бы с теорией и совместимостью разобрались. Но не будем спешить. ОК, у нас есть два «логических» процессора, у нас есть Hyper-Threading, вау! — это круто. Но как уже было сказано выше, физически у нас процессор как был один, так и остался. Зачем же тогда нужна такая сложная «эмуляционная» технология, отбрасывая то, что можно горделиво демонстрировать Task Manager с графиками загруженности двух CPU друзьям и знакомым?

Hyper-Threading: зачем она нужна?

Против обыкновения, в этой статье мы немного больше чем обычно уделим внимания рассуждениям т. е. не технической прозе (где все в общем-то довольно однозначно трактуется и на основании одних и тех же результатов совершенно независимые люди чаще всего делают тем не менее весьма похожие выводы), а «технической лирике» — т. е. попытке понять, что же такое нам предлагает Intel и как к этому следует относиться. Я уже неоднократно писал в «Колонке редактора» на нашем сайте, и повторю здесь, что эта компания, если внимательно посмотреть, никогда не отличалась абсолютным совершенством своих продуктов, более того — вариации на те же темы от других производителей подчас получались гораздо более интересными и концептуально стройными. Однако, как оказалось, абсолютно все делать совершенным и не нужно — главное чтобы чип олицетворял собой какую-то идею, и идея эта приходилась очень вовремя и к месту. И еще — чтобы ее просто не было у других.

Так было с Pentium, когда Intel противопоставила весьма шустрому в «целочисленке» AMD Am5x86 мощный FPU. Так было с Pentium II, который получил толстую шину и быстрый кэш второго уровня, благодаря чему за ним так и не смогли угнаться все процессоры Socket 7. Так было (ну, по крайней мере, я считаю это свершившимся фактом) и с Pentium 4, который противопоставил всем остальным наличие поддержки SSE2 и быстрый рост частоты — и тоже де-факто выиграл. Сейчас Intel предлагает нам Hyper-Threading. И мы отнюдь не призываем в священной истерике биться лбом о стенку и кричать «господи помилуй», «аллах велик» или «Intel rulez forever». Нет, мы просто предлагаем задуматься — почему производитель, известный грамотностью своих инженеров (ни слова про маркетологов! :)) и громадными суммами, которые он тратит на исследования, предлагает нам эту технологию.

Объявить Hyper-Threading «очередной маркетинговой штучкой», конечно, проще простого. Однако не стоит забывать, что это технология , она требует исследований, денег на разработку, времени, сил… Не проще ли было нанять за меньшую сумму еще одну сотню PR-менеджеров или сделать еще десяток красивых рекламных роликов? Видимо, не проще. А значит, «что-то в этом есть». Вот мы сейчас и попытаемся понять даже не то, что получилось в результате, а то, чем руководствовались разработчики IAG (Intel Architecture Group), когда принимали решение (а такое решение наверняка принималось!) — разрабатывать «эту интересную мысль» дальше, или отложить в сундук для идей забавных, но бесполезных.

Как ни странно, для того чтобы понять как функционирует Hyper-Threading, вполне достаточно понимать как работает… любая многозадачная операционная система. И действительно — ну ведь исполняет же каким-то образом один процессор сразу десятки задач? Этот «секрет» всем уже давно известен — на самом деле одновременно все равно выполняется только одна (на однопроцессорной системе), просто переключение между кусками кода разных задач выполняется настолько быстро, что создается иллюзия одновременной работы большого количества приложений.

По сути, Hyper-Threading предлагает нам то же самое, но реализована аппаратно, внутри самого CPU. Есть некоторое количество различных исполняющих блоков (ALU, MMU, FPU, SIMD), и есть два «одновременно» исполняемых фрагмента кода. Специальный блок отслеживает, какие команды из каждого фрагмента необходимо выполнить в данный момент, после чего проверяет, загружены ли работой все исполняющие блоки процессора. Если один из них простаивает, и именно он может исполнить эту команду — ему она и передается. Естественно, существует и механизм принудительного «посыла» команды на выполнение — в противном случае один процесс мог бы захватить весь процессор (все исполняющие блоки) и исполнение второго участка кода (исполняемого на втором «виртуальном CPU») было бы прервано. Насколько мы поняли, данный механизм (пока?) не является интеллектуальным т. е. не способен оперировать различными приоритетами, а просто чередует команды из двух разных цепочек в порядке живой очереди т. е. просто по принципу «я твою команду исполнил — теперь уступи место другому потоку». Если, конечно, не возникает ситуации, когда команды одной цепочки по исполняющим блокам нигде не конкурируют с командами другой. В этом случае мы получаем действительно на 100% параллельное исполнение двух фрагментов кода.

Теперь давайте подумаем, чем Hyper-Threading потенциально хороша, и чем — нет. Самое очевидное следствие ее применения — повышение коэффициента полезного действия процессора. Действительно — если одна из программ использует в основном целочисленную арифметику, а вторая — выполняет вычисления с плавающей точкой, то во время исполнения первой FPU просто ничего не делает, а во время исполнения второй — наоборот, ничего не делает ALU. Казалось бы, на этом можно закончить. Однако мы рассмотрели лишь идеальный (с точки зрения применения Hyper-Threading) вариант. Давайте теперь рассмотрим другой: обе программы задействуют одни и те же блоки процессора. Понятно, что ускорить выполнение в данном случае довольно сложно — ибо физическое количество исполняющих блоков от «виртуализации» не изменилось. А вот не замедлится ли оно? Давайте разберемся. В случае с процессором без Hyper-Threading мы имеем просто «честное» поочередное выполнение двух программ на одном ядре с арбитром в виде операционной системы (которая сама представляет собой еще одну программу), и общее время их работы определяется:

  1. временем выполнения кода программы №1
  2. временем выполнения кода программы №2
  3. временными издержками на переключение между фрагментами кода программ №1 и №2

Что мы имеем в случае с Hyper-Threading? Схема становится немного другой:

  1. время выполнения программы №1 на процессоре №1 (виртуальном)
  2. время выполнения программы №2 на процессоре №2 (виртуальном)
  3. время на переключение одного физического ядра (как набора требуемых обеим программам исполняющих блоков) между двумя эмулируемыми «виртуальными CPU»

Остается признать, что и тут Intel поступает вполне логично : конкурируют между собой по быстродействию у нас только пункты за номером три, и если в первом случае действие выполняется программно-аппаратно (ОС управляет переключением между потоками, задействуя для этого функции процессора), то во втором случае мы фактически имеем полностью аппаратное решение — процессор все делает сам. Теоретически, аппаратное решение всегда оказывается быстрее. Подчеркнем — теоретически. Практикум у нас еще впереди.

Но и это еще не все. Также одним из серьезнейших… нет, не недостатков, а скорее, неприятных моментов является то, что команды, увы, не исполняются в безвоздушном пространстве, но вместо этого Pentium 4 приходится иметь дело с классическим x86-кодом, в котором активно используется прямое адресование ячеек и даже целых массивов, находящихся за пределами процессора — в ОЗУ. Да и вообще, к слову, большинство обрабатываемых данных чаще всего находится там:). Поэтому «драться» между собой наши виртуальные CPU будут не только за регистры, но и за общую для обоих процессорную шину, минуя которую данные в CPU попасть просто не могут. Однако тут есть один тонкий момент: на сегодняшний день «честные» двухпроцессорные системы на Pentium III и Xeon находятся в точно такой же ситуации ! Ибо наша старая добрая шина AGTL+, доставшаяся в наследство всем сегодняшним процессорам Intel от знаменитого Pentium Pro (в дальнейшем ее лишь подвергали модификациям, но идеологию практически не трогали) — ВСЕГДА ОДНА, сколько бы CPU ни было установлено в системе. Вот такой вот «процессорный коаксиал»:). Отойти от этой схемы на x86 попробовала только AMD со своим Athlon MP — у AMD 760MP/760MPX от каждого процессора к северному мосту чипсета идет отдельная шина. Впрочем, даже в таком «продвинутом» варианте мы все равно убегаем от проблем не очень далеко — ибо уж что-что, а шина памяти у нас точно одна — причем вот в этом случае уже везде (напоминаем, разговор идет про x86-системы).

Однако нет худа без добра, и даже из этого в общем-то не очень приятного момента Hyper-Threading может помочь извлечь какую-то пользу. Дело в том, что по идее мы должны будем наблюдать существенный прирост производительности не только в случае с несколькими задачами, использующими разные функциональные блоки процессора, но и в том случае, если задачи по-разному работают с данными, находящимися в ОЗУ. Возвращаясь к старому примеру в новом качестве — если одно приложение у нас что-то усиленно считает «внутри себя», другое же — постоянно подкачивает данные из ОЗУ, то общее время выполнения их в случае использования Hyper-Threading по идее должно уменьшиться даже если они используют одинаковые блоки исполнения инструкций — хотя бы потому, что команды на чтение данных из памяти смогут обрабатываться в то время, пока наше первое приложение будет что-то усиленно считать.

Итак, подведем итог: технология Hyper-Threading с теоретической точки зрения выглядит весьма неплохо и, мы бы сказали, «адекватно», т. е. соответствует реалиям сегодняшнего дня. Уже довольно редко можно застать пользователя с одним сиротливо открытым окном на экране — всем хочется одновременно и музыку слушать, и по Internet бродить, и диски с любимыми MP3 записывать, а может даже, и поиграть на этом фоне в какую-нибудь стрелялку или стратегию, которые, как известно, процессор «любят» ну просто со страшной силой:). С другой стороны, общеизвестно, что конкретная реализация способна иногда своей «кривизной» убить любую самую превосходную идею, и с этим мы тоже не раз встречались на практике. Поэтому закончив с теорией, перейдем к практике — тестам. Они-то и должны нам помочь ответить на второй главный вопрос: так ли хороша Hyper-Threading сейчас — и уже не в качестве идеи, а в качестве конкретной реализации этой идеи «в кремнии». Тестирование

Тестовый стенд:

  • Процессор: Intel Pentium 4 3,06 ГГц с поддержкой технологии Hyper-Threading, Socket 478
  • Материнская плата: Gigabyte 8PE667 Ultra (версия BIOS F3) на чипсете i845PE
  • Память: 512 МБ PC2700(DDR333) DDR SDRAM DIMM Samsung, CL 2
  • Видеокарта: Palit Daytona GeForce4 Ti 4600
  • Жесткий диск: IBM IC35L040AVER07-0, 7200 об/мин

Программное обеспечение:

  • OC и драйверы:
    • Windows XP Professional SP1
    • DirectX 8.1b
    • Intel Chipset Software Installation Utility 4.04.1007
    • Intel Application Accelerator 2.2.2
    • Audiodrivers 3.32
    • NVIDIA Detonator XP 40.72 (VSync=Off)
  • Тестовые приложения:
    • (с поддержкой мультипроцессорности и технологии Hyper-Threading)
    • RazorLame 1.1.5.1342 + Lame codec 3.92
    • VirtualDub 1.4.10 + DivX codec 5.02 Pro
    • WinAce 2.2
    • Discreet 3ds max 4.26
    • BAPCo & MadOnion SYSmark 2002
    • MadOnion 3DMark 2001 SE build 330
    • Gray Matter Studios & Nerve Software Return to Castle Wolfenstein v1.1
    • Croteam/GodGames Serious Sam: The Second Encounter v1.07

Вопреки обычаю, мы не будем сегодня тестировать производительность нового Pentium 4 3,06 ГГц в сопоставлении с предыдущими моделями или же с процессорами-конкурентами. Ибо это по большому счету бессмысленно. Тесты, составляющие нашу методику, не менялись уже довольно продолжительный период времени, и желающие провести необходимые сопоставления могут воспользоваться данными из предыдущих материалов , мы же сосредоточимся на основном моменте, не распыляясь на детали. А основным в этом материале, как, наверное, нетрудно догадаться, является исследование технологии Hyper-Threading и ее влияния на производительность… на производительность чего ? Не столь уж и праздный вопрос, как оказывается. Впрочем, не будем забегать вперед. Начнем с традиционных тестов, через которые мы плавно подойдем (в контексте данного материала) к основным.

Кодирование WAV в MP3 (Lame)
Кодирование VideoCD в MPEG4 (DivX)
Архивация с помощью WinAce с 4-мегабайтным словарем

Хоть сколько-нибудь явного преимущества Hyper-Threading не продемонстрировала, но надо сказать, что мы и шансов-то особых данной технологии не дали — почти все приложения «однопроцессорные», одновременно исполняемых потоков не порождают (проверено!), и, стало быть, в этих случаях мы имеем дело с обычным Pentium 4, которому чуть-чуть подняли частоту. Говорить о каких-то тенденциях на фоне таких мизерных расхождений вряд ли уместно… хотя если все же высасывать их из пальца, то они даже немного в пользу Hyper-Threading.

3ds max 4.26

Классический тест, но в то же самое время — первое из приложений в этом обзоре, которое в явном виде поддерживает многопроцессорность. Конечно, колоссальным преимущество системы с включенной поддержкой Hyper-Threading не назовешь (оно составляет порядка 3%), однако не будем забывать, что в данном случае Hyper-Threading работала далеко не в самой лучшей для себя ситуации: 3ds max реализует поддержку SMP за счет порождения потоков , причем все они используются для одной и той же цели (рендеринг сцены) и, стало быть, содержат примерно одинаковые команды, а потому и работают тоже одинаково (по одной схеме). Мы уже писали, что Hyper-Threading лучше подходит для того случая, когда параллельно исполняются разные программы, задействующие разные блоки CPU. Тем более приятно, что даже в такой ситуации технология смогла «на ровном месте» обеспечить пусть и небольшой, но прирост быстродействия. Ходят слухи, что 3ds max 5.0 дает больший выигрыш при задействовании Hyper-Threading, и учитывая рвение, с которым Intel «проталкивает» свои технологии в области ведения производителей ПО, это как минимум следует проверить. Несомненно, так мы и сделаем, но уже в более поздних материалах на эту тему.

3DMark 2001SE

Результаты в общем-то вполне закономерные, и вряд ли могут вызвать у кого-то удивление. Быть может, лучше все-таки использовать бенчмарки для 3D именно для того, для чего они предназначены — тестирования скорости видеокарт, а не процессоров? Наверное, так оно и есть. Впрочем, результаты, как известно, лишними не бывают. Несколько настораживает чуть меньший балл у системы с задействованной Hyper-Threading. Впрочем, учитывая что разница составляет около 1%, мы бы не делали из этого далеко идущих выводов.

Return to Castle Wolfenstein,
Serious Sam: The Second Encounter

Примерно аналогичная ситуация. Впрочем, мы еще не подобрались даже близко к тестам, способным хоть как-то продемонстрировать плюсы (или минусы) Hyper-Threading. Иногда (на неощутимо малую величину) задействование «псевдо-многопроцессорности» дает отрицательный результат. Однако это не те сенсации, которых мы ждем, не так ли? :) Не слишком помогает даже тестирование со звуком, который, по идее, должен обсчитываться отдельным потоком и потому давать шанс проявить себя второму логическому процессору.

SYSmark 2002 (Office Productivity и Internet Content Creation)

А вот теперь так и хочется во весь голос крикнуть: «Ну, кто сомневался в том, что Hyper-Threading реально способна повысить быстродействие на реальных задачах?!». Результат: +16—20% — действительно ошеломляет. Причем что самое интересное — ведь SYSmark пытается эмулировать именно ту схему работы, которую Intel считает самой «удачной» для технологии Hyper-Threading — запуск различных приложений и одновременная работа с ними. Причем в процессе исполнения своего скрипта, SYSmark 2002 поступает вполне грамотно с точки зрения имитации работы пользователя, «отправляя в background» некоторые приложения, которые уже получили свое «долгосрочное задание». Так, например, кодирование видео происходит на фоне исполнения прочих приложений из скрипта Internet Content Creation, а в офисном подтесте действует вездесущее антивирусное ПО и декодирование речи в текст с помощью Dragon Naturally Speaking. По сути — первый тест, в котором созданы более или менее «вольготные» условия для технологии Hyper-Threading, и она тут же показала себя с наилучшей стороны! Впрочем, мы решили не полагаться во всем на тесты, написанные не нами, и провели «для закрепления эффекта» несколько показательных собственных экспериментов. Экспериментируем с Hyper-Threading

Одновременное выполнение рендеринга в 3ds max и архивирования в WinAce

Вначале на фоне заведомо более длительного процесса архивирования была отрендерена стандартная тестовая сцена в 3ds max. Затем на фоне рендеринга специально растянутой сцены было выполнено стандартное тестовое архивирование файла в WinAce. Результат сравнивался со временем окончания последовательного выполнения тех же самых стандартных тестов. К полученным цифрам применялись два корректирующих коэффициента: для выравнивания времени исполнения заданий (мы полагаем, что эффект ускорения от параллельного выполнения двух приложений может быть корректно подсчитан только при условии одинаковой продолжительности выполняемых заданий) и для «снятия» эффекта от неравномерности выделяемых процессорных ресурсов для foreground-/background-приложений. В итоге мы «насчитали» положительный эффект ускорения на 17% от использования технологии Hyper-Threading.

Итак, впечатляющие результаты SYSmark получили подтверждение в тесте с соседством двух реальных программ. Конечно же, ускорение не двукратное, да и тесты в пару мы выбирали сами, исходя из наиболее благоприятной, по нашему мнению, ситуации для задействования Hyper-Threading. Но давайте задумаемся над этими результатами вот в каком разрезе: процессор, производительность которого мы сейчас исследуем — в общем-то, за исключением поддержки Hyper-Threading — просто давно привычный Pentium 4. Фактически, столбик «без Hyper-Threading» — это то, что мы могли бы видеть если бы эту технологию не стали переводить в десктопы . Несколько другое чувство сразу же возникает, правда? Давайте все-таки не будем жаловаться (по отечественной традиции) на то, что «все не так хорошо, как могло бы быть», а просто подумаем о том, что нам вместе с новым процессором дали еще один способ ускорить выполнение некоторых операций.

Фоновое архивирование в WinAce + проигрывание фильма
Рендеринг в 3ds max + фоновое проигрывание музыки

Методика выполнения теста совершенно тривиальна: в пару к просмотру фильма, сжатого предварительно в формат MPEG4 при помощи кодека DivX, фоном запускалось архивирование в WinAce (разумеется, в случае пропуска кадров и подтормаживания при просмотре, данный тест не имел бы практического смысла, но нареканий на качество просмотра не было). Аналогично, во время рендеринга обычной тестовой сцены в 3ds max фоном проигрывалась (через WinAmp) музыка из файла формата MP3 (и отслеживались не замеченные ни разу в итоге «заикания» звука). Обратите внимание на естественное распределение ролей «главное-фоновое» в каждой паре приложений. В качестве результата, как обычно, бралось время архивации и полного рендеринга сцены соответственно. Эффект от Hyper-Threading в цифрах: +13% и +8%.

Достаточно реальная ситуация, именно такие мы и старались воспроизвести. Вообще (и об этом будет сказано далее) Hyper-Threading не настолько очевидна, как кажется. Простой подход «в лоб» («у нас в ОС видны два процессора — давайте относиться к ним как к двум процессорам») не дает ощутимого эффекта, и возникает даже некоторое чувство обманутости. Однако, возвращаясь к вышесказанному, попробуем оценивать результаты с несколько других позиций: задачи, которые в обычной ситуации исполняются за одно время, в случае задействования Hyper-Threading, выполняются за меньшее время . Кто попробует возразить, что «нечто» хуже, чем «ничто»? В этом-то вся и суть — отнюдь не панацею нам предлагают, а «всего лишь» средство ускорить уже имеющееся процессорное ядро, кардинальных изменений не претерпевшее. Получается? Да. Ну и какие, по большому счету, могут быть еще вопросы? Конечно, до обещанных в пресс-релизе 30% в большинстве случаев оказывается далеко, однако не стоит делать вид, что в жизни случается, сопоставив пресс-релиз компании X с пресс-релизом компании Y, убедиться, что в первом обещаний меньше и они более «сбыточные». :)

Тестирование в CPU RightMark 2002B

Новая версия CPU RM поддерживает многопоточность (соответственно, и Hyper-Threading), и, естественно, мы не могли не воспользоваться возможностью протестировать новый процессор с помощью этого бенчмарка. Оговоримся, что пока это только первый «выход» CPU RM в тестах многопроцессорных систем, поэтому можно сказать что исследование было «обоюдосторонним» — мы тестировали Hyper-Threading как частный случай SMP на системе с Pentium 4 3,06 ГГц, а эта система, в свою очередь, тестировала наш бенчмарк:) на предмет валидности результатов, и, соответственно, правильной реализации в нем поддержки мультипоточности. Без преувеличения скажем, что результатами остались довольны обе стороны:). Несмотря на то, что пока CPU RM все еще «не полностью многопроцессорный» (несколько потоков создаются только в блоке рендеринга, Math Solving блок остается однопоточным), полученные нами результаты явственно свидетельсвуют о том, что поддержка SMP и Hyper-Threading присутствует, и польза от их наличия видна невооруженным глазом. Кстати, реализация многопоточности в блоке «решателя» в общем-то задача намного менее тривиальная, чем в блоке рендеринга, поэтому если у кого-то из читателей будут некие идеи по этому поводу — мы ждем ваших комментариев, идей, и предложений. Напоминаем, что проект CPU RightMark — это бенчмарк с открытыми исходными текстами, так что интересующиеся программированием могут не только воспользоваться им, но и вносить предложения по поводу усовершенствования кода.

Перед тем как перейти к диаграммам, остановимся поподробнее на методике. По подписям столбцов, легко заметить, что тестировалась производительность системы в целых двенадцати (!) вариантах. Однако ничего страшного в этом нет, и разобраться достаточно просто. Итак, изменяемыми были следующие факторы:

  1. Тесты проводились со включенной Hyper-Threading и с отключенной.
  2. Использовались установки CPU RM для количества создаваемых потоков: один, два, и четыре.
  3. Использовались установки CPU RM для используемого типа инструкций в расчетном модуле: SSE2 и «классические» x87 FPU.

Объясним последнее. Казалось бы, отказываться от использования SSE2 на Pentium 4 — полный, извините, бред (о чем мы уже неоднократно писали раньше). Однако в данном случае чисто теоретически это было неплохим шансом проверить функционирование и результативность технологии Hyper-Threading. Дело в том, что инструкции FPU использовались только в расчетном модуле , в модуле же рендеринга по-прежнему оставалась включенной поддержка SSE. Таким образом, те, кто внимательно читал теоретическую часть, наверняка уже поняли «где собака зарыта» — мы принудительно заставили разные части бенчмарка использовать разные вычислительные блоки CPU ! По идее, в случае принудительного отказа от SSE2, Math Solving блок CPU RM должен был оставлять «нетронутым» блоки исполнения SSE/SSE2 инструкций, что давало возможность на полную катушку воспользоваться ими блоку рендеринга того же CPU RM. Вот теперь самое время перейти к результатам, и посмотреть насколько правильными оказались наши предположения. Также заметим, что с целью увеличения валидности и стабильности результатов, была изменена еще одна установка: количество фреймов (по умолчанию — 300) было увеличено до 2000.

Тут, собственно, комментировать практически нечего. Как мы уже говорили выше, блок «решателя» (Math Solving) остался нетронутым, поэтому на его производительность Hyper-Threading не оказывает никакого влияния. Однако в то же время отрадно… что не вредит! Ведь мы уже знаем, что теоретически возникновение ситуаций когда «виртуальная многопроцессорность» может мешать работе программ — возможно. Однако один факт советуем крепко запомнить: посмотрите, как сильно влияет на производительность блока «решателя» отказ от использования SSE2! Мы еще вернемся к этой теме чуть позже, и в весьма неожиданном ключе…

И вот — долгожданный триумф. Легко заметить, что как только количество потоков в блоке рендеринга становится больше одного (в последнем случае использовать возможности Hyper-Threading, мягко говоря, трудновато:) — сразу же это обеспечивает данной конфигурации одно из первых мест. Также заметно, что именно два потока являются оптимальными для систем с Hyper-Threading. Правда, быть может, кто-то вспомнит скриншот Task Manager, которым мы «стращали» вас выше, поэтому сделаем оговорку — два активно работающих потока. В общем-то, это очевидно и вполне логично — раз у нас два виртуальных CPU, то наиболее правильно создать ситуацию, когда и потоков тоже будет два. Четыре — уже «перебор», потому что за каждый из виртуальных CPU начинают «драться» по несколько потоков. Однако даже в этом случае системе со включенной Hyper-Threading удалось обогнать «однопроцессорного» конкурента.

Об удачах всегда принято говорить подробно и со вкусом, и естественно, еще подробнее и вкуснее о них говорить когда они — твои собственные. Констатируем, что «эксперимент с переходом на инструкции FPU» также безусловно удался. Казалось бы, отказ от SSE2 должен был сильнейшим образом ударить по производительности (быстренько вспоминаем разгромные результаты Math Solving Speed с применением инструкций FPU на первой диаграмме этого раздела). Однако что мы видим! — во второй строчке, на самом верху, среди чемпионов — именно такая конфигурация! Причины опять-таки понятны, и это очень радует, потому что их понятность позволяет сделать вывод о предсказуемости поведения систем с поддержкой технологии Hyper-Threading. «Минусовый» результат блока Math Solving на системе с включенной Hyper-Threading «компенсировал» своим вкладом в общую производительность блок рендеринга, которому полностью отдали на откуп исполняющие блоки SSE/SSE2. Причем компенсировал настолько хорошо, что по результатам такая система оказалась в первых рядах. Остается пожалуй только еще раз повторить то, о чем неоднократно шла речь выше: в полную силу возможности Hyper-Threading проявляются в тех ситуациях, когда активно работающие программы (или потоки) используют разные исполняющие блоки CPU. В данной ситуации эта особенность проявилась особенно сильно, поскольку мы имели дело с хорошо, тщательно оптимизированным кодом CPU RM. Однако главный вывод состоит в том, что в принципе Hyper-Threading работает — значит, будет работать и в других программах. Естественно, тем лучше, чем больше их разработчики будут уделять времени оптимизации кода.

Выводы

…В очередной раз, к радости всего прогрессивного человечества, Intel выпустила новый Pentium 4, производительность которого еще выше чем у предыдущего Pentium 4, но это еще не предел, и скоро мы увидим еще более быстрый Pentium 4… М-да… Не то что бы это неправда — действительно, так и есть. Однако мы уже договорились, что не будем рассматривать в данной статье производительность вышеуказанного Pentium 4 3,06 ГГц в связке с другими процессорами по той самой причине, что… см. выше по тексту. Нас, видите ли, интересует Hyper-Threading. Вот такие мы привередливые — не важны нам предсказуемые результаты повышения еще на 200 МГц частоты работы давно знакомого и предсказуемого процессорного ядра, подавай нам «свежатинку», ранее не рассматриваемую. И как уже наверное догадались прозорливые читатели, выводы наши будут посвящены опять-таки этой самой навязшей в зубах технологии и всему что с ней связано. Почему? Наверное, потому, что все остальное вы отлично знаете сами..

И раз уж речь идет о Hyper-Threading, давайте для начала определим для себя главное: как к ней относиться? Что она из себя представляет? Не претендуя на истину в последней инстанции, сформулируем общее мнение, которое возникло у нас на основании результатов тестов: Hyper-Threading — это не SMP . «Ага!!!» — закричат поклонники альтернативы. «Мы так и знали!!!» — завопят они что есть мочи. «Hyper-Threading — это нечестный SMP!!!» — крики сии еще долго будут разноситься по бескрайним просторам Рунета… Мы же, как умудренные саксаулами аксакалы (или наоборот? :), возразим: «Ребята, а кто, собственно, обещал?». Кто произнес эту крамольную аббревиатуру? SMP, напомним — это Symmetric Multi-Processing, сиречь многопроцессорная архитектура. А у нас, пардон, процессор всего один . Да, он снабжен некой, простонародно выражаясь, «фичей», которая позволяет делать вид, что вроде бы оных процессоров два. Однако делает ли кто-то секрет из того, что на самом деле это не так? Вроде бы этого мы не заметили… Стало быть, мы имеем дело именно с «фичей», и не более того. И относиться к ней стоит именно таким образом, и никак иначе. Поэтому давайте не будем ниспровергать никем не возводимых идолов, и спокойно подумаем, имеет ли данная фича какой-то смысл.

Результаты тестов свидетельствуют, что в некоторых случаях — имеет. Фактически, то, о чем мы чисто теоретически рассуждали в первой части статьи, нашло свое практическое подтверждение — технология Hyper-Threading позволяет увеличить коэффициент полезного действия процессора в определенных ситуациях. В частности — в ситуациях, когда одновременно исполняются разнородные по характеру приложения. Зададим сами себе вопрос: «Это — плюс?». Наш ответ: «Да, это — плюс». Является ли он всеобъемлющим и глобальным? Похоже, что нет — ибо эффект от Hyper-Threading наблюдается исключительно в некоторых случаях. Однако так ли это важно если мы рассматриваем технологию в целом? Понятно, что появление CPU, способного в два раза быстрее делать все то, что делалось ранее — это громадный прорыв. Однако как говорили еще древние китайцы «упаси нас Господи жить в эпоху перемен». Intel не стал инициировать начало такой эпохи, просто добавив своему процессору возможность кое-что делать быстрее. Классический западный принцип, не очень хорошо воспринимаемый в нашем «шаролюбивом» обществе: «Вы можете получить нечто получше, если заплатите несколько больше».

Возвращаясь к практике: Hyper-Threading нельзя назвать «бумажной» технологией, ибо при определенных комбинациях она дает вполне ощутимый эффект. Добавим — даже намного больший эффект, чем иногда наблюдается при сравнении, к примеру, двух платформ с одним процессором на разных чипсетах. Однако следует четко понимать, что эффект этот наблюдается не всегда, и существенно зависит от… наверное, самым приемлемым термином будет «стиль». От стиля работы пользователя с компьютером. Причем именно здесь проявляется то, о чем мы сказали в самом начале: Hyper-Threading — это не SMP . «Классический SMP-стиль», где пользователь рассчитывает на реакцию столь же классической «честной» многопроцессорной системы, здесь не даст желаемого результата.

«Стиль Hyper-Threading» — это сочетание процессов, не побоимся этого слова, «развлекательных» или «служебных» с процессами «рабочими». Вы не получите существенного ускорения от CPU с поддержкой этой технологии в большинстве классических многопроцессорных задач, или если по привычке запускаете только одно приложение в один момент времени. Но вы скорее всего получите уменьшение времени исполнения многих фоновых задач , исполняемых в качестве «довеска» к обычной работе. Фактически, Intel просто еще раз напомнила всем нам, что операционные системы, в которых мы работаем — многозадачные . И предложила способ ускорения — но не столько одного какого-то процесса самого по себе, сколько комплекса выполняемых одновременно приложений . Это интересный подход, и, как нам кажется, достаточно востребованный. Теперь он обрел свое имя. Не мудрствуя лукаво, хочется сказать: просто хорошо, что эта оригинальная идея пришла кому-то в голову. Тем более неплохо, что он смог ее воплотить в конкретный продукт. В остальном, как и всегда — время покажет.

Семейство процессоров Pentium 4 производства компании Intel долгое время было, без преувеличения, самым популярным в мире настоль­ных компьютеров. Даже само слово «Pentium» в устах не сильно разбирающихся в компьютерах людей означало скорость и мощность их компьютера. Среди преимуществ Pentium 4 - низкая цена, высокая производительность и относительно малое энергопотребление (в зависимости от рабочей тактовой частоты процессора). Pentium 4 устанавливаются в гнездо Socket 478 или LGA755

Процессоры Pentium 4 созданы на базе микро архитектуры Intel NetBurst, обеспечивающей поддержку ряда возможностей, таких как технологии HyperThreading (о ней мы поговорим немного позже), системной шины FSB с частотой 400/533/800 МГц, потоковых инструкций SSE2, функций расширенного динамического выполнения и оптимизированной передачи данных кеш-памяти. Кроме того, процессоры Pentium 4, созданные с помощью 0,09-микронной технологии, поддерживают потоковые инструкции SSE3.

Инструкции SSE, SSE2 и SSE3 являются расширением технологии ММХ и содержат ряд команд для работы с графикой и звуком, вычислений с плавающей запятой и целыми числами, управления кеш-памятью. Эти инструкции позволяют более эффективно работать с трехмерной графикой потоковыми аудио- и видео данными (например, при воспроизведении DVD), декодировать файлы форматов MPEG2 и MPEG3 (MP3). При этом наилучший результат использования SSE достигается в том случае, если поддержка SSE реализована на уровне приложения.

В настоящее время на рынке представлены самые разнообразные процессоры Pentium 4, в многообразии которых легко запутаться. Существует два основных семейства Pentium 4 - 5хх и 6хх , где х - это номерное обозначение типа процессора.

В семейство 5хх входят процессоры 570, 560, 550, 540, 530 и 520, с поддержкой технологии НТ и кеш-памятью второго уровня объемом 1 Мбайт. В свою очередь, в семейство 6хх входят процессоры 672, 662, 660, 650, 640, также поддерживающие технологию НТ и оснащенные кеш-памятью второго уровня объемом 2 Мбайт, а также обеспечивающие поддержку технологий Intel Enhanced SpeedStep, ЕМ64Т и Execute Disable Bit (NX бит).

Технологии intel Pentium 4

Технология Enhanced SpeedStep позволяет сократить энергопотребление системы методом автоматического снижения тактовой частоты процессора для рабочих приложений. Благодаря этой технологии решаются проблемы энергосбережения и охлаждения современных настольных компьютеров. Технология Intel Enhanced SpeedStep поддерживается семейством процессоров Pentium 4 бхх и Pentium D.

Все процессоры Pentium 4 являются 32-разрядными . Тем не менее благодаря технологии ЕМ64Т , доступной в новом семействе процессоров Pentium 4 бхх, в этих процессорах реализована поддержка 64-разрядных приложений. О том, чем отличаются 32- и 64-разрядные приложения, можно узнать в разделе «Athlon 64». Основное преимущество технологии ЕМ64Т - это возможность установки на компьютере оперативной памя­ти, общий объем которой будет больше 4 Гбайт (поскольку 4 Гбайт - это максимальный объем оперативной памяти, который можно адресовать в 32-разрядной операционной системе).

Технология Execute Disable Bit (NX-бит) позволяет запретить выполнение программного кода, который расположен в областях памяти, предназначенных для размещения данных. Многие вирусы, обычные и «троянские», могут вызвать программную ошибку, известную как переполнение буфера, в и замаскировать разрушительный программный код под данные, которые могут быть использованы операционной системой. Для предотвращения подобного сценария и нужен NX-бит , который усиливает защиту системы и снижает вероятность успешного внедрения вируса. Аналогичная технология существует и для Athlon 64; она называется Enhanced Virus Protection.

В приведенной ниже таблице содержатся характеристики основных процессоров Pentium 4. Следует отметить, что в табл. представлены лишь некоторые модели Pentium 4. Для получения более полного списка всех доступных моделей можно посетить Web-узел Intel по адресу www.intel.ru

Таблица. Процессоры Pentium 4

Тактовая

процессора,

Тактовая частота шины FSB, МГц

Объем кеш- памяти L2, Кбайт

Поддержка

Поддержка

Для гнезда LGA775

Для гнезда Socket 478

Как видите, наиболее производительными являются процессоры семейства Pentium 4 6хх, обладающие кеш-памятью L2 объемом 2 Мбайт, повсеместной поддержкой технологий HyperThreading, Enhanced SpeedStep, ЕМ64Т и NX-бита . Кроме того, обратите внимание на то, что процессоры для гнезда Socket 478, обладающие одинаковой тактовой частотой, имеют различные значения тактовой частоты шины FSB и объема кеш-памяти L2.

Новые "весенние" процессоры продолжают радовать нас своим появлением. На этот раз отличилась компания Intel, представившая на украинском рынке сразу два топовых процессора Pentium 4 c частотой 3,4 GHz, однако построенных на различных ядрах — Northwood и Prescott соответственно. Надеемся, данный обзор поможет определиться с тем, что же способны дать пользователю такие похожие и вместе с тем настолько разные CPU.
На сей раз мы решили не делать громоздкий материал, тем более что совсем недавно
уже рассматривали детально предыдущие поколения этих процессоров с частотами 3,2
GHz. С особенностями ядра Northwood наверняка знакомо большинство читателей нашего
издания, следовательно, изменения в производительности при переходе на новую частоту
3,4 GHz можно просчитать даже на калькуляторе, имея необходимую базу предыдущих
результатов тестирования. Но конструктив процессора несколько обновился. Основное
(внешнее) изменение коснулось элементов питания самого кристалла. Как известно,
на тыльной стороне процессорной подложки расположены навесные элементы (в основном
шунтирующие конденсаторы). Так вот, если раньше в 200 (800) MHz серии Northwood
их количество и расположение было одинаковым, то модель 3,4 GHz кардинально отличается
от своих предшественников. Его подложка как две капли воды похожа на Pentium 4
Extreme Edition. Почти двукратное увеличение числа конденсаторов наверняка вызвано
желанием уменьшить всплески и уровень помех, возникающих в цепях питания процессора.
Как оказалось, данные метаморфозы положительно сказались на разгонном потенциале,
но об этом позже.

Prescott также отметился, но в данном случае изменения касаются исключительно
программной части. С технической точки зрения отличий новой модели с частотой
3,4 GHz от 3,2 нам обнаружить не удалось. Так что же это за изменения, которые
позволят новым массовым CPU от Intel показать себя во всей красе?

Конфигурации
тестовых систем
Платформа
Intel
AMD
Процессор Intel Pentium 4 (Prescott) 3,2/3,4E GHz Intel Pentium 4 (Northwood) 3,4C GHz AMD Athlon 64 3400+ 2,2 GHz
Материнская плата Abit IC7-MAX3 (чипсет i875P) ASUS K8V Deluxe (чипсет VIA K8T800)
Память Kingston HyperX PC3500 (2?512
MB)
Видеокарта HIS Radeon 9800XT 256 MB
Жесткий диск Western Digital WD300BB 30
GB 7200 об/мин
ОС Windows XP Professional SP2

Экосистема процессорного ядра Prescott

Пожалуй, одно из значимых достижений
последнего времени — корректное "понимание" Prescott операционной
системой Windows XP с установленным Service Pack 2. До официального выхода этого
"апгрейда" рано говорить о возможных преимуществах и новом уровне
управления технологией Hyper-Threading, но сама тенденция все-таки положительная.
Также в ходе тестирования нами была замечена еще одна интересная особенность
— материнские платы, для которых есть новые версии BIOS с заявленной 100%-ной
совместимостью с ядром Prescott, демонстрируют весьма необычное поведение. Действительно,
после перепрошивки скорость работы с памятью существенно возрастает, а ее латентность
несколько снижается (напомним, в случае установки CPU Prescott). Но если в плату
с новым BIOS установить Northwood, быстродействие подсистемы памяти хоть и незначительно,
но все же упадет. Выводов из всего этого пока два: а) если вы владелец Pentium
4 серий B/C, не спешите обновлять BIOS на своей материнской плате; б) пока рано
говорить о "нюансах" BIOS как о сложившейся закономерности, но тот
факт, что три популярные модели материнских плат все же демонстрируют такой
результат, по крайней мере, заставляет задуматься.

Также отметим медленное внедрение поддержки SSE3 в современное мультимедийное
ПО. Обещанные драйверы от ATI и NVidia пока не появились, а авторы медиакодеков
пока не спешат использовать преимущества SSE3 в своих продуктах. Хотя в Японии
— стране, так любящей высокие технологии, — новый набор команд уже достаточно
интенсивно применяется "национальным" ПО. Нам даже удалось найти результаты
тестирования, где сообщалось о 10%-ном приросте производительности в случае
медиакодирования. Опять-таки, когда "реальность" SSE3 дойдет до нас
— еще неизвестно. Но тот факт, что, по крайней мере, это будет "в плюс",
а не "в минус", уже радует.


Результаты тестирования

Тест Primordia из набора Science Mark 2.0 хоть и косвенно, но свидетельствует
о том, что Prescott не создан для сложной математики. Даже с новой частотой
3,4 GHz он далек от своих конкурентов. А вот Northwood 3,4 GHz доказал, что
при использовании технологии Hyper-Threading его вычислительные способности
практически не уступают Athlon 64 3400+.

Остальные результаты вполне можно рассматривать с точки зрения глобальных закономерностей.
Налицо действительное соответствие рейтинга 3400+ у Athlon 64 2,2 GHz реальной
производительности Pentium 4 (Northwood) 3,4 GHz. При некоторых отклонениях
(Unreal Tournament всегда демонстрировал более высокие результаты на процессорах
AMD, а "мультимедиа" всегда лучше удается CPU от Intel, особенно с
использованием ПО, поддерживающего SMP) мы наблюдаем в принципе схожее быстродействие.
Теперь посмотрим, где же новый 90-нанометровый процессор Intel занял первые
места — архивирование WinRAR, 3DMark 2003, SPECviewperf 7.1.1. Опять-таки примечательно
— если Prescott отстает, то отстает значительно, если лидирует, то тоже весьма
ощутимо. Еще одно подтверждение тому, что новый процессор Intel нельзя однозначно
назвать ни "хорошим", ни "наоборот". Во-первых, пока полностью
не сформировалась та самая экосистема, где он сможет себя проявить на все 100%,
а во-вторых, он просто другой (отличный от всего того, к чему мы так
долго привыкали).

Выводы

После довольно революционного появления семейства AMD64, пошатнувшего
и взбудоражившего IT-общественность, снова наблюдается некоторое спокойствие.
Как показало наше тестирование, новые массовые процессоры Intel Pentium 4 (Northwood)
3,4 GHz и AMD Athlon 64 3400+ 2,2 GHz действительно являются "топовыми"
для обеих компаний и ничем друг другу не уступают, а выбор остается исключительно
за пользователем. Хотя платформа от AMD обойдется покупателю несколько дешевле,
но той разительной разницы, которая была в случае с Athlon XP, уже не будет.
Теперь при желании приобрести новые High-End-системы вне зависимости от производителя
платформы придется заплатить сопоставимые суммы. Ну а посоветовать приобретение
Prescott можно тем, кто хочет стать обладателем передовых технологий, которые
должны проявить себя в будущем. Так сказать, платформа "на вырост".

Но все же выскажем некоторые претензии к Prescott. Заключаются они в слишком
высоком тепловыделении. Даже выполнив все рекомендации касательно циркуляции
воздуха, мы получили в закрытом корпусе около 70 °С на чипе. В случае применения
мощной видеокарты и модулей памяти PC3200 это может привести к тому, что температура
внутри корпуса превысит 50 °С — согласитесь, многовато. Надеемся, что в
будущих степпингах Intel вплотную займется решением данной проблемы, иначе дальнейший
рост частот может оказаться небезопасным.

Разгон

Для серьезного и стабильного разгона новых процессоров от Intel придется
как минимум сменить штатные кулеры на что-то более мощное и добавить в корпус
пару-тройку вентиляторов. CPU с индексом "С" смог стабильно работать
на частоте 3,72 GHz (наверняка сказались дополнительные элементы в цепи питания,
о которых мы говорили вначале). Prescott достиг порога в 3,8 GHz, однако в открытом
корпусе и с кулером Zalman CNPS7000ACu, как нам кажется, достичь более высоких
частот, используя традиционные методы охлаждения, просто не удастся.