Elettracompany.com

Компьютерный справочник
22 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Максимальная температура видеокарты gtx 560

Обзор видеокарты nVidia GeForce GTX 560

В январе 2011 года nVidia порадовала всех своих почитателей выходом видеокарты пятого поколения GeForce GTX 560, пришедшей на замену старшему собрату GTX 460, позаимствовав у него графическое ядро GF104, которое немного оптимизировали и назвали GF114, в связи с чем и получили прирост производительности. Видеокарта идеально подойдет для игр даже 2015 года на средних и минимальных настройках. Однако так ли высока оказалась мощность GTX 560 относительно 460 модели, чтобы переплачивать за нее? Об этом и не только речь пойдет ниже.

Основные характеристики

  • Техпроцесс: 40 нм
  • Ядро видеокарты: GF114
  • Количество исполнительных процессоров (SPU): 336
  • Частота SPU: 1620 МГц
  • Частота ядра видеопамяти: 810 МГц
  • Частота видеопамяти: 2004 МГц
  • Тип памяти: GDDR5
  • Объем видеопамяти: 1 Гбайт
  • Ширина шины: 256 бит
  • Количество текстурных процессоров: 56
  • Количество блоков растеризации: 32
  • Потребление энергии: 170 Ватт

Производитель видеокарты и различные конфигурации от других компаний

Главный производитель видеокарты — конечно же компания nVidia. Стоит сказать, что компанией было выпущено три модификации видеокарты, оригинальная поступила в продажу в 3 видах: обычная, разогнанная GTX 560 с постфиксом «TI» и урезанная версия 560 SE, также вышла видеокарта для мобильных ноутбуков GTX 560M. Многие зададутся вопросом, а для чего, собственно, надо было урезать видеокарту. Ответ явный: дело в том, что номинальная производительность GTX 560 была на порядок выше, чем у GTX 460, а цена особо не выросла. И, чтобы не понести убытков от производства данного видеоадаптера, было решено заблокировать часть шейдерных блоков, в итоге место заявленных 336 унифицированных процессоров на прилавок в основном количестве поступила видеокарта с 288 универсальными конвейерами со сниженной частотой SPU, частотой ядра, с меньшим количеством текстурных и пиксельных блоков и, самое главное, меньшей шиной памяти. А улучшенная версия видеокарты была представлена в виде модификации GTX 560 TI, стоимость которой примерно на 40% или где-то на 4000 рублей выше, чем у GTX 560 SE. Таким образом, показатели урезанной версии видеокарты оказались ровно такими же, что и у GTX 460. Из этого можно сделать вывод, что переплачивать за свежее название не стоит и если уж брать GTX 560, то только в версии «TI», которая значительно производительней GTX 560 SE и уж тем более GTX 460.

Существуют и другие конфигурации GTX 560, к примеру, от известных компаний Manli и Gigabyte:

Manli GeForce GTX 560 TI не отличается от оригинала в принципе ничем, если не учитывать более высокую частоту SPU на целых 4 мегагерца. Ирония, но по-другому тут реагировать не приходится.

А вот компания GigaByte более ответственно подошла к производству своей модификации данного видеоадаптера, улучшив Gigabyte GeForce GTX 560 частоту видеопроцессора с 810 до 830 МГц, что, к слову, даже выше, чем у GTX 560 TI с ее 822 МГц. Также повышена частота унифицированных вычислительных процессоров с 1620 до 1660 МГц. Все это существенно улучшило производительность видеоадаптера по сравнению с оригинальной GTX 560 от NVIDIA, при этом цена за видеокарту выросла лишь немного, что позволяет при покупке данного видеоадаптера отдать предпочтение компании GigaByte.

nVidia GeForce GTX 560 vs AMD Radeon HD 6950 1 GB – битва машин

Как только nVidia выпустила видеокарту 5-го поколения с улучшенной производительностью, AMD тут же дала свой ответ – Radeon HD 6950 1 GB. Если сравнивать энергопотребление и температуру видеокарт, то ответ, думаю, будет очевиден: GeForce GTX 560 существенно выигрывает у противника. Несмотря на то, что энергопотребление у видеоапаптера nVidia выше на 15 ватт в нагрузке, температура его в простое составляет 29 градусов при 42 у радеона, а при нагрузке 68 градусов против 79 у Radeon HD 6950, следовательно, риск перегрева GTX 560 гораздо ниже, чем у конкурентной радеоновской видеокарты. При этом уровень шума вентиляторов, издаваемых в нагрузке у GTX 560 на 5 децибел меньше, чем у оппонента из AMD, такая разница заметно сглаживает дискомфорт, испытываемый пользователем из-за шума кулеров ПК.

Пришло время сравнить их производительность в независимом тестировании данных видеокарт и наконец выяснить, что мощнее – бесшумная и безопасная NVIDIA GeForce GTX 560 или менее прожорливая, но более «пыхтящая» AMD Radeon HD 6950.

В ходе тестирования была использована следующая конфигурация оборудования:

  • МП — eVGA X58 Classified
  • Процессор – Intel Core I7 965, 3.7 ГГц
  • Видеоадаптеры – GeForce GTX 560 TI и Radeon HD 6950 1 ГБ
  • ОЗУ — Corsair 6144 МБ (3x 2048 МБ) DDR3 1500 МГц
  • Блок питания – 1.2 Киловатт
  • ОС: Windows 7, 64 бит с поддержкой DX9 — DX11

Игры и бенчмарки, в которых проводилось тестирование:

  1. Call of Duty — Modern Warfare 2 – настройки max, разрешение 1920 x 1200
  2. Far Cry 2 — настройки высокие, разрешение 1920 x 1200
  3. Anno 1404 – настройки max, разрешение 1920 x 1200
  4. Crysis WARHEAD – настройки высокие, разрешение 1920 x 1200
  5. Metro 2033 – настройки max, разрешение 1920 x 1200
  6. Battlefield Bad Company 2 – настройки max, разрешение 1920 x 1200
  7. Colin MC Rae Dirt 2 – настройки max, разрешение 1920 x 1200
  8. 3DMark Vantage
  9. 3DMark 11

Форум МИРа NVIDIA

техподдержка, решение проблем

Перегрев под нагрузкой ENGTX 560 (ASUS).

Перегрев под нагрузкой ENGTX 560 (ASUS).

Сообщение Suba » 25.12.2015 1:00

Доброго времени суток форумчане!
Прошу помочь в диагностике видеокарты GTX 560. Расскажу всё по порядку.

Имеем зверька ASUS ENGTX 560 DIRECT CU Приобретался в 2012г. — Срок гарантии Истёк.
Подвергался разгону, через утилиту Asus Smart Doctor. Но суммарно в разгоне он отработал не так много времени. Также в красную зону частоты и напряжение я не загонял.

Спустя примерно пол года после использования карта стала в ресурсоёмких играх типа World of tanks, Crysis 1, GTA 4 и пр. «Выходить в сейф режим» — Резко проседает FPS причём разрешение остаётся нетронутым, либо пропадает картинка игра сворачивается и Windows отображает сообщение: Драйвер совершил критическу ошибку и был успешно восстановлен. (точно не помню). После этого для восстановления работоспособности и респонса видео, приходилось через диспетчер устройств в Windows отключать/включать нашего зверька, после чего он работал далее. Вылеты эти случались рандомно за температурой я следил Но! не пермоментно — насколько я понимаю температура из пиковых значений когда уходит нагрузка, резко понижается. Соотвецтвенно температура в простое была от 35 до 46гр под нагрузкой около 70-85 гр Цельсия.

Читать еще:  Рабочая температура видеокарты nvidia gtx 750

Так и жил зверёк до не давнего времени, я сначала пытался посмотреть что это за проблема, но всю информацию которую я открыл из тонны мусора в интернете это то что у серии 560 проблемы с нагревом и это не как не лечится.

Вообщем зверёк умер — ( после того как резко отрубилось питание в доме) а компьютер был в режиме сна. После включения я увидел ковёр на экране

Демонтировал карту, запустил компьютер на встроенном видео и пошёл искать инфу. Ничего толкового я так и не нашёл — отнёс видеокарту в СЦ сделали мне там пропай.- Дали Гарантию месяц на работу))

Принёс я зверька домой, инсталлировал обратно. И первым делом решил проверить как ведёт себя он на бенчмарках.

Установил:
— Driver 361.43 (Чистая установка)
— MSI Afterburner
— Aida 64 Extreeme
— FurMark

Температура в простое 35-42С

Тесты проводил в Furmark. Температура до 100С поднимается буквально за 30-35 секунд полёта бублика в режиме 1920х1080 на полном экране.
Тоже самое в играх в WOT в ангаре температура 86 и растёт. Кулер — 4200 об мин.
Радиатор и трубки горячие в момент работы.
Задняя часть платы за кристаллом тоже раскаляется.
Корпус у меня Zalman Z9 Plus c набором кулеров. — боковая крышка закрыта.

Прошу помочь точно убедится, что виной всему видеокарта.
— Как правильно следить за напряжением чтобы исключить Блок питания. (Напряжение на карте).
— Настройки BIOS
— Материнская плата.
— Тонкие настройки Windows
— Конфликты драйверов?
-так же на моей материнской плате есть Поддержка технологий Intel® Smart Response и переключаемая графика Lucid Virtu. (её я так и не смог заставить работать корректно — отключил программно или в BIOS)
-конфликт со встроенным видео HD Craphics от Indel?
— Может еще есть что-то что может заставлять видеокарту разогреваться.

Если честно не нашёл не одного чёткого, универсального гайда по диагностике видеокарт.
Может сделаете у себя — первые самые простые и необходимые шаги для диагностики неисправностей видео. Будет реально круто. Может я зря видеокарту носил на прогрев дело было не в отвале чипа а в другом .

Nvidia Geforce GTX 560: обзор, характеристики и тесты

Каждый год NVIDIA производит новые видеокарты, отличающиеся от предыдущих более высоким показателем производительности и наличием современных технологических возможностей. При этом снижается цена на старые модели. Для тех кому нужна игровая видеокарта по доступной цене, подойдет продукт Nvidia Geforce GTX 560. Модель обладает активностью во всех вычислительных блоках. В сравнении с предыдущим вариантом, эта модель обладает повышенной производительностью и отличной энергоэффективностью.

Технические характеристики

Особенно важны технические характеристики GTX 560. О производительности свидетельствуют количественные параметры, а также результаты тестовых игр и бенчмаркеров. Если говорить о первой составляющей, то здесь следующие показатели:

  1. Частота ядра – 810 МГц.
  2. Количество транзисторов – 1,95 млн.
  3. Шейдерные процессы – 336.
  4. Энергопотребление – 150 Вт.
  5. Скорость текстурирования – 45,4.

Характеристики видеокарты Nvidia Geforce GTX 560 включают совместимость и размеры. Они указывают на возможность совместимости с другими устройствами. Для обычных компьютеров для совместимости материнской платы и блока необходимо знать физические размеры, а также важны дополнительные разъемы питания и шина подключения.

Если видеокарта для ноутбука не распаивается на материнской плате, а подсоединяется через разъем, то значение имеет разъем подключения, шина и размер. Что касается этого варианта, то шина – 16*PCI-E2.0, толщина – 2 слота, длина – 21 см, высота – 11.1 см.

Память также имеет параметры: объем, тип, пропускную способность и частотность. При встроенном в процессор варианте, когда нет собственной памяти, применяется часть оперативной. Наибольшее значение – 1 Гб, 4000 МГц – показатель частоты и 128 Гб/с является важным параметром пропускной способности.

Для десктопных видеокарт актуальны разъемы. Используются стандартные видеоразъемы. Если предусмотрена возможность применения нескольких экранов, то применяется HDCP, а также HDMI.

Видеокарта поддерживает определенные технологические решения:

  • 3D Gaming;
  • 3D Vision;
  • CUDA;
  • SLI.

В связи с повышенным вниманием к крипвалютам, имеет значение и производительность в майнинге. Результат измеряется количеством миллионов решений, которые способна видеокарта сгенерировать за секунду. В этом случае показатель равен 80 Mh/s.

Обзор видеокарты

Небольшой обзор GTX 560 позволит сделать правильный выбор. Эта модель видеокарты пришла на смену GTX 460. При этом графическое ядро GF 104 было оптимизировано. Модель подходит для всевозможных игр с оптимальными настройками.

Компания NVIDIA предлагает модель в трех вариациях:

  1. Стандартная разгонная с дополнением Ti.
  2. Урезанный вариант – 560 SE.
  3. Для применения в ноутбуках – GTX 560M.

Сокращенная вариация стоит дешевле полноценной. Чтобы не было убытков при производстве, часть шейдерных блоков была заблокирована.

Улучшенная конфигурация видеокарты стоит на 40% выше, чем урезанная конфигурация. Но ее показатели мало отличаются от GTX 460. Поэтому, если выбирать видеокарту нового образца, то лучше приобрести сразу полноценный вариант.

Другие компании также выпустили вариации GTX 560. Например, модель от Manli отличается от оригинальной версии большей частотой – на 4 мегагерца.

Производитель Gigabyte повысил частоту до 830 МГц у видеопроцессора, что даже еще больше, чем у модификации с префиксом Ti.

Компания AMD также выпустила аналог – Radeon. Модель от компании NVIDIA выигрывает в сравнительной характеристике, так как у нее гораздо меньше риск возникновения перегрева и меньше шум вентиляторов.

Какой блок питания нужен GTX 560

Для этой модели требуется блок питания не менее 500 Ватт. Оптимальный вариант – 600 Ватт. При этом имеет значение, сколько винчестеров на устройстве и есть ли DVD-Rom.

Читать еще:  Ошибка драйвера видеокарты nvidia драйвер был восстановлен

Чаще всего блок питания подходит, если в наличии есть 2 разъема 6-pin для видеокарты. Если их вдруг нет, то лучше выбрать блок с показателем 600-700 Вт.

Важно, чтобы блок питания был качественным. Стоит учитывать, что видеокарта при максимальной нагрузке потребляет 170 Вт.

Как разогнать видеокарту Nvidia Geforce GTX 560

Чтобы увеличить производительность, можно произвести разгон GTX 560, в результате которого параметр частоты ядра может достичь 950 МГц, шейдерные процессоры – 1900. Увеличивается и показатель частоты памяти – до 4800 МГц.

Не все знают, что разгон видеокарты Nvidia Geforce GTX 560 может выполняться утилитой Afterburner. После осуществления процедуры становится намного лучше производительность в серьезных программах, а также увеличивается fps. Майнинг на GTX 560 имеет более высокую производительность.

Вот как выполняется разгон с помощью программы Afterburner:

  1. С официального сайта скачивается программа, а затем устанавливается и запускается.
  2. Выставляются необходимые параметры памяти и ядра. Нельзя повышать шаг разгона более, чем на 100 МГц.
  3. Затем нужно нажать Apply и провести тестирование в бенчмарках, играх и различных 3D приложениях.
  4. Если все хорошо, то можно и дальше повышать значения. Если же нет, то нажимается Reset и проставляются меньшие значения.

Для GTX 560 максимальная частота для ядра при разгоне составляет 925 МГц.

Результаты тестирования в играх

Производительность видеокарты проверяется в играх. При этом показатели измеряются в FPS. Среднее значение – это число от 0 и до 100.

Вот пример результатов устройства Nvidia Geforce GTX 560 при использовании в играх:

  1. GTA 5 с высоким уровнем настроек – 30 fps.
  2. Ведьмак 3 мощная версия – 35 fps.
  3. CS:GO – приблизительно 200 fps.

Используется этот тип видеокарты для всевозможных прикладных манипуляций и сложных игр.

Сравнение производителей

В таблице можно посмотреть цены на GTX 560 от разных брендовых компаний.

GeForce GTX 560

Подарите себе
игровой процесс класса GeForce GTX в Full HD 1080p

Видеокарта NVIDIA® GeForce® GTX 560 дарит производительность и мощь, необходимые вам для игры в разрешении full HD 1080p. Подарите себе игровой реализм с оживающими играми благодаря технологиям DirectX11, PhsyX и NVIDIA® 3D Vision™.

Отличная производительность

Готов к работе с поддержкой всех возможностей. Играйте в новейшие игры, такие как Duke Nukem Forever, в разрешении Full HD 1080p с 3-кратным приростом производительности по сравнению с видеокартами предыдущих поколений*.

Создано для DirectX 11

Насладитесь невероятным реализмом с GeForce GT 560 и погрузитесь в любимые DirectX11 игры с новым уровнем деталей ландшафтов и правдоподобными персонажами.

Игровой процесс GeForce GTX

Побеждайте соперников с игровой производительностью и технологиями GeForce GTX. Технологии DirectX 11 и PhysX оживляют компьютерные игры благодаря интерактивным окружениям, детализированным ландшафтам и правдоподобным персонажам. Насладитесь NVIDIA® 3D Vision™ на одном дисплее, или подарите себе игровой процесс на нескольких мониторах. GeForce® GTX 560 поддерживает режим SLI, позволяя объединять два карты и повышать производительность до двух раз**. Боле того, обновления драйверов NVIDIA® GeForce обеспечивают постоянную оптимизацию производительности на протяжении всего срока службы вашего GeForce GPU.

Поддержка Microsoft® DirectX® 11

DirectX 11 GPU с поддержкой Shader Model 5.0 создан для ультра-высокой производительности при использовании новой графической возможности API – создания мозаики с GPU-ускорением.

Поддержка NVIDIA® 3D Vision™*

Графические процессоры GeForce поддерживают технологию NVIDIA 3D Vision, обеспечивая захватывающее 3D в вашем ПК. 3D Vision представляет собой комбинацию высокотехнологических беспроводных очков и продвинутого ПО, превращующую сотни игр для ПК в настоящее невероятное стереоскопическое 3D. Более того, вы можете смотреть 3D фильмы и цифровые фото в 3D со сногсшибательным кристально-четким качеством.

Поддержка NVIDIA® 3D Vision Surround™**

Играйте в компьютерные игры на трех дисплеях в полном стереоскопическом 3D, наслаждаясь настоящим ощущением присутствия в игре, благодаря возможностям технологий NVIDIA 3D Vision и SLI. Также NVIDIA® Surround™ поддерживает игру на трех не-стерео дисплеях.

Технология NVIDIA® SLI®***

Ведущая в индустрии технология NVIDIA SLI обеспечивает потрясающий прирост производительности в самых последних игровых решениях под управлением операционной системы Windows 7 с последними драйверами благодаря реализации 3-way AFR (Alternate Frame Rendering, рендерингу с чередованием кадров)

Технология NVIDIA® PhysX®

Полная поддержка технологии PhysX становится основой совершенного нового класса физических взаимодействий в играх, обеспечивая еще более динамичную и реалистичную графику при работе с видеокартами GeForce.

Технология NVIDIA® CUDA™

Технология CUDA открывает возможности ядер графического процессора и ускоряет выполнение самых требовательных к ресурсам задач, таких как перекодирование видео, моделирование физических процессов, трассировка луча и другие, обеспечивая невероятный прирост производительности по сравнению с традиционными CPU.

Технология 32-х кратного сглаживания

Молниеносно быстрое высококачественное сглаживание с 32х кратной выборкой позволяет избавиться от зубчатых краев.

Технология NVIDIA PureVideo® HD****

Комбинация ускорения декодирования видео высокого разрешения и пост-обработки обеспечивает беспрецедентную чистоту изображения, плавность видео, натуральные цвета и точное масштабирование картинки для видео и кинофильмов.

Поддержка PCI Express 2.0

Создано для новой архитектуры шины PCI Express 2.0 для высочайших скоростей передачи данных в самых требовательных к полосе пропускания играх и 3D приложениях с поддержкой обратной совместимости с современными PCI Express материнскими платами.

Поддержка Dual Dual-link DVI

Работает с самыми большими в индустрии плоскопанельными дисплеями с самым высоким разрешением (до 2560×1600 пикселей) и поддержкой защиты широкополосных цифровых данных (HDCP).

Максимальная температура вашей видеокарты

Мой «рекорд» — 100 градусов.

А так стандарт 70-80.

MSI N560GTX-Ti Twin Frozr II/OC

температура в простое 25-30 C, а под нагрузкой максимум 50 С при 65% вращении кулера (зима);

температура в простое 30 C, а под нагрузкой максимум 60 С при 65% вращении кулера (лето).

DD Cooper
У меня сейчас 4:два на вдув и два на выдув.Водянки нет.Температуру регулирует драйвер.Во время игры в Круизис летом заметен шум от вентеля ещё сильнее

Rad1k
Не слабо вращается.Можно в системник дополнительно вентель на вдув поставить,напротив карты.Тогда обороты сбавишь

Шучу я! Греется конечно, в играх выше 73 градусов не видел вобще! В «бублики» и прочие грелки не играю.

Читать еще:  Сравнение бенчмарков видеокарт

shrabigus
Так и должно быть.

Ну-ну.Я ее не юзал, я не знаю. вам виднее =D

Сонный Бот
Трафик обновится,с компа поищу.Статей,посвящённых данной теме,не нашёл.Значит,есть какой-то изъян

shrabigus
Может,проще скрин выложить?Да бы не было споров

Если все всё знают, к чему тогда этот цирк, вот в чем вопрос.

А вообще Den-z2011, без обид, не хотел никого провоцировать. Все это скорее относится к Overclock[er].

А вообще,я думал,что люди скрины выкладывать будут

Den-z2011
Спасибо что разъяснили)

PS чтобы полноценно замерить температуру видяхи нужна длительная нагрузка, в с скрине этого не отразить. Какой смысл засорять PGшный сервер кучей ненужных картинок)

DartMaul
PS чтобы полноценно замерить температуру видяхи нужна длительная нагрузка,
Что мешает запуск игр,нагружающих карту на 99%?

в с скрине этого не отразить
Что могут отразить слова вообще без скринов?

Какой смысл засорять PGшный сервер кучей ненужных картинок)
Вот это как раз нужные картинки

Den-z2011
Что мешает запуск игр,нагружающих карту на 99%?
То, что реальную температуру карты можно увидеть только после того как она перестанет расти, то есть после того как система охлаждения прогревшись, сможет рассеивать столько тепла сколько выделяет карта, именно карта а не только GPU.

Нагрев «мгновенный», как вы говорите просто нагрузить карты до 99% и посмотреть куда подскочит температура, показывает лишь уровень суммарное тепловое сопротивление, и узкое место с наименьшим показателем площадь контакта*теплопроводность, между кристаллом GPU и радиатором, а длительный нагрев показывает общее соотношение производительности охлаждения к тепловыделению карты, с учетом всех «узких» мест.

Что могут отразить слова вообще без скринов?
На прогрев может уйти до 8-10 минут, и для частоты эксперимента на протяжении этого времени должна сохраняться полная загрузка. На столько я знаю ни одна программка монитор не показывает график за 8-10 минут.

HD7970, референсные, 1200/1650
Это конечно не 2 часа крайзиса а всего 2 полных прогона Unigine Heaven, но учитывая что на протяжении последних 7 минут ничего не менялось, я подумал что вряд ли стоит ждать еще.

Комнатная температура на момент теста — 23 градуса.

DartMaul
Не слабо разогрелась.Вот поэтому я и просил игровые тесты.В играх всяко должна меньше греться

shrabigus
Это тебя делали с подвыподвертом,хотели посмеяться.
Я ж не говорю,что из тебя пытались сделать интеллигента,а получился недоделанный позёр

shrabigus
На самом деле не совсем.
Если речь идет о деградации, то напряжение и температура приблизительно равнозначные факторы. Я бы даже сказал что температура чуть более важный, так как известно что под экстремальным охлаждением можно безопасно использовать бешеные напряжения, а при достижении TJmax вероятность деградации чипа велика даже при типичном для чипа вольтаже.
А если говорить о VRM то там именно от перегрева все и умирает.

Кстати о температуре:
Пару месяцев назад доставал свои 3870х2. Воды у меня на них нет, но погонять все ровно хотелось.
Я поставил туда вентиляторы от референсного охлада 7970 (они вроде как такие же, но крутятся по шустрее), поменял термопрокладки, намазал туда MX-4 (на алюминиевый радиатор) и ЖМ на медный. (я даже пробовал использовать для одной карты 2 медных радиатора, но толку мало)
В итоге всех манипуляций результат следующий:
http://hwbot.org/submission/2385226_dartmaul_3dmark06_2x_radeon_hd_3870_x2_34709_marks
Максимальная температура на обоих картах — 65 градусов. С учетом разгона и того что карта 2чиповая.

получасовой бенчмарк, температура держится стабильно.

я использую MX-2. Отличная термопаста.

exlipse88
-SK.art-
DartMaul
Благодарю за советы.Всё ж вчера не удержался и вскрыл карту,пока время на неё было:

Удивило то,что видюха проработала 4 года,а на решётке турбины пыли скопилось очень мало:

На вентеле немножко:

А что вот с этим делать,я так и не понял (вырезано из первого скрина):

Как-будто под плёночками по милиметровому свою термопасты.Я эту беду трогать побоялся

Может,кто подскажет,нужно ли это всё сдирать,или нет?

Старая термопаста была очень густая.Пока воспользлвался Титаном за 150 руб.Т.к. времени совсем не было на игровой тест,вот,что показал 8-ми минутный стресс-тест Комбустор и HWMonitor:

На три градуса ниже в простое всего лишь.Когда воспользуюсь MX-2,выложу разницу

у радеон 4870х2 была зафиксирована максимальная температура в районе 110 градусов.
при этом она функционировала на ч чипа 800мгц и оборотами вертушки 70% для игорь. я посчитал что вертушка имеет 4000 об-мин макс.
штатный полет в игорях 80 градусов. причем из особенностей конструкции один чип горячее другого примерно на 10-15 градусов.
работа свыше 80% оборотов веника была признана нецелесообразной тк карта вытягивала весь воздух из корпуса и впоследствии начинала перегреваться.

у жифорс 690 была зафиксирована максимальная температура в вижмаке 2 и составляла 120 градусов.
для сравнения штатный полет в драгон уге 2 давал 90 градусов. при достижении 80 градусов автербуфер имет мягкий график после достижения его порога максимально разгоняет веник. те для жифорса это 3000 об-мин — 5% которые таинственным образом заблокирован в драйверах.

в принципе эти карты и имеют подобную температуру.

жифорс 285 для игорей я не использовал и назвал бы это холодной картой. в каком-то бенчмарке я прогревал ее до 80 гр. а так при фузиксе т-ра была в целом 65-70 гр.

ща сижу на жифорсе 650ти у нее температуру не измерял но она в принципе не может быть высокой. хотя она работает с тем жи драйвером и настройками что и 690. в сейнс ров 3 — имелись артефакты с принудительным ао и еще артефакты в некоторых игорях что говорит о фактическом перегреве.


вывод у жифорсов гумновое охлаждение. начиная с 9800х2 это был убогий обрубок который припекал до феерических температур. 295 и 590 та-же история. обрубки с хреновым неадекватным тепловыделению охлаждением. 690 цельная но за каким-то чертом на нее нее не навесили нормальную турбину по характеристикам как у радеона 6990 и теперь у этой карте на любой игре 90-100 градусов.
= у жефорсав плохое охлаждение (хотя и работают они суммарно тише чем коллер мастер в10 на принудительных максимальных оборотах).

0 0 голоса
Рейтинг статьи
Ссылка на основную публикацию
ВсеИнструменты 220 Вольт