Palit 3080 10Gb Gaming pro. Частота видеопамять ( Memory clock)
Народ, объясните пожалуйста мне, недалёкому, почему частота видеопамяти при тестах (FurMark, Superposition и т.д.) 1187,7 MHz в GPU-Z, afterburner показывает 9500 MHz, а у палита на сайте накалякана 19000 MHZ. Я пол интернета перерыл. Не знаю уже куда топать.
Мат. плата -- ROG STRIX B650E-E GAMING WIFI
Карта -- Palit 3080 10Gb gaming pro (LHR).
Проц.-- AMD Ryzen 5 7600X 6-Core Processor 4.70 GHz
Оперативка -- 64,0 ГБ (2 по 16) Kingston KF560C40-32
БП -- Thermaltake Toughpower gf3 1200w
SSD -- SSD Lexar NM620 M.2 NVMe 256GB
Я явно чего-то не знаю\не понимаю.
Сильно не бейте))
P.S.: Всех С Наступающим 🧑🏼🎄🎉🎉🔥
Здравствуйте,
У этой модели пропускная способность видеопамяти 19 Gbps, то есть 19000 MHz, спецификации модели на официальном сайте: https://eu.palit.com/palit/vgapro.php?id=3739&lang=ru&pn=NED3080019IA-132AA&tab=sp , для видеопамяти стандарта GDDR6X корректны обозначения нескольких разных частот, так как данные передаются по фронту и по спаду тактового сигнала, в этом случае 9500 MHz как в штатной программе Palit ThunderMaster: http://eu.palit.com/palit/thundermaster.php?lang=ru или в MSI Afterburner: https://www.guru3d.com/download/msi-afterburner-beta-download соответствует 19000 MHz в спецификациях, в программах для мониторинга и управления параметрами видеокарт, как правило, используется частота 9500 MHz, можете не беспокоиться, с видеокартой всё в порядке, детальную информацию можете посмотреть в программе Palit ThunderMaster по кнопке с буквой i в интерфейсе программы, если субъективно комфортнее, можете использовать двойной коэффициент в мониторинге MSI Afterburner, правая кнопка мыши на графиках мониторинга -> Свойства -> Частота памяти -> Формула коррекции -> x*2 -> Применить.
попробую покороче. GDDR(Graphics Double Data Rate-Графика с двойной скоростью передачи данных) 9500х2=19000 MHZ
Тут дружище надо умножать. Где то на два, где то на четыре. Дело в том что у частоты врам( gddr) есть несколько параметров. Реальная, эффективная...
Вот где 19000мгц - это эффективная частота. Где 9500 - это еще какая то (гуглить надо, я забыл - сильно не пинайте;)
А вот 1187мгц - это реальная частота. Умножай аж на 16.
И каждая прога отображает какую то из них. Эти частоты все пропорциональны. Нужно только умножить.
У GDDR есть несколько множителей не все программы их учитывают.
Самым надежным методом будет смотреть в GPU-Z, он показывает самую базовую частоту. То есть в GPU-Z частоте должна быть меньше чем указано в характеристиках в 4 раза для GDDR5 и в 8 раз для GDDR6. Если все так, значит все в порядке.
Как обладатель 3080, только от другого бренда, могу сказать что это - норма. А почему так - выше уже раскидали по полочкам, особо добавить нечего.