PDA

View Full Version : Видео карта - Core и Memory Speed.



nism
09-06-2011, 18:47
Така колеги :) Не съм много наясно с тези неща и за това се обръщам към вас с въпрос. Имам лаптоп с видео карта 6770m 1GDDR5. Не мога да разбера защо в GPU-Z ми дава GPU Memory clock и Default Memory clock съответно по 800 MHz и 216 MHz, а в сайтовете са други стойности . Имам някакво предполагаемо обяснение, но понеже не съм компетентен, а и в чичко гуугъл не можах да намеря точно обяснение, бих желал да ми обясните - това проблем ли е или така трябва да бъде. Иначе в SiSoftware Sandra ми показва както трябва . Също така пише, че има Memory Bus Width 128 Bit, а в Sandra пише, че има Channels: 4 и Width 32bit( и за това имам предполагаемо обяснение, но пак да кажа - по-добре някой от вас да обясни защо е така :) ).

ПП: Не мога да пускам линкве и се извинявам, защото не мога да ви дам направо скрийншотове и линк към видео картата. :oops:

DarkAngelOfHope
09-06-2011, 21:19
При лаптопите процесора и видеокартата си понижават честотите когато не е нужно да се ползва цялата мощ :) затова GPU-z ти показва по ниски честоти, защото в момента не ползваш видео картата :) има различни режими на работа които можеш да си избереш и да настройш по твой вкус :)

nism
09-07-2011, 11:12
Еми от къде мога да ги настроя тези режими ? Пък и дори, когато играя Alien vs Predator na Max графика, пак не се натоварва Memory Clock-a на 1600, а стои на 216 MHz.

nism
09-07-2011, 13:40
Хора хайде де :( . Нека разбиращите да ми обяснят малко на какво се дължи това. http://gpuz.techpowerup.com/11/09/07/akk.png

Cybershot
09-07-2011, 14:52
Ако си със 7ца, при минимизиране на приложението (играта) видеокарта, процесор спират да "мислят" по него и за това падат честотите. Пък честотите падат с цел икономия на енергия, нещо важно за 1 лаптоп. Игрите как ти вървят? Предполагам си с Интелски процесор и имаш вградена видеокарта? Би трябвало да се сменят автоматично при по-високо натоварване.

DarkAngelOfHope
09-07-2011, 14:53
На иконата в tray зоната (до часовника) за батерията, като цъкнеш ти излизат опции за избор на какъв режим да го ползваш, цъкни на more power options и ще видиш там какво имаш, избери High Performance, а от полето advanced можеш да си направиш допълнителни настройки :)

nism
09-07-2011, 18:17
Cybershot - Да със i7 съм. Имам вградена видео карта. Когато играя игри максимумът е http://gpuz.techpowerup.com/11/09/07/7ev.png . Странно е ? Също така не ми показва какъв вид памет има видеокартата. Самият клок да не зависи и от това каква е паметта. Мойта е GDDR5.

DarkAngelOfHope - Това с режимите съм го направил вече :)

ZloboMiR
09-07-2011, 20:54
Всичко работи, има Гугъл, ако искаш да разбереш всичко. А ако искаш да си създадеш сам проблем и да бъгнеш нещо, човъркай. :) Без човъркане не става.

nism
09-08-2011, 10:38
Е извинявай ама ти нищо не ми каза в момента ;] . За гуугъл съм гледал доста дълго време и не мога да открия отговори на моите въпроси. За човъркането от части си хем прав, хем не си :) . Така де ако има някой по навътре с нещата, ще се радвам да обясни това явление :) Защо ми дава такива стойности при положение, че трябва да са 1600 МHz.

ZloboMiR
09-08-2011, 12:20
Защото определено не си първият човек на света, интересуващ се от това. И си го има инфото. :)
Представи си един старичък процесор, който работи на 800 МХз. Работната честота се образува от шината на дънната платка*множителя на процесора. Примерно 100*8. Или 133*6 е около 800 също. Затова има смисъл да се клоква по шина, ускорява се и РАМ паметта. А иначе само ускорен процесор не може да прави трансфер от и до РАМ с такава скорост. Широчината на автобуса - 4*32 са ти 128 бита, не е казано, че трябва да е 1*128.
Другото, коуто са ти обяснили, също е вярно. А номиналните стойности понякога се размивават на практика, затова и процесорът може да даде няколко МХз разлика. Допълнителна малка грешка може да се внесе даже от софтуера за наблюдение. Предполагам, че сандрата прочита модел на картата и плюе статични данни, а CPU-Z измерва реалните стойности.
Обяснявах с процесор/РАМ защото видеокартата съдържа същата двойка модули, но строго специализирани за видео обработка.
По същия начин, човешката температура нормално е 37.0, но температура от 37.2 не е причина да искаш обяснения. Нарочно се опитах да отбия номера с две изречения, за да изпиташ удовлетворение, че си намерил отговора сам, и то от оригинален източник. :)

nism
09-08-2011, 13:07
Мхм. Мерси :) Виждам, че ги разбираш нещата. Просто ми е чудно защо ми дават различни стойности - 216 , 400 и 800 МHz. Разбирам че ефективната честота на GDDR5 e 4 x реалната. По тази логика 400 Mhz x 4 = 1600 Mhz - добре тук е добре (AIDA64 ми показа 400 МХз). Но ме притеснява GPU Memory clock и Default Memory clock съответно по 800 MHz и 216 MHz. Това означава ли, че 216 е реалната а 800 е ефективната (Както ми показва GPU-z) и ако е така, то видеокартата ми е даунклокната или има дефект. Има и друг вариант - Да не разчита GDDR5 паметта ( за GPU-z говоря) и тогава сигурно я зачита като DDR памет, чиято ефективна честота е 2 х реалната. От тук следва, че 800 Мхз х 2 = 1600 Мхз. В HWiNFO64 ми показва 216 Mhz. В GPUShark - 800Mhz. Не знам просто как ги смятат и най важното - КАК да проверя дали видеото ми бачка както трябва и на каквито честоти трябва. В CCC ми показва 800 Mhz - склонен съм да вярвам на по-лошото - > че 800 Мхз е ефективната а 216 реалната, което означава, че видеото или е даунклокнато или не работи както трябва.

ZloboMiR
09-09-2011, 11:39
1. Проверяваш в Гугъл какви са стойностите за видеокартата ти по данни на производителя и сравняваш с измерените. Толкова.
2. Проверяваш GDDR5 на колко МХз е, както и обикновената РАМ, 1, 2, 3... са просто различни поколения, с по-високи честоти от предишните.
3. И най-важното, не говорим за сирене, че да не отговаря на стандарта. В Китай нещата ги правят по стандарт, просто с голям процент дефекти. Затова си пусни един тест за артефакти. Вместо да ти давам програма, напиши в Гугъл How to test video card for artefacts и действай творчески.