Мхм. Мерси Виждам, че ги разбираш нещата. Просто ми е чудно защо ми дават различни стойности - 216 , 400 и 800 МHz. Разбирам че ефективната честота на GDDR5 e 4 x реалната. По тази логика 400 Mhz x 4 = 1600 Mhz - добре тук е добре (AIDA64 ми показа 400 МХз). Но ме притеснява GPU Memory clock и Default Memory clock съответно по 800 MHz и 216 MHz. Това означава ли, че 216 е реалната а 800 е ефективната (Както ми показва GPU-z) и ако е така, то видеокартата ми е даунклокната или има дефект. Има и друг вариант - Да не разчита GDDR5 паметта ( за GPU-z говоря) и тогава сигурно я зачита като DDR памет, чиято ефективна честота е 2 х реалната. От тук следва, че 800 Мхз х 2 = 1600 Мхз. В HWiNFO64 ми показва 216 Mhz. В GPUShark - 800Mhz. Не знам просто как ги смятат и най важното - КАК да проверя дали видеото ми бачка както трябва и на каквито честоти трябва. В CCC ми показва 800 Mhz - склонен съм да вярвам на по-лошото - > че 800 Мхз е ефективната а 216 реалната, което означава, че видеото или е даунклокнато или не работи както трябва.