pc evaluarea per for mantel or sistemelor de calcul pe componente inclusiv over clocking

140
UNIVERSITATEA DIN BACĂU F ACULTATEA DE I NGINERIE POPA SORIN EUGEN EVALUAREA SISTEMELOR DE CALCUL note de curs şi seminar pentru studenţii Facultăţii de Inginerie 2007

Upload: codyboss1969

Post on 28-Jul-2015

238 views

Category:

Documents


15 download

TRANSCRIPT

Page 1: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

UNIVERSITATEA DIN BACĂU FA C U L T A T E A D E IN G I N E R I E

POPA SORIN EUGEN

EVALUAREA SISTEMELOR DE CALCUL

note de curs şi seminar pentru studenţii Facultăţii de Inginerie

2007

Page 2: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking
Page 3: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cuvânt înainte,

Volumul "Evaluarea performanţelor sistemelor de calcul " se

adresează studenţilor de la specializarea Tehnologia informaţiei anul IV şi acoperă materia cursului intitulat generic "Evaluarea performaţelor"

Cursul este structurat pe două părţi, prima de teorie ce conţine 6

capitole referitoare la noţiunile teoretice privind aspectele generale a evaluării, testării şi comparării performanţelor componentelor de bază ale sistemelor de calcul, şi a doua parte conţine care conţine 6 lucrări de seminar cu scopul de completare a celor predate la curs.

Primul capitol, "Noţiuni de bază privind evaluarea

performanţelor" face o trecere în vedere a întregului domeniu de evaluare a performanţelor, atât al companiilor (firmelor) cât şi a sistemelor de calcul. Aşa cum se va vedea şi din prelegerea ce urmează, este aproape imposibilă evaluarea unui sistem de calcul ca întreg, o evaluare obiectivă putându-se realiza doar pe componente. În consecinţă, următoarele capitole vor trata problema evaluării computerelor pe baza evaluării principalelor sale componente.

Capitolul doi tratează evaluarea plăcilor de bază ale unui computer, şi conţine definiţii şi elementele componente ale plăcii de bază şi o evaluare comparativă a plăcilor soket 939.

Al treilea capitol tratează problema evaluării procesoarelor, cu descrierea arhitecturii celor două mari clase de procesoare, Intel şi AMD, şi dual-core. În ultima parte a capitolului, prezentându-se procedura de realizare practică a testelor comparative.

Capitolul patru tratează procesul de evaluare şi testare a memoriilor iar capitolul cinci pe cel al plăcilor grafice.

Ultimul capitol care încheie acest volum se apleacă asupra testării şi evaluării hard discurilor.

A doua parte a volumului conţine şase lucrări de seminare care

vin în completarea materialelor prezentate în capitolele anterioare cu detalieri şi exemple practice.

În primul seminar se prezintă metodologia de evaluare generală a componentelor unui calculator, cu specificaţii mai detaliate pentru testarea plăcilor de bază.

Al doilea seminar tratează , drept exemplu, evaluarea plăcilor de bază dual core.

i

Page 4: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Al treilea seminar prezintă procedura de realizare a overclocking-

ului plăclor video, adică procedura de îmbunătăţire a performanţelor acestora.

Seminarul numărul patru prezintă modul general de testare şi evaluare a ecranelor TFT-LDC, şi criteriile de alegere a acestora

Ultimele două lucrări prezintă procedura de realizare a overclocking-ului la procesoarele Intel şi AMD64

Autorul

ii

Page 5: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Prelegere

La prima vedere, pare o problemă absurdă, o chestiune fără sens şi prea vagă

pentru a fi discutată. La urma urmei, cum se poate măsura performanţa unui sistem fără a aluneca în groapa discuţiilor fără sfârşit legate de platforme şi setări diferite şi benchmark-uri inconsistente? Ei bine, aceasta e problema cea mai importantă...

Avem de-a face cu o gamă aşa de diversificată de produse încât încercarea de a da consistenţă rezultatelor ce măsoară performanţa unui sistem informatic se transformă într-o luptă cu morile de vânt. Adevăraţii entuziaşti ai benchmark-urilor ignoră în mod voit problemele ivite, fiindcă altfel ar rămâne fără pasiunea care îi motivează. În cele ce urmează vom încerca să explicăm în ce fel un sistem de calcul se transformă dintr-un standard într-un unicat.

Un calculator poate fi definit în termeni vagi ca fiind alcătuit dintr-o unitate centrală şi periferice. Bineînţeles că există şi excepţii, dar haideţi să ne concentrăm asupra sistemului care respectă această regulă. Unitatea centrală este alcătuită, la rândul ei, din componente de bază (fără de care sistemul nu poate funcţiona) şi componente opţionale. Acestea din urmă pot fi îndepărtate din „demonstraţie” fără a avea un impact asupra concluziei. Rămân, deci, componentele de bază.

1. Placa de bază - prezentată în forme şi tipuri diverse (ATX, micro-ATX, BTX, etc.), motorizată de chipset-uri la fel de diverse (Intel, NVIDIA, ATI, ULi, VIA etc), cu suport divers pentru procesoare diverse (Socket 462, 478, 754, 775, 939, 940, AM2 etc), cu suport video variat (grafică integrată, slot AGP, PCI Express, SLI etc), cu suport felurit pentru memorii (de la bătrânele SDRAM şi RIMM la DDR, DDR2 etc). Menţionăm pe scurt şi alte caracteristici care pot lărgi şi mai mult varietatea plăcilor de bază (IDE, S-ATA, S-ATA II, sunet integrat de diferite tipuri şi performanţe, numărul de porturi USB, tipul şi numărul de conectori LAN etc).

2. Placa video - a cărei alegere se poate dovedi dificilă chiar şi pentru un specialist. Un cumpărător obişnuit se uită în special la cantitatea de memorie video, obicei „prins” repede de către producători şi care este exploatat la maximum, rezultând hibrizi cum ar fi plăci video cu performanţe slabe şi cantitate de memorie prea mare faţă de capacităţile „motorului”, sau faimoasele plăci video cu „memorie” TurboCache. Pe lângă aceasta, numărul şi varietatea de motoare grafice existente în prezent simultan pe piaţă fac genomul uman să se înverzească de ciudă. În afară de seriile ATI (numerotate de la 9200 la 9800 şi de la X300 la X850) şi GeForce (de la 5100 la 7800) trebuie să acordăm atenţie şi sufixelor (SE, TD, VL, VE, TC, GT, GTO, GT2, GT3 etc) care contribuie cu succes la îndesirea peretelui de fum ce acoperă sub nume frumoase performanţe uneori dezamăgitoare.

3. Memoriile - cu denumiri create în mod special pentru a suna frumos şi cu caracteristici reale ascunse de către producător mai bine decât chipul femeilor din Afghanistan. Cumpărătorul este din nou orbit de frecvenţele scrise cu litere uneori uriaşe şi ignoră existenţa acelui termen esenţial numit „latenţe”, permiţând producătorilor să vândă bine memorii cu latenţe uriaşe, preţuri colosale şi performanţe nu cu mult mai mari decât cele ale memoriilor cu frecvenţe mai mici dar latenţe strânse.

4. Am ajuns şi la componenta care părea să aibă o descriere mai simplă însă este, se pare, încă mai dificil de înţeles, şi anume procesorul. Limitându-ne doar la cei mai mari „jucători” de pe piaţa actuală (AMD şi Intel), enumerăm doar câteva dintre caracteristicile ce afectează performanţa: frecvenţa de funcţionare, dimensiunea cache-

iii

Page 6: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

ului, dimensiunea tranzistorilor, tipul şi numărul de instrucţiuni. Bineînţeles că goana după procente de vânzare i-a făcut pe ambii producători să creeze coduri şi denumiri care „bagă în ceaţă” un utilizator obişnuit. Avem Athlon 64 X2 4000+ sau Pentium 4 640+, Sempron 2500+ Palermo sau Celeron D315…, denumiri teribile şi confuze.

La această „supă primordială” se adaugă şi alte componente (sursa de alimentare, monitorul, o tastatură, un mouse, alte componente interne opţionale) care pot „face diferenţa” afectând pozitiv sau negativ performanţa sistemului.

Cu atâtea posibilităţi de a combina componente de bază, rezultatul testelor este nicicum altfel decât neconcludent. Încă mai mult, aceleaşi teste, efectuate succesiv pe acelaşi sistem sau pe sisteme absolut identice, dau rezultate diferite (şi ne referim aici la diferenţe cuprinse între 1% şi 3%). Cu alte cuvinte, se ridică încă o întrebare: este un benchmark o soluţie sigură de măsurare a performanţei unui sistem de calcul, mai ales luând în considerare existenţa altei variabile care poate afecta puternic modul în care se comportă un calculator: software-ul?

De ce software-ul? Fiindcă un calculator fără un sistem de operare este inutil. Iar un calculator cu un sistem de operare... este un sistem cu performanţă condiţionată de o mulţime de factori suplimentari: versiunea şi calitatea driverelor, modul în care sistemul de operare „ştie” să lucreze nativ cu anumite componente, cantitatea şi tipul resurselor consumate de către alte produse software instalate etc. Dar înainte de sistemul de operare şi lucrând în strânsă relaţie cu componentele hardware se află BIOS-ul, „călcâiul lui Ahile”, un conglomerat de linii de cod care, configurat incorect, poate transforma un iepure în broască ţestoasă.

Ei bine, soluţia a venit tot din partea entuziaştilor: să măsurăm întregul pe bucăţi! Au apărut testele axate pe măsurarea performanţelor procesorului, memoriei, plăcii video, hard disk-ului, unităţilor optice, apoi au apărut testele care verifică fiecare componentă din punct de vedere al performanţei şi, folosind un algoritm uneori obscur şi complicat, generează un scor final. Ca urmare, au apărut şi jocuri murdare (driver care detectează prezenţa unui program de benchmark şi îl „minte” pentru a obţine scoruri mai mari), au apărut contestaţii, a apărut o întreagă industrie bazată pe testarea performanţelor unui sistem faţă de altul. Toată această „goană după aur” continuă să fie alimentată de spiritul de competiţie tipic uman, reprezentat în acest caz prin expresia „scorul meu e mai mare ca al tău!”.

La final, ne lovim de o întrebare de 100 de puncte: având în vedere toate aceste diferenţe care fac ca două sisteme să nu poată fi comparate obiectiv, care este cel mai bun program de benchmarking? Răspunsul amar şi evident este: nici unul. De fapt, răspunsul corect este: cea mai bună măsură a performanţei unui sistem este utilizatorul acestuia, fiindcă este la fel de subiectiv ca şi un soft de testare. În sensul că dacă mie îmi este de ajuns sistemul X, degeaba râd alţii de mine că nu scot nici 1000 de puncte în 3DMark 05, iar dacă sunt un mega-super-hiper pretenţios, pot să am 15.000 de puncte în PCMark 05, tot nemulţumit rămân. Ergo, satisfacţia unui utilizator nu este egală cu cifra afişată ca rezultat de respectivul program de testare. Dar cine se poate lupta cu spiritul de competiţie al omului?

iv

Page 7: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

1. Noţiuni de bază privind evaluarea performanţelor Benchmarking este un proces utilizat în management şi în particular

management strategic, în care organizaţia evaluează mai multe aspecte ale propriilor procese în relaţie cu "best practice" (succesul), de obicei în interiorul sectorului propriu de activitate. Acest proces permite organizaţiilor să dezvolte planuri despre cum să adopte aceste poveşti de succes (best preactice), cu scopul de a obţine creşteri în performanţei. Benchmarking-ul poate fi un eveniment de singular, dardeseori este tratat ca un proces continuu în care organizaţia caută în mod permanent să-şi îmbunătăţească practicile.

Traducere: Bench-mark = (inf) mulţime bench-mark (mulţime cu un număr minim de

lucrări, utilizată pentru evaluarea performanţelor);

1.1. Benchmark-ul organizaţiilor

1.1.1. Avantajele benchmarking-ului Benchmarking-ul este o unealtă de management puternică deoarece învinge

"paradigmul orbului", paradigm care poate fi rezumat la modul de gândire, adică astfel: "Calea pe care o urmăm este cea mai bună, deoarece este calea pe care o urmăm întotdeauna". Benchmarkingul deschide organizaţiile către noi metode, idei şi mijloace pentru aşi îmbunătăţi eficacitatea. El ajută la învingerea rezistenţei naturale împotriva schimbărilor prin demonstrarea altor metode utilizabile în rezolvarea problemelor şi demonstrează că aceste metode funcţionează fiind folosite şi de alţii.

Avantajele benchmarking-ului asupra companiilor: • O mai bună înţelegere asupra aşteptărilor clienţilor deoarece benchmark-ul este

bazat pe realitatea pieţei estimate într-un mod obiectiv; • O planificare economică mai bună a scopurilor şi obiectivelor de atins în

companie deoarece ele sunt: centrate pe ce are loc în afara spaţiului controlat şi stăpânit;

• O mai bună creştere a productivităţii: rezoluţia problemelor reale prin înţelegerea proceselor şi a ceea ce produc ele;

• O practică curentă mai bună; • O mai competitivitate datorită: înţelegerii solide a competiţiei cu o puternică

implicare a noilor idei de vârf în practică şi în testarea noilor tehnologii. Benchmark-ul are consecinţe care sunt dincolo de procesul însuşi: el reformează

toate nivelurile companiei, modifică procesul de producţie, reformează organizarea ierarhică a companiei, producţia însăşi, şi mentalitatea angajaţilor.

1.1.2. Procedura de realizare a benchmark-ului • Identificarea zonelor cu probleme - deoarece benchmakingul poate fi aplicat

oricărui proces sau funcţii economice, pot fi necesare o serie de tehnici de cercetare. Acestea includ: conversaţii informaţionale cu clienţii, angajaţii sau

5

Page 8: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul furnizorii; tehnici de cercetarea exploratorii, cum ar fi: grupul ţintă, cercetări de marketing, cantitative, supraveghere, chestionare, analiză inginerească, harta procesului, controlul calităţii, analiza indicatorilor financiari:

• Identificarea organizaţiilor care sunt lideri în aceste probleme – • Examinarea, supravegherea companiilor pentru măsurători şi practică –

companiile ating anumite procese de afaceri folosind examinări detaliate ale măsurătorilor şi practicilor utilizate pentru a identifica procese alternative şi companii de vârf. Supravegherea este realizată, de obicei, asociaţi şi/sau consultanţi neutri, pentru a proteja datele confidenţiale;

• Vizitarea companiilor de succes pentru a identifica cele mai bune metode (practici) – companiile sunt de obicei de acord cu schimbul mutual de informaţii în interes comun pentru un grup de benchamark şi a împărţi rezultatele în interiorul grupului,

• Implementarea şi îmbunătăţirea noilor practici acumulate – preluarea celor mai bune practici (metode) şi dezvoltarea planurilor de implementare care includ identificarea oportunităţilor specifice, finanţarea proiectului şi vânzarea ideilor către organizaţie în scopul obţinerii valorilor demonstrative ale procesului.

1.1.3. Costul benchmarking-ului Benchmarking-ul este un proces cu un cost moderat-scump. Principalele trei

tipuri de costuri sunt: • Costuri cu deplasări – cheltuieli cu transportul, cazarea, diurna, cadouri

simbolice, şi pierderea timpului cu munca; • Costuri cu timpul – membrii echipei de benchmark vor investi timp în cercetarea

problemelor, găsirea celor mai bune companii pentru studiu, vizitare şi implementare. Acest timp este luat din timpul dedicat activităţilor curente de producţie;

• Costul bazei de date de benchmarking - organizaţiile ca au instituţionalizat benchmarkingul în procedura zilnică creează şi întreţin o bază de date cu best practice şi cu companiile asociate fiecărui succes.

1.2. Benchmarking-ului în computere În domeniul computerelor, benchmarking-ul înseamnă rularea unui program de

calculaor, sau a unui set de programe sau alte operaţii, cu scopul de a stabili performanţele relative a unui obiect, normal prin rularea a unui număr de testa standard sau de încercare asupra lui. Termenlul benchmark mai este de asemenea folosit de specialişti pentru a defini însăşi programele de testare.

Benchmarking-ul este de obicei asociat cu evaluarea performanţelor componentelor hardware caracteristice ale calculatoarelor, de exemplu, testarea performanţelor procesoarelor la operarea în virgulă mobilă. Testarea poate fi aplicată, de asemenea, şi software-uli, în special în testarea compilatoarelor sau a bazelor de date de management a sistemului.

Benchmark-urile oferă o metodă de comparare a performanţelor diferitor tipuri de subsisteme în combinaţie cu diferite sisteme. Benchmark-ul este util în înţelegerea modului în care managerul bazei de dare răspunde în diferite condiţii. Pot fi create scenarii care testează blocarea definitivă a manipulării, utilităţi de performanţă, diferite

6

Page 9: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 1: Noţiuni de bază privind evaluarea performanţelor metode de încărcat date, caracteristica ratei de tranzacţie când sunt conectaţi mai mulţi utilizatori şi chiar efectele utilizării unei versiuni noi a produsului.

1.2.1. Scopul benchmarking-ului Odată cu avansarea arhitecturii calculatoarelor, este din ce în ce mai dificilă

compararea performanţelor diferitelor sisteme de calcul doar prin analizarea specificaţiilor lor. Astfel, au fost dezvoltate teste care pot fi realizate pe diferite sisteme, permiţând compararea rezultatelor obţinute pe sisteme diferite. De exemplu, în tip ce un procesor Intel Pentium 4 operează în general la frecvenţe mai mari decât AMD Athlon XP, asta nu înseamnă în mod automat mai multă putere de calcul,. Cu alte cuvinte, un procesor AMD "mai lent" din punct de vedere al frecvenţei de ceas, poate realiza la fel de bine un test de benchmark ca un procesor Intel ce funcţionează la o frecvenţă mai mare.

Benchmark-urile sunt destinate a imita un anumit tip de suprasarcină pe un calculator sau sistem. Benchmarking-ul "sintetic" realizează testarea prin programe special create care impun o suprasarcină componentei evaluate. Benchmark-ul "aplicaţie" rulează un program din lumea reală pe sistem. În timp ce benchmark-ul aplicaţie ne dă o măsură mult mai bună a performanţelor reale ale sistemelor, benchmark-ul sintetic ăşi are utilitatea în testarea individuală a unor componente, cum ar fi hard discuri sau dispozitive de reţea.

Benchmark-urile sunt importante în special în proiectarea micorprocesoarelor, oferind arhitecturii procesorului abilitatea de a măsura şi realiza optimizarea deciziilor din proiectarea micro arhitecturală. De exemplu, dacă un benchmark ne oferă algoritmul cheie pentru o aplicaţie, el va conţine aspecte ale performanţelor sensibile ale acelei aplicaţii. Rulând aceasta într-o buclă mult mai strâmtă pe un simulator ciclic precis, putem obţine indicii privind îmbunătăţirea performanţelor.

Producătorii de calculatoare au o lungă istorie în încercarea de a-şi seta (proiecta) sistemele pentru a obţine performanţe mai înalte, nerealiste, în testele de benchmark care nu se regăsesc şi în utilizarea reală. De exemplu, prin 1980 unele compilatoare puteau detecta o operaţie specifică matematică folosită în cunoscutul benchmark în virgulă mobilă şi înlocuiau operaţia cu o operaţie matematică echivalentă care este mult mai rapidă. Dar, o asemenea transformare era rareori utilizată în afara benchmark-ului , până la mijlocul anilor 1990, când arhitecturile RISC1 şi VLIW2 au evidenţiat importanţa tehnologiei compilării în atingerea performanţelor. Benchmark-urile sunt acum frecvent utilizate de dezvoltatorii de compilatoare pentru a îmbunătăţi nu numai propriul scor, dar şi performanţele reale ale aplicaţiilor.

Producătorii raportează de obicei doar benchmark-urile (sau aspecte ale acestora) care pun produsul lor într-o lumină bună. Este de asemenea cunioscută metoda de a denatura semnificaţia benchmark-urilor, doar pentru a pune îântr-o lumină mai bună propriile produse. Luate împreună, aceste practici sunt numite "benc-marketing".

1.2.2. Provocări Benchmarking-ul nu este uşor şi deseori implică mai multe runde iterative

înainte de a obţine concluzii predictibile şi utile. Interpretarea datelor benchmark-ului

1 RISC = reduced instruction set computer 2 VLIW = Very Long Instruction Word

7

Page 10: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul este, de asemenea, extraordinar de dificilă. Iată câteva din provocările normale ale benchmarking-ului:

• producătorii au tendinţa de a potrivi specificaţiile produselor după standardele industriale;

• benchmark-urile în general nu dau nici o garanţie pentru calitatea serviciilor. Exemple de ne-măsurare a calităţii serviciilor includ: securitatea, disponibilitatea, fiabilitatea, integritatea execuţiei, durata de serviciu, scalabilitatea (în special abilitatea de a adăuga sau modifica capacităţi în mod nedistructiv);

• în general, benchmark-urile nu măsoară TCO3. Specificaţiile TCP4 Benchmark se adresează parţial asupra costului de proprietate prin specificarea faptului că trebuie utilizată o metrică preţ/performanţă.

• Benchmarkul rareori măsoară performanţele din lumea reală a sarcinilor mixate – rularea unor aplicaţii multiple concurenţiale într-un context multi-departamental / multi-aplicaţie. De exemplu, serverul mainframe IBM excelează în sarcini mixate, dar standardele industriale de evaluare nu tind să măsoare puterea I/O şi design-ul mare şi rapid al memoriilor de care are nevoie serverul. Multe alte arhitecturi de server dictează o funcţie fixă, un scop unic: server de baze de date, server de aplicaţii, server de fişiere, server web;

• Producătorii de benchmark-uri tind să ignore necesităţile pentru capacităţile de dezvoltare, testare şi recuperarea în caz de dezastru. Producătorilor le place să se raporteze doar la necesităţile restrânse ale capacităţilor de producţie.

• Benchmark-urile au probleme în adaptarea la lumea serverelor distribuite, în special datorită sensibilităţii topologiei reţelelor;

• Utilizatorii pot avea percepţii foarte diferite a performaneţei pe care benchmark-ul o poate sugera. În particular, utilizatorii apreciază predictabilitatea – servere care întotdeauna îndeplinesc sau depăşesc SLA5. Bgenchmark-ul tinde să accentueze un scor (din perspectiva IT).

• Multe arhitecturi de servere se degradează dramatic la un nivel ridicat de utilizare (apropiat de 100%) - ("fall off a cliff" = cădere în pantă, bruscă), dar benchmark-ul nu ia întotdeauna în calcul acest factor. Producătorii au tendinţa să publice rezultatele benchmark-ului pentru o utilizare constantă de 80% a serverelor, o situaţie total nereală, şi să nu ne informeze despre ce se întâmplă la supraîncărcarea sistemului, când vârful de sarcină trece epste acest prag.

1.2.3. Tipuri de benchmark 1. Real program

o Software de procesare text; o Unelte software CDA o Aplicaţii utilizator (MIS)

2. Kernel o Conţine codul cheie; o În mod normal abstract de la programul actual ; o Kernel normal: bucle Livermore;

3 TCO = Total cost of ownership 4 TCP Benchmark = Transaction Processing Performance Council 5 SLA = Service Level Agreement

8

Page 11: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 1: Noţiuni de bază privind evaluarea performanţelor o linpack benchmark (cnţine subrutine algebrice lineare scrise în limbajul

FORTRAN); o rezultatele sunt prezentate în MFLOPS6

3. Toy Benchmark/ micro-benchmark o Utilizatorii le pot programa şi utiliza pentru a testa componentele de bază

ale calculatorului; o Detectează automat parametrii componentelor hardware ale

calculatoarelor, cum ar fi: număr de înregistrare, dimensiune cache, întârzierea memoriei;

4. Synthetic Benchmark o Procedura pentru programarea unui synthetic Bench mark

Se culeg date statistice despre toate tipurile de operaţii de la programele de aplicaţii;

Se obţine proporţia fiecărei operaţii Se scrie un program bazat pe proporţiile obţinute anterior.

o Tipuri de Synthetic Benchmark: Whetstone Dhrystone

o Rezultatele sunt reprezentate în KWIPS (kilo whetstone instructions per second). Acest test nu este adecvat pentru a măsura pileline-ul (conductele) computerelor.

Fia

5. I/O benchmarks 6. Benchmark-uri paralele: sunt utilizate pe

maşini cu procesoare multiple sau sisteme ce onstau din mai multe maşini.

1.3. Arhitectura calculatoarelor

În viziune clasică, arhitectura calculatorului este văzută c o serie de straturi abstracte:

• Hardware – este un termen utilizat în general pentru deschierea componentelor fizice ale sistemului,

• Firmware – este un software scris (ars) de producători în componentele hardware (cipuri);

• Assembler – program utilitar folosit pentru traduce(care este un limbaj low-level pentru programarea ca

• Kernel – reprezintă componenta centrală a oriccomputerului, el administrează resursele sistemucomponentele hardware şi software;

• sistem de operare – reprezintă un set de programe hardware şi software ale unui computer;

• aplicaţii.

6 MFLOPS = FLoating point Operations Per Second, operaţii în virgulă

9

g. 1.1: O viziune tipică asupra rhitecturii calculatorului ca o

serie de straturi.

rea limbajului de asamblare lculatoarelor); ărui sistem de operare al lui şi comunicarea dintre

care administrează resursele

mobilă pe secundă

Page 12: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul În ingineria calculatoarelor, arhitectura calculatoarelor este un design conceptual

şi structurarea funcţionării fundamentale a unui sistem de calcul. Ea reprezintă copia fidelă şi descrierea funcţională a cerinţelor (în special viteze şi interconexiuni) şi designul implementării pentru diferite părţi ale calculatorului, concentrându-se pe larg asupra modului în care unitatea centrală de calcul (procesorul) realizează funcţiile sale interne şi accesează adresele din memorie.

Arhitectura calculatoarelor cuprinde cel puţin trei ari categorii: • arhitectura setului de instrucţiuni, sau ISA, - este o imagine abstractă a

sistemului de calcul care este văzută de limbajul maşină (limbajul de asamblare), şi include setul de instrucţiuni, modul de adresare al memoriei, regiştrii procesor şi adresarea şi formatul datelor;

• micro-arhitectura, cunoscută ca şi organizarea calculatorului, - este de nivel scăzut, mai concret, descrierea sistemului care implică cum părţile constituente ale sistemului sunt interconectate şi cum inter-operează ele pentru a implementa ISA. De exemplu, dimensiunea memoriei cache, este o caracteristică organizaţională care, în general, nu are nimic în comun cu ISA.

• designul sistemului, care include toate celelalte componente hardware din calculator, cum ar fi:

o sistemul de interconectare: magistrale şi comutatoare; o controllerul de memorie şi ierarhie; o mecanismul de acces direct la memorie al CPU; o facilităţi ca multiprocesarea.

Odată ce ISA şi microarhitectura au fost specificate, dispozitivul trebuie să fie

proiectat în hardware. Acest proces de design, proiectare, este deseori denumit implementare. Implementarea nu este considerată ca făcând parte din arhitectura calculatorului, ci, mai degrabă, din ingineria proiectării.

Implementarea poate fi împărţită în trei părţi, şi anume: • implementarea logică – în care blocurile definite în microarhitectură sunt

implementate ca ecuaţii logice; • implementarea circuitului – în care blocuri de viteză critică, sau ecuaţii

logice sau porţi logice sunt implementate la nivel de tranzistor; • implementarea fizică – în care circuitele sunt desenate, componente de

circuit diferite sunt plasate în planul chipului sau pe placă şi sunt trasate conexiunile dintre piese.

Pentru procesoare, întregul proces de implementare se numeşte CPU design.

1.3.1. Scopurile proiectării Cele mai comune ţinţe în arhitectura calculatoarelor este realizarea echilibrului

dintre cost şi performanţă (ex: viteză), alături de alte consideraţii, cum ar fi: dimensiunea, greutatea, fiabilitatea, setul de facilităţi, expandabilitatea şi consumul de energie.

Costul – în general costul este menţinut constant, determinat de cerineţele de sistem sau comerciale;

Performanţa În general, performanţa calculatorului este descrisă în termeni de viteză de ceas

(MHz sau GHz). Aceasta se referă la cicluri pe secundă ale ceasului procesorului. Dar, 10

Page 13: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 1: Noţiuni de bază privind evaluarea performanţelor de multe ori această măsură este greşit înţeleasă, deoarece o maşină cu o frecvenţă de ceas mai mare nu este obligatoriu să atingă performanţe mai înalte. Drept rezultat, producătorii sau îndepărtat de măsurarea performanţelor prin măsurarea frecvenţei procesorului. Performanţele calculatorului mai pot fi, de asemenea, măsurate prin dimensiunea memoriei cache. Drept analogie să luam traficul auto, dacă viteza maşinii este dată în MHz sau în GHz, lipsa aglomeraţiei de pe autostradă este dată de mărimea cache. Nu contează cât de mare este viteza unei maşini, dacă autostrada este aglomerată (cache mic) performanţele vor fi reduse. Cu cât viteza este mai mare, cu atât mai mare este necesarul de cache.

Procesoarele moderne pot executa mai multe instrucţiuni pe un ciclu de ceas, ceea ce creşte dramatic viteza de execuţie a unui program. Un alt factor care influenţează viteza este mixarea unor unităţi funcţionale, viteza magistralei, disponibilitatea memoriei şi tipul şi ordinea instrucţiunilor din programul care rulează.

Sunt două tipuri principale de viteză: latenţa şi puterea de trecere (throughput). Latenţa este timpul dintre începutul procesului şi terminarea lui. Puterea de trecere reprezintă cantitatea de muncă realizată pe unitate de timp. Latenţa de întrerupere7 este garantarea timpului maxim de răspuns a sistemului la un eveniment electronic (ex: când HDD termină de mutat datele dintr-un loc în altul). Performanţa este afectată de o foarte mare plajă de alegeri făcute în proiectare – de exemplu, adăugarea de cache face latenţa mai proastă (lentă) dar creşte puterea de trecere. Calculatoarele care controlează maşini (calculatoarele de proces) necesită, de obicei, o latenţă de întrerupere scăzută. Aceste calculatoare operează în timp real şi produc eşec dacă o operaţie nu este terminată într-un anumit interval de timp.

Performanţa unui calculator poate fi măsurată folosind alte metrici, dependente de domeniul de aplicaţie. Consumul de energie a devenit important în sistemele server şi cele portabile.

Benchmarking-ul încearcă să ia în considerare toţi aceşti factori în procesul de măsurarea a timpului de execuţie a unei serii de programe de test. Cu toate că benchmark-ul ne dă puterea, el nu ne poate ajuta în alegerea unui calculator. De cele mai multe ori, măsurarea unei maşini înseamnă mai multe măsurători. De exemplu, un sistem poate realiza rapid aplicaţii ştiinţifice, iar un altul poate rula jocuri video la modă mult mai uşor.

Schema generală a optimizării este de a căuta costurile diferitor părţi componente al calculatorului. Într-un sistem de calcul echilibrat, rata de transfer a datelor va fi constantă pentru toate părţile sistemului, şi costul va fi alocat proporţional pentru a asigura acest lucru. Forma exactă a unui sistem de calcul va depinde de constrângerile şi scopurile pentru care va fi optimizat.

Consumul de energie Consumul de putere este un alt criteriu de design. Eficienţa energetică poate fi

deseori tratată pentru performanţă sau eficienţă economică. Odată cu creşterea densităţii de energie în circuitele numerice moderne datorată creşterii numărului de tranzistori din chip, eficienţa energetică a crescu ca importanţă. Designul procesoarelor moderne, cum este şi IntelCore 2 pune un accent mai mare pe creşterea eficienţei energetice. Astfel, în lumea calculatoarelor capsulate, eficienţa energetică a fost şi rămâne principala ţintă în proiectare, alături de performanţă. 7 latenţa de întrerupere - timpul scrus de la generarea unei întreruperi de către un dispozitiv şi deservirea acelui disozitiv.

11

Page 14: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

2. Evaluarea performanţelor plăcilor de bază

2.1. Plăcile de bază: funcţionare, istorie

2.1.1. Definiţii de bază: chipset-ul Chip-ul reprezintă denumirea pentru un circuit integrat, construit pe bază de

siliciu, care are un rol bine definit în funcţionarea unui echipament electronic. Procesorul, memoria, placa de bază, placa grafică, placa de sunet, toate înglobează unul sau mai multe astfel de chip-uri, fiecare având rolul său, ce poate fi ori de execuţie a anumitor operaţii, ori de memorare a unor date, de obicei temporară. Spre exemplu, funcţia procesorului este uşor de înţeles: execuţia propriu-zisă a operaţiilor necesare desfăşurării activităţilor unui computer. Placa grafică deţine un chip principal ce efectuează operaţii similare dar optimizate pentru domeniul grafic, atât 2D cât şi 3D. Memoria nu face altceva decât să stocheze temporar informaţii necesare celorlalte echipamente. Am ajuns la placa de bază, al cărei rol este mai greu de înţeles. Mulţi vor considera că singurul ei rol este acela de a lega componentele între ele, aşadar ce nevoie mai avem de chip-urile prezente pe ea? În primul rând, placa de bază nu este pur şi simplu un element de legătură ci componenta principală a unui sistem, care coordonează toate activităţile. Ea joacă rol de arbitru şi direcţionează fluxurile de date între procesor şi memorie, memorie şi hard disk, procesor şi tastatură şi altele asemenea. Nimic nu poate funcţiona „pur şi simplu”, este nevoie de o componentă „supremă” care să ştie să folosească resursele celorlalte componente dintr-un PC. Un astfel de echipament poartă numele de controller. Putem spune că placa de bază este un controller general, diferitele segmente ale ei oferind funcţia de controller local. De exemplu, controller-ul de memorie este circuitul care „dă viaţă” memoriei, fără el minunatele memorii DDR PC3200 vor fi alimentate cu energie şi nimic mai mult, neexistând nimeni care să exploateze posibilităţile oferite de ele.

(placă de bază pentru procesoare 486) (placă de bază modernă: Epox 4PCA3+)

Controller-ul principal al plăcii de bază este denumit chipset, fiind format de

obicei din două chip-uri independente (de aici denumirea de chipset = set de chip-uri). Ele poartă numele de northbridge şi southbridge (aceasta în ciuda încercării unor companii de a le schimba aceste nume deja încetăţenite). Sau altfel spus, puntea de nord şi cea de sud (evident că nu există nici o legătură cu punctele cardinale, nordul şi sudul fiind alese pentru a sublinia poziţiile opuse pe care le au aceste chip-uri, aproape simetrice faţă de centrul plăcii). Fiecare dintre ele are un rol bine determinat, rol care depinde de la chipset la chipset dar există multe elemente comune între diferitele modele. Numărul tipurilor de chipset-uri apărute de-a lungul istoriei este foarte mare, însă numărul celor folosite într-o anumită perioadă a evoluţiei PC-urilor este relativ mic.

12

Page 15: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 2: Evaluarea performanţelor plăcilor de bază Voi folosi în continuare denumirile de chipset, northbridge şi southbridge chiar dacă ele nu sunt 100% corecte, în primul caz pentru că unele chipset-uri sunt de fapt simple chip-uri (nordul se contopeşte cu sudul), fiind prezent un singur integrat principal pe placa de bază ce joacă dublu rol, iar în ultimele cazuri pentru că schimbarea forţată a denumirilor de către producători (un exemplu fiind Intel) este întemeiată şi relevantă.

Această primă parte a capitolului intenţionează, pe de o parte, să facă lumină printre utilizatorii de calculatoare care nu cunosc principiile funcţionării plăcilor de bază moderne şi nici nu sunt la curent cu ultimele evoluţii de chipset-uri şi, pe de altă parte, să ofere pasionaţilor o scurtă istorie a acestui domeniu. Cum o istorie a modelelor de plăci de bază este inutilă şi practic imposibil de realizat, numărul lor fiind de ordinul miilor, vom parcurge chipset-urile prezente în epoca modernă a calculatoarelor, insistând pe perioada ultimilor 5-6 ani şi exemplificând acolo unde este cazul cu modele de plăci care au rămas cu adevărat în istorie.

Pentru început, vom vorbi despre modelul clasic de chipset, format din northbridge şi southbridge, componente ce îndeplinesc anumite sarcini standard: northbridge-ul este răspunzător de comunicarea cu procesorul, cu memoria, cu portul AGP şi/sau PCI Express (dacă cel puţin unul dintre ele există) iar southbridge-ul cu tot ce înseamnă periferic: unităţi de stocare (porturile IDE şi cel de floppy), slot-urile PCI şi ISA şi interfeţele externe, cum ar fi cea USB, FireWire, reţeaua sau sunetul. Comunicarea dintre cele două componente principale este realizată la o viteză maximă predefinită, care este de regulă egală cu cea a bus-ului PCI (133 MB/s), eventual multiplicată de un număr de ori. (Vom vedea mai târziu ce este un bus.) Spre exemplu, comunicarea dintre nordul şi sudul chipset-ului VIA KT133A este realizată la viteza bus-ului PCI, la KT266A ea este (cu ajutorul tehnologiei V-Link) de 266 MB/s iar în cazul lui KT400 la 533 MB/s (V-Link 8x). Aceasta înseamnă că fluxul de date nu poate depăşi această limită, deci degeaba aveţi un hard disk Serial ATA cu un transfer de 150 MB/s (iarăşi, maxim) dacă există limitarea de 133 MB/s. În realitate, aceste limite nu influenţează aproape deloc performanţa unui sistem, necesarul fiind mai mare decât limita într-un număr infim de situaţii; dacă hard disk-ul doreşte să transfere 150 MB/s într-o situaţie dintr-o mie şi nu-i pot fi satisfăcuţi decât 133 MB/s, rezultă faptul că viteza sa a fost diminuată cu un procent total nesemnificativ. Producătorii de chipset-uri se luptă în această pseudo-competiţie a bus-urilor, recent depăşindu-se 1 GB/s. Într-adevăr, arată bine pe hârtie.

După cum aţi putut observa, fiecare componentă a sistemului trebuie „controlată” de cineva. Plăcile PCI sunt, la rândul lor, un fel de controllere, ele fiind răspunzătoare de activităţi conexe, cum ar fi emiterea de sunet în boxe (plăcile de sunet), preluarea semnalului din linia telefonică (modemul) sau prelucrarea semnalului TV (TV tuner-ul). Mai mult, unele plăci chiar se numesc controllere şi îndeplinesc funcţia de suport pentru unele componente externe pe care placa de bază nu le cunoaşte. Spre exemplu, dacă placa de bază nu deţine integrat suportul pentru interfaţa FireWire, o simplă placă PCI poate îndeplini sarcina. Sau, mai există situaţia în care controller-ul nu este nici integrat în chipset-ul plăcii de bază, nici prezent sub forma unei plăci suplimentare; el este pur şi simplu integrat pe placă, sub forma unui chip, fiind considerat un dispozitiv obişnuit, ataşat adesea la bus-ul PCI.

Northbridge-ul este componenta principală a chipset-ului, de el depinzând practic performanţa sa. Un controller de memorie bun poate oferi mai multă viteză, şi

13

Page 16: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul aceasta ne putem da seama parţial doar privind specificaţiile. Să luăm nişte exemple: VIA KT266A şi KT333. Primul poate lucra cu memorie DDR la frecvenţa de 133 MHz, al doilea poate creşte viteza acesteia la 166 MHz, de unde rezultă performanţe mai bune. Există şi altă situaţie, aceea în care specificaţiile sunt aceleaşi dar performanţele diferă: KT266A este mai rapid decât KT266, deşi ambele suportă acelaşi tip de memorie, din

cauza optimizărilor interne. Uneori, aceste optimizări depăşesc în eficienţă forţa brută a creşterii frecvenţei, cum este şi în cazul de faţă: saltul de performanţă de la KT266 la KT266A este mai mare decât în cazul comparaţiei KT266A - KT333.

Există mai multe tipuri de controllere de memorie, în funcţie de tipul acesteia. Unele pot lucra şi cu memorie SDR şi cu cea DDR, altele sunt dedicate special celor de tip Rambus, altele oferă tehnici de dublare a vitezei efective (încă o dată faţă de DDR); este nel. Iar alte chipset-uri nici nu conţin acest controller, el

fiind integrat în procesor, precum este cazul procesoarelor din familia AMD64. A doua sarcină principală a

vorba de tehnologia dual-chan

northbridge-ului este comunicarea cu procesorul. Aici ap

trebare firească: care este viteza de comunicare dintre northbr

ia sarcină a northbridge-ului. Orice sistem

ar diferenţele fundamentale dintre chipset-uri şi de aceea există incompatibilităţi între anumite chipset-uri şi anumite procesoare. Limbajul folosit pentru comunicare trebuie să fie comun şi, din cauza faptului că există mai multe generaţii şi mai multe companii care produc procesoare, există şi mai multe standarde în ceea ce priveşte chipset-urile. Astfel, găsim câteva platforme distincte: Athlon XP (Socket A), Pentium 4 (Socket 478, LGA 775), Athlon 64 (Socket 754 şi 939) şi exemplele pot continua. Pentru fiecare din ele există o serie de chipset-uri care „cunosc” limbajul procesoarelor în cauză şi astfel pot dota plăci de bază corespunzătoare acestora. Acest limbaj, care permite comunicarea „pe aceeaşi lungime de undă” între orice două componente dintr-un sistem, se numeşte bus.

Deja se naşte o înidge şi procesor? Această viteză este dată de PSB (Processor Side Bus), variază

în funcţie de procesor dar şi de setările plăcii de bază şi se măsoară în MHz. Procesoarele până la Pentium III aveau acest PSB setat la frecvenţe între 66 şi 133 MHz (nu vorbim aici de creşterea artificială, adică overclocking). Pentru procesoarele din familia AMD K7 (Athlon, Athlon XP, Duron), el variază între 100 şi 200 MHz, în funcţie de procesor, frecvenţă care este multiplicată cu 2. În termeni electronici, spunem că informaţia este transmisă atât pe frontul crescător cât şi pe cel descrescător al semnalului, de unde rezultă o dublare a vitezei (şi nu o dublare a frecvenţei), tehnică folosită şi la memoria DDR. Departamentele de marketing au profitat imediat de situaţie şi au afirmat că FSB-ul procesoarelor Athlon este de 200-400 MHz, afirmaţie teoretic greşită, practic neafectând cu nimic adevărul „palpabil”. Pentium 4 foloseşte un mecanism asemănător prin care multiplică de patru ori PSB-ul, rezultând 400, 533, 800 şi 1066 MHz virtuali în loc de 100, 133, 200 şi 266.

Bus-urile AGP şi PCI Express reprezintă a tremodern deţine o placă grafică cu capabilităţi 3D, componentă care comunică cu

northbridge-ul prin bus-ul AGP sau PCI Express X16. Frecvenţa celui AGP este de 66 MHz, egală cu dublul frecvenţei PCI, însă ea este multiplicată opţional de un număr de ori, corespunzător x-ului indicator: AGP 2x, AGP 4x, AGP 8x, ultimul oferind valoarea impresionantă de 2.1 GB/s. Sunt valabile aceleaşi considerente de la comunicarea dintre

14

Page 17: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 2: Evaluarea performanţelor plăcilor de bază cele două componente ale chipset-ului, aşadar necesarul efectiv este în majoritatea cazurilor mult mai mic decât cel oferit de AGP 8x. Drept dovadă, micşorarea forţată a transferului la nivelul lui AGP 2x nu scade performanţele cu mai mult de 10-30%.

În cazul lui PCI Express, lucrurile stau altfel: atât bus-ul X16, necesar plăcii grafice

2.1.2. Memoria, tipuri de memorie Memory) este denum

tip de magnetice),

stocate se

• sub formă de chip-uri (aşadar excludem dispozitivele magnetice sau

tilitatea memoriei RAM este foarte mare, ea beneficiind în plus faţă de alte medii d

ria de tip SRAM este folosită cel mai adesea ca memorie cache p

tipuri de memor

preţul m

ECC şi extrem de scumpe, folosirea lor fiind justificată doar în cazuri speciale, când corectitudinea

(eventual X8 în unele cazuri), cât şi cele destinate plăcilor obişnuite (X1, X4) sunt gestionate de northbridge. Frecvenţa sa este de 100 MHz, iar rata de transfer în modul 1x este similară lui AGP 1x şi dublă faţă de PCI.

Memoria RAM (Random Access irea generică pentru orice emorie care deţine următoarele caracteristici:

• poate fi accesată aleator (nu secvenţial, precum benzile m• este volatilă (la întreruperea alimentării cu energie electrică, datele

pierd) şi , se prezintăoptice, precum hard disk-urile sau CD-urile). Ue stocare a informaţiilor de o viteză extrem de mare, fiind de mii de ori mai

rapidă decât un hard disk, de exemplu. Există două tipuri principale de RAM: memorie statică (SRAM = Static RAM) şi dinamică (DRAM = Dynamic RAM), diferenţele constând în „stabilitatea” informaţiilor. Astfel, memoria statică păstrează datele pentru o perioadă de timp nelimitată, până în momentul în care ea este rescrisă, asemănător unui mediu magnetic. În schimb, memoria dinamică necesită rescrierea permanentă, la câteva fracţiuni de secundă, altfel informaţiile fiind pierdute. Avantajele memoriei SRAM: utilitatea crescută datorită modului de funcţionare şi viteza foarte mare; dezavantaj: preţul mult peste DRAM.

În realitate, memoe când DRAM-ul este uzual în PC-urile moderne, fiind prezent în primul rând ca

memorie principală a oricărui sistem. De acest din urmă tip ne vom ocupa în continuare, enumerând tipurile uzuale de DRAM prezente de-a lungul istoriei, toate concepute în scopul creşterii performanţelor DRAM-ului standard: FPM DRAM (Fast Page Mode DRAM), EDO DRAM (Extended Data Out DRAM), BEDO RAM (Burst EDO DRAM), RDRAM (Rambus DRAM), în prezent impunându-se SDRAM (Synchronous DRAM), cu variantele DDR SDRAM (Double Data Rate SDRAM) şi DDR2 SDRAM.

De asemenea, pentru plăcile grafice au fost concepute mai multe ie, printre care VRAM (Video RAM), WRAM (Windows RAM), SGRAM

(Synchronous Graphics RAM) şi GDDR3, ele fiind variante de DRAM (primele două), SDRAM şi respectiv DDR2 SDRAM, optimizate pentru a fi folosite ca memorie video.

Ar mai fi de menţionat alte două elemente care influenţează viteza, stabilitatea şi emoriilor: funcţiile ECC şi Registered, integrate în unele module de memorie.

Cele ECC (Error Correction Code) deţin o funcţie specială care permite corectarea erorilor ce apar pe parcursul utilizării iar cele Registered (numite şi Buffered), deţin un buffer (zonă de memorie suplimentară) care depozitează informaţia înainte ca ea să fie transmisă controller-ului, permiţând verificarea riguroasă a acesteia.

Memoriile Registered sunt mai lente decât cele normale sau

15

Page 18: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul informa

lăcuţele care se introduc în slot-urile plăcii de bază), avem câteva modele constru

baza generaţiei 486,

i numele, el oferă o lăţime de bandă de 64 de biţi, dublă faţă de SIMM-urile p

este de 184 (ca şi la DDR SDRAM) dar asemănările se opresc

i RIMM, care au acelaşi sistem de prin

ncipale, inclusă în sisteme ca memorie de lucru. În prim

ţiilor prelucrate şi stabilitatea sistemului este vitală, de exemplu în cazul server-elor. În general, atât timp cât memoria nu este supusă unor situaţii anormale de funcţionare (frecvenţă, tensiune sau temperatură în afara specificaţiilor) ea oferă o stabilitate extrem de apropiată de perfecţiune, arhisuficientă pentru un calculator obişnuit.

Ne-am referit până acum la chip-urile de memorie, când vine vorba de modulele în sine (p

ctive. După perioada de început, când chip-urile de memorie se înfigeau pur şi simplu în placa de bază, primul model uzual a fost SIMM-ul pe 30 de pini, urmat de cel pe 72 de pini. Denumirea de SIMM provine de la Single Inline Memory Module, modulul prezentând o lăţime de bandă de 8 biţi pentru prima versiune şi de 32 pentru cea de-a doua; dimensiunea fizică a SIMM-ului pe 30 de pini este de două ori mai mică decât în cazul celeilalte variante. Diferenţele de viteză dintre ele corespund perfect perioadei de glorie: dacă prima vtimpul sistemelor 286 şi 386, SIMM-ul pe 72 de pini a stat laPentium şi Pentium Pro. Chip-urile folosite au fost de tip DRAM, FPM şi, mai târziu, EDO DRAM.

Urmaşul lui SIMM s-a chemat DIMM, adică Dual Inline Memory Module. După cum îi spune ş

ersiune era uzuală pe

e 72 de pini, având la bază un fel de dual-channel intern, dacă ni se permite comparaţia. Numărul de pini a fost de 168 sau de 184 de pini, în funcţie de tip: SDRAM sau DDR SDRAM. A existat şi un număr limitat de modele de DIMM bazate pe EDO DRAM dar ele nu au avut succes pentru că trecerea de la SIMM la DIMM a coincis cu cea de la EDO la SDRAM.

RIMM (Rambus Inline Memory Module) este modelul constructiv al memoriilor RDRAM. Numărul de pini

aici, configuraţia pinilor şi modul de lucru fiind total diferit. Mai amintim de modulele SO-DIMM, destinate calculatoarelor portabile, care deţin un număr diferit de pini: 184 pentru SDRAM şi 200 pentru DDR SDRAM.

Practic vorbind, montarea modulelor SIMM era o operaţie greoaie şi necesita experienţă şi îndemânare. Odată cu modulele DIMM (ş

dere) chinul a fost dat uitării, oricine putând monta o memorie, fiind necesară doar puţină atenţie. Montarea inversă a unui DIMM (care necesită, totuşi, destulă forţă) duce întotdeauna la arderea memoriei.

Diferenţele de viteză dintre memorii se bazează în mare parte pe diferenţele de frecvenţe. Să luăm cazul memoriei pri

ă fază, până la apariţia procesoarelor 80486, frecvenţa sa era egală cu cea a procesorului şi a PSB-ului (de ordinul zecilor de MHz), însă în momentul în care procesoarele au atins frecvenţe de peste 50 MHz, s-a pus problema faptului că nu există posibilitatea fabricării (la preţuri acceptabile) de memorii la astfel de frecvenţe. Aşa că s-a recurs la un truc: s-a hotărât ca memoria şi PSB-ul să lucreze la o frecvenţă mai mică decât cea a procesorului, setându-se astfel un raport fix între PSB şi procesor. Astfel, un 486 DX4 la 100 MHz avea un PSB de 33 MHz (memoria rulând şi ea la această frecvenţă) iar un Pentium MMX la 233 MHz avea un PSB de 66 MHz. Spunem că procesorul rulează asincron faţă de PSB, în primul caz cu un multiplicator de 3x iar în al doilea de 3.5x. Nu numai imposibilitatea creşterii frecvenţei memoriei a dus la

16

Page 19: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 2: Evaluarea performanţelor plăcilor de bază această situaţie ci şi limitările celorlalte bus-uri, la acea vreme ISA, VLB şi PCI, care nu suportau frecvenţe mult mai mari decât cele standard.

Observaţie: Nu trebuie confundată frecvenţa PSB cu cea a memoriei, sunt lucruri

torită faptului că acea

DRAM, un standard asemănător cu DDR

t

at o nouă versiune, numită

(Processor Side Bus) care s-a metamo

ă au bus-urile FSB şi BSB unifica

total diferite, PSB-ul fiind viteza de comunicare dintre procesor şi northbridge. Întâmplător, controller-ul de memorie se afla în northbridge şi, tot întâmplător, memoria rula sincron cu FSB-ul. Vom vedea că mai târziu că situaţia s-a schimbat.

66 MHz a fost un prag greu de trecut pentru memorie, poate şi dastă frecvenţă corespunde dublului frecvenţei bus-ului PCI şi egalului frecvenţei

bus-ului AGP (care a apărut mai târziu), iar pentru a creşte frecvenţa RAM independent de aceste două bus-uri era necesară implementarea acestei funcţii în chipset. Dar poate cel mai important factor a fost instabilitatea preţului la memorie, care a oscilat permanent foarte puternic, existând cazuri în care el a crescut de câteva ori pe parcursul unei singure luni; scăderea a fost, desigur, mult mai lentă. Trecerea la SDRAM şi creşterea FSB-ului uzual de la 66 la 100 MHz (odată cu Pentium II Deschutes şi K6-2) a facilitat depăşirea acestei bariere, ajungându-se rapid la 100 şi apoi la 133 MHz (chiar şi cu păstrarea FSB-ului la 100 MHz). Următorul prag, de 166 MHz, nu a mai fost atins de SDRAM dar nici exclus total, ci mai degrabă neglijat datorită apariţiei memoriei DDR SDRAM, care dubla lăţimea de bandă a unui SDRAM. Chiar dacă frecvenţa reală era de 100, 133 sau 166 MHz, memoria se comporta aproape identic cu una la frecvenţă dublă şi de aceea au fost încetăţenite frecvenţele improprii de 200, 266 şi 333 MHz (memoriile fiind marcate ca DDR200, DDR266 şi DDR333 sau PC1600, PC2100 şi PC2700, corespunzător lăţimii de bandă: 1.6, 2.1 şi respectiv 2.7 GB/s). Ulterior s-a ajuns la 400 MHz (DDR400, PC3200) şi chiar mai sus, amatorii de overclocking dezlănţuindu-şi pasiunea odată cu module DDR533 (PC4200) sau chiar DDR625 (PC5000), care costă totuşi o avere.

Următorul pas a fost DDR2 S, dar care permite, la latenţe mai ridicate, frecvenţe mai mari.

S-a început cu DDR2-400 (PC2-3200), urmând apoi DDR2-533 (PC2-4300), ultima realizare fiind DDR2-800 (PC2-6400). Deşi numele ar sugera dublarea vitezei, un modul DDR2 nu este mai rapid decât unul DDR la aceeaşi frecvenţă, ci dimpotrivă: latenţele mai ridicate scad uşor performanţa. Avantajul constă în posibilitatea creştedincolo de DDR400, standardul la care s-a poticnit DDR SDRAM (DDR533 şi următoarele sunt pseudo-standarde, nefiind ratificate).

Pentru plăcile grafice, avem GDDR3 SDRAM, fiind anticip

rii frecvenţei mul

(cum altfel?) GDDR4. Este vorba de o optimizare a standardului DDR2 pentru plăcile grafice, la fel cum era SGRAM pentru SDRAM.

Ca o mică paranteză, am folosit termenul de PSBrfozat în cazul lui Pentium II în FSB (Front Side Bus). Aceste denumiri au

generat şi generează în continuare confuzii; termenul de FSB a fost introdus special pentru procesoarele al căror cache level 2 era extern procesorului, FSB-ul fiind bus-ul care lega chipset-ul plăcii de bază de acest cache. Bus-ul BSB (Back Side Bus) era cel care făcea legătura mai departe, între cache-ul L2 şi nucleu.

Procesoarele cu cache-ul L2 inclus în pastila centralte sub denumirea de PSB. Aşadar, denumirea de FSB are sens doar cu privire la

procesoarele Pentium II, o parte din modelele Pentium III (doar cele cu nucleu Katmai) şi unele variante de Athlon, toate având la bază platforma Slot 1 (pentru Intel) şi

17

Page 20: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul respectiv Slot A (pentru AMD). Aşadar, orice procesor inserabil într-un socket, nu are FSB, ci PSB.

Deşi nu intră în categoria de mai sus, trebuie să menţionăm în final şi un alt tip de memorie: ROM (Read Only Memory). După cum îi spune şi numele, această memorie nu poate fi decât citită, nu şi scrisă prin metode obişnuite. Distingem şi aici mai multe varietăţi, diferite de ROM-ul standard: PROM (Programmable ROM) - care poate fi scrisă o singură dată, similar unui CD-R, EPROM (Erasable Programmable ROM) - care poate fi şi rescrisă, similar unui CD-RW şi EEPROM (Electrically Erasable Programmable ROM) - memorie care poate fi rescrisă inclusiv prin metode software. Acest din urmă tip este folosit îndeosebi în cazul BIOS-urilor diverselor componente (plăci de bază, plăci grafice), BIOS care este rescris în caz de necesitate (se spune că „i se face update”).

BIOS-ul (Basic Input Output System) reprezintă interfaţa dintre hardware şi software, elementul care face posibilă comunicarea dintre un program şi o componentă hard. Îl putem numi controller la nivel software, fiind în esenţă un program care traduce comenzile software-ului într-un limbaj propriu al componentei respective şi invers. Ar putea fi asemănat şi cu un driver, dar BIOS-ul lucrează la un nivel „mai low-level”, mai apropiat de hardware şi deţine doar câteva funcţii elementare, pe care se va baza driverul.

Legat de EPROM şi EEPROM, este puţin forţată denumirea de ROM pentru că, la prima vedere, funcţionalitatea unei astfel de memorii este asemănătoare memoriei RAM: informaţia poate fi alterată. Însă modul de construcţie îi oferă o viteză redusă şi o face utilizabilă doar ocazional şi în cantităţi mici.

2.1.3. Interfeţele interne: ISA, VLB, PCI, AGP etc Revenind la începuturi, voi detalia istoricul interfeţelor destinate dispozitivelor

mai mult sau mai puţin periferice, precum ISA, PCI, AGP, USB, IDE, Serial ATA şi altele.

Bus-ul ISA (Industry Standard Architecture) a fost inventat de IBM odată primul IBM PC, apărut la începutul anilor '80 , calculator ce folosea magistrala de 8 biţi specifică procesorului 8088. ISA era destinat plăcilor de extensie (plăci grafice, controllere de hard disk) ce se ataşau PC-ului. Odată cu 80286 şi cu nevoile tot mai mari de viteză, s-a impus versiunea pe 16 biţi a lui ISA, ce consta (fizic vorbind) într-o extensie la vechiul ISA, cu care era compatibil, în sensul că o placă de bază compatibilă 16-bit ISA suporta plăci de extensie 8-bit. Standardul s-a păstrat până aproape de zilele noastre, chiar şi azi mai putând fi întâlnite plăci ISA şi plăci de bază care să le suporte.

Odată cu procesorul 80386DX, s-a pus problema unui nou bus, care să folosească din plin posibilităţile acestuia, şi anume adresarea pe 32 de biţi. Astfel s-au născut o serie de standarde, incompatibile între ele, şi anume MCA (Micro Channel Architecture), EISA (Extended ISA) şi VLB (VESA Local Bus, VESA = Video Electronics Standards Association). MCA a eşuat din cauza politicii IBM foarte restrictive, care s-a manifestat prin incompatibilitatea bus-ului cu vechiul ISA şi prin decizia de a face acest standard proprietar; cu alte cuvinte, IBM era singurul care putea proiecta şi fabrica plăci de extensie destinate lui MCA. EISA a fost răspunsul lui Compaq la MCA, care a evitat cele două greşeli ale lui IBM dar nu a reuşit să se impună

18

Page 21: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 2: Evaluarea performanţelor plăcilor de bază datorită preţului mare practicat şi a performanţelor nu tocmai strălucite. A urmat bus-ul VLB ce a fost conceput pentru plăcile grafice dar a fost folosit şi pentru diverse controllere, fiind mult mai rapid faţă de predecesori şi având compatibilitatea cu ISA asigurată (fizic, plăcile VLB aveau un conector suplimentar faţă de ISA). Deşi a devenit popular în epoca lui 486, odată cu introducerea de către Intel a bus-ului PCI (Peripheral Component Interconnect) VLB a decăzut ca importanţă datorită problemelor de compatibilitate cu nou-apărutul Pentium şi a altor detalii minore care adunate au determinat impunerea lui PCI pe piaţă. Acesta, ca şi celelalte trei tentative de bus-uri pe 32 de biţi (deloc sau doar parţial reuşite), oferea avantajul utilizării întregului potenţial al procesoarelor 386 şi 486 dar nu şi al lui Pentium, care deţinea un bus extern de 64 de biţi. Însă cum necesităţile vremii nu au cerut altceva decât un simplu bus PCI pe 32 de biţi, acesta a devenit un standard utilizat şi în prezent, nu înainte de a deschide calea lui PCI-64, utilizat doar în servere. Pentru calculatoarele obişnuite, urmaşul lui PCI s-a numit AGP şi a fost (şi este) destinat doar plăcilor grafice.

AGP (Accelerated Graphics Port) a sosit mai târziu, în epoca jocurilor 3D, impunerea sa datorându-se exclusiv nevoii tot mai mari de creştere a numărului de cadre pe secunde afişate în jocuri. În loc să se crească lăţimea de bandă, ca în cazul lui PCI-64, a fost crescută frecvenţa, de la 33 la 66 MHz, efectul fiind similar. Avantajele lui AGP în faţa lui PCI sunt numeroase şi legate în special de plăcile grafice. Spre exemplu, a fost introdusă posibilitatea ca chip-ul video să poată accesa memoria sistemului ca memorie video, realizându-se aşa-zisa texturare AGP. Desigur, tehnica este inferioară folosirii de către placa grafică a propriei memorii, dar aceasta poate fi într-o cantitate mai mică decât este necesar. Extinderea bus-ului AGP a dus la crearea standardelor AGP 2x, AGP 4x şi AGP 8x, tehnici speciale permiţând atingerea unei frecvenţe virtuale de opt ori mai mari decât AGP-ul standard (numit şi AGP 1x), dar care nu au adus mult-aşteptatul spor de viteză din simplul motiv că ele nu erau necesare.

De remarcat faptul că, odată cu dublarea lăţimii bus-ului la 2x şi respectiv 4x, au fost create noi standarde, numite AGP 2.0 şi AGP 3.0. Ele modificau diverse aspecte interne (şi relativ puţin importante) ale bus-ului şi scădeau tensiunea de alimentare de la 3.3 la 1.5V şi respectiv de la 1.5V la 0.8V - o sursă de incompatibilitate între unele plăci grafice şi de bază.

Ultima realizare în domeniu se numeşte PCI Express. Standardul este total incompatibil cu oricare altul, atât fizic cât şi logic, fiind necesare controllere noi pentru a-l gestiona - practic plăci de bază noi, bazate pe alte chipset-uri decât cele cunoscute. Deşi în prezent utilitatea sa este legată exclusiv de plăcile grafice, ce lucrează în modul PCI Express X16 (de 16 ori mai rapid decât AGP-ul standard), majoritatea plăcilor de bază compatibile PCI Express oferă câteva slot-uri X1 sau X4, în care pot fi introduse unele plăci de extensie practic absente de pe piaţă. Chipset-urile PCI Express nu sunt, în general, compatibile cu AGP, motivul fiind încercarea producătorilor de a impune noul standard în defavoarea celui vechi. Însă cu plăcile PCI „simplu” nu există probleme, ele putând coexista cu PCI Express (de fapt, de ele este răspunzător southbridge-ul, care este comun tuturor northbridge-urilor, atât cu controller AGP cât şi cu PCI Express).

Un alt avantaj al noului bus constă în posibilitatea ca plăcile grafice NVIDIA (şi în curând şi ATI) să lucreze în mod SLI (Scalable Link Interface), o facilitate multi-GPU. Astfel, este posibilă existenţa a două plăci grafice în sistem care să lucreze în mod cooperativ, crescând substanţial performanţa în jocuri. Tehnologia se află abia la început şi nu este foarte populară, nefiind altceva decât o opţiune pentru entuziaşti.

19

Page 22: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul 2.1.4. Interfeţele externe: serial, paralel, USB etc

Pe lângă interfeţele care permit conectarea componentelor interne, în speţă plăcile de extensie, porturile externe permit ataşarea de dispozitive exterioare PC-ului care îndeplinesc diverse funcţii, de la mouse până la DVD writer.

Porturile serial şi paralel sunt prezente în practic toate sistemele, de la apariţia PC-ului încoace, fiind utilizate în principal pentru cuplarea unor dispozitive periferice externe (mouse serial, imprimantă, modem, scanner etc). Diferenţele dintre ele privesc modul de funcţionare: portul serial transmite date pe un singur fir (bit cu bit), faţă de cel paralel care transferă datele pe opt linii paralele (byte cu byte).

Iniţial, portul paralel era capabil de transmisie unidirecţională (într-un singur sens), aceasta datorită limitării standardului SPP (Standard Parallel Port); odată cu EPP (Enhanced Parallel Port), problema a dispărut iar viteza maximă atinsă a crescut de la 150 KB/s la 2 MB/s. Nevoia tot mai mare de viteză a adus un nou impediment privind creşterea ratei de transfer: utilizarea prea mare a procesorului sistemului. Pentru a se evita inconvenientul a fost introdus standardul ECP (Extended Capabilities Port) care lucra în aşa-numitul mod DMA (Direct Memory Access), utilizarea procesorului fiind minimă. Pe lângă aceasta, EPP a oferit compresie/decompresie în timp real, ceea ce a constituit un ajutor remarcabil pentru dispozitivele ce necesitau rate mari de transfer.

Perifericele conectate la portul paralel sunt diverse, cuprinzând în primul rând imprimantele, scanner-ele, unităţile de bandă dar şi altele mai exotice, precum webcam-urile. Însă odată cu necesităţile tot mai mari de la sfârşitul anilor '90, portul paralel a început încet-încet să fie dat uitării, locul său fiind preluat de incompatibile cu acesta.

alte standarde

Portul serial, datorită vitezei scăzute, nu poate fi utilizat decât de componente care nu necesită viteze mari, precum mouse-ul sau modem-ul. Un avantaj al său, de cele mai multe ori ignorat, este posibilitatea de transmitere a datelor la distanţe mult mai mari decât portul paralel. Putem adăuga şi numărul de fire de transmisie mai mic (3 în cazul portului serial faţă de 19 sau 25 pentru paralel), deci costurile cablurilor sunt mai reduse.

Concluzionând, nu putem pune o relaţie comparativă între portul serial şi paralel pentru că ele au fost concepute pentru utilizări diferite. Ambele se află în declin, însă nici un alt standard nu a reuşit să se impună puternic din cauza costurilor ridicate, cu excepţia celui PS/2 - utilizat azi pentru tastatură şi mouse. Acesta a fost introdus de IBM în 1987, odată cu seria de PC-uri numită PS/2 (Personal System/2), un eşec total pentru Big Blue. Însă Intel s-a folosit de standard, el devenind uzual abia odată cu introducerea în 1997 a form factor-ului ATX, despre care vom vorbi mai târziu. Reţinem că atât mouse-ul cât şi tastatura (conectată până atunci prin standardul AT - compatibil pin la pin cu PS/2, dar de formă mai mare) se leagă în prezent la computer prin acest port.

Un nou standard, pe numele său USB (Universal Serial Bus), a apărut din dorinţa de a se oferi o interfaţă universală, capabilă să conecteze la PC orice fel de dispozitiv, de la mouse, imprimantă, până la interfaţă externă de sunet (similară unei plăci de sunet dar situată în exteriorul PC-ului), TV tuner, hard disk şi unitate optică.

20

Page 23: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 2: Evaluarea performanţelor plăcilor de bază Interfaţa este plug&play şi hot-swappable, ceea ce înseamnă că orice dispozitiv va fi recunoscut automat de sistemul de operare şi respectiv va putea fi conectat sau deconectat „din zbor”, fără a fi necesară o repornire.

USB s-a impus foarte greu, pe parcursul câtorva ani el progresând lent din cauza performanţelor reduse ale dispozitivelor conectate la acest port, fapt datorat limitării transferului la 12 Mbps. Spre exemplu, unui CD-ROM 40x îi era imposibil să se conecteze la portul USB pentru că ar fi avut nevoie de un transfer de 6 MB/s (48 megabiţi pe secundă), de patru ori mai mult decât limitele bus-ului. De aceea, USB a fost destinat doar dispozitivelor lente (totuşi mult mai rapide decât portul serial, care era limitat la câteva sute de Kbps).

Soluţia la problemă a fost oferită de USB 2.0, a doua versiune a standardului, ce prevedea viteze de până la 480 Mbps (60 MB/s, deci şi un ipotetic CD-ROM 400x ar face faţă). În prezent, majoritatea plăcilor de bază suportă interfaţa USB 2.0 şi dispozitivele ce se conectează la aceasta sunt din ce în ce mai multe. Totuşi, cei mai mulţi utilizatori preferă soluţiile comune (dacă ele există), care costă mai puţin şi oferă aproape aceleaşi facilităţi.

Un port cu funcţii mai avansate şi cu o vechime mai mare este FireWire, numit şi IEEE 1394, standard introdus de către Apple la mijlocul anilor '80 şi oferit apoi către IEEE (Institute of Electrical and Electronics Engineers) pentru standardizare, de unde şi numele alternativ.

În 1995, acest institut lansa specificaţiile sale oficiale, oferind trei rate de transfer posibile: 100, 200 şi 400 Mbps. Aceasta în perioada în care USB, în prima sa versiune (12 Mbps) era doar în proiect... Totuşi, scopul lui FireWire este diferit: el doreşte să conecteze la computer dispozitive ce au nevoie (şi aveau nevoie încă de la acea dată) de viteze foarte mari, precum camerele video digitale, Sony adoptând rapid standardul. Încet-încet, FireWire a câştigat popularitate, devenind astăzi ceva doar cu puţin mai exotic decât USB (nefiind prezent pe orice placă de bază, dar cele high-end sigur îl deţin). În prezent, utilizarea sa este destul de largă, fiind folosit de dispozitive real-time de editare audio/video, dar şi de produse destinate publicului larg, precum scannere, webcam-uri, unităţi optice de stocare sau hard disk-uri portabile.

Altă interfaţă întâlnită pe majoritatea plăcilor de bază, dar mai rar folosită, este IrDA (Infrared Data Association), care permite schimbul de date wireless („fără fir”) cu alte echipamente ce au incorporată o astfel de tehnologie (imprimante, laptop-uri, PDA-uri, telefoane mobile, camere digitale etc) sau chiar cu un alt PC. Tot la capitolul interfeţe wireless mai merită menţionat standardul Bluetooth, relativ folosit, dar încă exotic pentru utilizatorii obişnuiţi. Prin intermediul acestuia, PC-urile, PDA-urile, telefoanele mobile, imprimantele şi alte dispozitive, pot fi conectate folosind undele radio, pe distanţe scurte sau medii.

Cum subiectul este destul de complex pentru a fi detaliat aici, trecem la capitolul următor.

2.1.5. Interfeţele pentru dispozitive de stocare Interfeţele de conectare a unităţilor de disc nu au fost întotdeauna atât de rapide

precum sunt astăzi. Primul standard, introdus în IBM PC-ul original s-a numit ST-506, fiind dezvoltat în anul 1980 de către Seagate. Mai multe sub-standarde au respectat specificaţiile ST-506, printre ele numărându-se MFM (Modified Frequency Modulation, versiunea originală), RLL (Run Length Limited, ce creştea densitatea datelor cu 50% şi era compatibil cu MFM), ESDI (Enhanced Small Device Interface, ce oferea o rată de

21

Page 24: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul transfer foarte ridicată pentru acea perioadă) şi, în final, IDE (Integrated Drive Electronics), numit şi ATA (Advanced Technology Attachment).

Spre deosebire de standardele iniţiale, ESDI şi mai ales IDE au integrat pe hard disk o mare parte din funcţionalitatea controller-ului acestuia (şi e uşor să ne dăm seama de acest lucru privind partea electronică a oricărui hard disk modern); astfel, viteza de transfer a crescut substanţial.

IDE aducea o serie de inovaţii, fiind practic o versiune foarte sofisticată a lui RLL, oferind, spre exemplu, posibilitatea conectării a două hard disk-uri pe acelaşi cablu în combinaţia Master/Slave. Transferul era realizat prin intermediul modului PIO (Programmable Input/Output) - în acest proces fiind angrenat şi procesorul - sau DMA (Direct Memory Access), prin care controller-ul IDE comunica direct cu memoria, procesorul fiind degrevat de această sarcină. Rata maximă de transfer era de 8.3 MB/s.

O extensie a lui IDE, EIDE (Enhanced IDE), numită şi Fast-ATA sau ATA-2, oferea la mijlocul anilor '90 rate de transfer de până la 16.6 MB/s, posibilitatea detectării automate în BIOS a parametrilor hard disk-ului, precum şi capacităţi mai mari decât limita impusă IDE-ul standard - 504 MB. De fapt, denumirile nu sunt perfect sinonime, EIDE şi Fast-ATA (numite astfel de Western Digital şi respectiv Seagate) fiind versiuni ale standardului ATA-2 ce cuprind şi specificaţiile ATAPI (Advanced Technology Attachment Packet Interface). Este vorba de posibilitatea conectării şi a altor tipuri de unităţi de stocare decât hard disk-urile, precum unităţile optice (doar de tip CD-ROM la acea vreme), de bandă sau de dischete cu capacităţi mari.

ATA-3, introdus în 1997, nu a adus îmbunătăţiri legate de viteză, ci privind securitatea, un Power Management extins (micşorându-se astfel consumul de putere) şi, nu în ultimul rând, legat de tehnologia SMART (Self Monitoring Analysis and Report Technology), ce permitea monitorizarea permanentă a stării de sănătate a hard disk-ului.

Mai departe, ATA-4 (1998) a introdus modul Ultra DMA/33 (Ultra ATA, UDMA33 sau Ultra DMA 2), renunţându-se la îmbunătăţirea modului PIO, UDMA33 oferind un maxim de 33 MB/s. ATA-5 (UDMA66 sau Ultra DMA 4), ATA-6 (UDMA100 sau Ultra DMA 5) şi ATA-7 (UDMA133 sau Ultra DMA 6, „sărit” de unii producători) nu au făcut decât să crească rata maxim de transfer la 66, 100 şi respectiv 133 MB/s, de obicei mai mult decât puteau oferi hard disk-urile acelei perioade. Aşadar, marketing similar lui AGP 8x vs. 4x.

Totodată, începând cu Ultra DMA/66, numărul de fire ale cablului de date a crescut de la 40 la 80 pentru a se reduce interferenţele electromagnetice ce ar putea apărea la viteze atât de mari (fiecare al doilea fir era unul de masă, pentru ecranare). În plus, standardul Ultra DMA/100 a oferit şi AAM (Automatic Acoustic Management), o facilitate care permite reducerea zgomotului emis de hard disk prin reducerea nesemnificativă a performanţelor; totuşi, nu toate unităţile suportă AAM.

Serial ATA (sau S-ATA) a fost următorul pas. Schimbările palpabile au fost

reprezentate de noile tipuri de cabluri, atât pentru alimentare cât şi pentru date (ultimul mult mai comod de folosit, fiind mai subţire, cu doar 7 fire), precum şi de eliminarea conceptelor de Master şi Slave, fiecare hard disk având canalul său dedicat. Un alt avantaj remarcabil este hot-swapping-ul, fiind posibilă introducerea/eliminarea hard

22

Page 25: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 2: Evaluarea performanţelor plăcilor de bază disk-ului fără a opri PC-ul; practic, orice hard disk normal poate fi acum folosit precum unul portabil.

Standardul ATA a fost redenumit retroactiv în Parallel ATA (sau P-ATA), pentru a se putea diferenţia uşor de S-ATA. Denumirile provin chiar de la modul în care sunt transmise datele: P-ATA foloseşte mai multe „căi” pentru transmiterea în paralel a informaţiilor (de aici şi numărul mare de fire necesar), pe când S-ATA efectuează o transmisie serială.

Versiunile curente sunt Serial ATA „original” (150 MB/s) şi Serial ATA II (300 MB/s), dar se aşteaptă adoptarea în viitor a lui Serial ATA III pentru 600 MB/s.

Separat de ATA/IDE şi variantele sale, SCSI (Small Computer System Interface - pronunţat „scazi”, în două silabe şi cu accent pe „a”) a devenit, începând cu mijlocul anilor '80 , un standard foarte utilizat în workstation-uri, servere şi, ocazional, în PC-urile high-end.

Avantajele sunt numeroase (viteză mai mare, ocupare minimă a procesorului în timpul transferului, daisy-chaining etc) şi nu afectează în mare măsură utilizatorul obişnuit. SCSI este folosit şi în alte scopuri, precum conectarea imprimantelor sau a scanner-elor.

Orice controller P-ATA/S-ATA/SCSI poate fi integrat pe placa de bază (este cazul P-ATA, cel puţin pentru plăcile fabricate în ultimii 10 ani, a celor S-ATA pentru mai toate modelele de plăci din ultimul an, precum şi cazul SCSI pentru plăcile de bază de servere), dar se poate găsi şi separat, sub forma unei plăci de extensie ce se ataşează prin intermediul unui slot (PCI, eventual VLB sau ISA).

În finalul acestui capitol, trebuie să spunem câteva cuvinte şi despre unitatea de dischete, al cărei controller a trecut prin multe faze, începând cu MFM (controller care putea gestiona atât floppy-ul cât şi hard disk-ul), el fiind azi integrat pe placa de bază. Cablul de date este asemănător celui IDE, însă cu numai 34 de fire.

De notat că unităţile floppy se mai pot conecta prin SCSI sau USB

2.2. Testarea plăcilor de bază Socket 939

2.2.1. Introducere Platforma Socket 939 nu poate fi decât atrăgătoare,

performanţa actuală dar mai ales cea viitoare, posibilă printr-un upgrade la un procesor mai rapid fiind imboldul care goleşte magazinele de puţinele plăci cu 939 de pini. Platforma Socket 939 este una high-end, ce se adresează în primul rând utilizatorilor cu pretenţii mari şi în acelaşi timp cu buzunarele ceva mai pline decât ceilalţi.

AMD a lansat primele procesoare AMD64 odată cu platforma Socket 940, înlocuită rapid de cea 754. Procesoarele sunt practic identice, dar cele cu 754 de pini sunt limitate la un controller de memorie single-channel. Cu alte cuvinte, o platformă mainstream. Socket 939 este urmaşul lui S940, AMD determinând astfel utilizatorii de Socket 940 să schimbe placa de bază pentru a obţine un pin în minus dar compatibilitate cu nou-apărutele modele de Athlon 64 şi Athlon 64 FX. Totuşi, de ce această schimbare? Socket 940 necesită memorii de tip registered din cauza moştenirii arhitecturii lui Opteron; modelele cu un pin mai puţin au scăpat de această limitare, modulele non-registered (unbuffered) fiind mult mai ieftine. Dual-channel-ul oferit de pinii suplimentari (în comparaţie cu 754) readuce în prim-plan o tehnologie atât de bine

23

Page 26: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul gândită încât nu merita să moară: lăţimea de bandă a memoriei este dublată folosind un mic artificiu, destul de puţin costisitor.

În continuare se vor prezenta o serie de teste realizate cu placi de bază Socket

939. Produsele testate sunt înzestrate cu slot-uri PCI Express, plăcile cu suport AGP

urmând să facă subiectul unor teste viitoare, în caz că se vor găsi pe piaţă în cantităţi suficiente. Oricum, bus-ul AGP este încă suportat de o serie de plăci, însă numărul lor este în scădere, în câteva luni - maxim un an - urmând să aibă loc impunerea plăcilor grafice PCI Express. Astfel este lăsat în urmă un bus ce a dominat ultimii 7÷8 ani şi care a fost „izgonit” oarecum pe nedrept, „complotul” marilor producători neavând, aparent, o justificare clară. E adevărat, acum putem avea din nou două plăci grafice în sistem, unite prin SLI, performanţele obţinute fiind foarte mari (la un preţ foarte mare), plus alte mici detalii care fac diferenţa dar nu justifică renunţarea la un bus ce nu constituia limitarea în calea obţinerii de performanţe maxime.

Chipset-ul nForce4 de la NVIDIA se pare că domină plăcile PCI Express, cele mai multe produse de pe piaţă şi toate cele testate dotate cu acesta. nForce3 este deja depăşit datorită suportului pentru AGP şi a lipsei unor facilităţi incluse în urmaşul său. La fel şi K8T880 (Pro), doar K8T890 fiind comparabil cu nForce4, dar el nu a fost adoptat la scară largă. În toate variantele sale („simplu”, Ultra, SLI şi eventual neoficialul 4X) nForce4 oferă o serie de facilităţi deosebite, NVIDIA fiind o companie care în ultima vreme a început să dea tonul pe piaţa plăcilor de bază pentru procesoare AMD. Amintim de Serial ATA II (numai în versiunile Ultra şi SLI), ce dublează lăţimea maximă de bandă faţă de prima versiune de Serial ATA (avantaj total

t pentru modul SLI (doar în versiunea nForce4 SLI) - cu alte cuvinte e posibilă conectarea a două plăci grafice PCI Express pentru performanţe nu chiar duble dar foarte mari. nForce3 deţine şi el o serie de funcţii inovatoare, cum ar fi un Firewall integrat, însă începe încet-încet să-şi resimtă bătrâneţea.

neobservabil în practică) şi supor

2.2.2. Modul de testare buie să stabilim cine sunt

utilizat

„excelent” sau „extrem” costă şi vor costa întotdeauna foarte

Înainte de orice, treorii în pielea cărora am încercat să intrăm,

evaluând la sânge produsele. În primul rând, este vorba de entuziaşti, cei încântaţi mai degrabă de o dotare în plus sau, în egală măsură, de opţiune ascunsă în BIOS care le permite un overclocking superior, decât de un preţ mai mic.

Calificative precummult, aşadar dacă cititorul este interesat mai degrabă de un ECS ieftin, dotat

numai cu câteva elemente esenţiale şi al cărui preţ nu trece de 50-60 de dolari, ar trebui să parcurgă testul nostru cel mult din curiozitate. În lucrare, au fost punctate cu o pondere mai mare caracteristicile pe care un pasionat şi le-ar dori la placa sa de bază, precum un port FireWire sau o frecvenţă mare atinsă prin overclocking.

Testul a fost împărţit în patru categorii, şi anume: • performanţă,

24

Page 27: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 2: Evaluarea performanţelor plăcilor de bază

• facilităţi, • construcţie & ergonomie;

Pon r lativ mică, de 40%, diferită faţă de cele mai multe r

ale de benchm

ut o pondere mică. Astfel, testul de lăţime de bandă a memor

R (8%), (8%),

ta a unui hard disk Serial ATA (8%),

contat în total cu 50% din punctaj (excludem de aici

ităţile au contat tot cu 40 de procente. Am inclus aici numărul de slot-uri şi porturi,

buit cu 15% la rezu

ompletat ultimele 5 procente, fiind punctat

• documentaţie & service. de ea performanţei a fost re

eview-uri întâlnite în diverse reviste sau pe web. Aceasta deoarece am considerat că performanţa unei plăci de bază este extrem de puţin importantă în luarea unei decizii privind achiziţionarea uneia pentru că diferenţele sunt de ordinul a 1-2%, maxim 3%. De aceea, alţii sunt factorii care ar trebui să influenţeze un potenţial cumpărător.

Performanţa a fost evaluată prin rularea mai multor programe speciark, a unora ce au alt scop dar care deţin şi un modul de testare a vitezei sau pur

şi simplu prin cronometrarea timpului scurs între două momente între care a fost efectuată o anumită operaţie.

Testele analitice au aviei din SiSoft Sandra şi cel de latenţă a memoriei din ScienceMark au contat cu

câte 5%. SPECviewperf şi 3DMark 2001, deşi sintetice, reflectă destul de bine activitatea profesioniştilor în grafică şi a gamerilor, de aceea au contat cu 8 şi respectiv 12.5%. Restul testelor au fost practice:

• arhivarea unor fişiere cu WinRA• comprimarea unui film cu codec-ul XviD • randarea unei imagini cu PovRay (8%), • copierea unor fişiere de pe o partiţie pe al• testele implicite din 3DMark 2001, FarCry şi Unreal Tournament 2004 (12.5%

fiecare) şi un test special creat în Quake3 care foloseşte procesorul mult mai mult decât testul implicit (12.5%). De remarcat faptul că testele 3D au SPECviewperf care, deşi rulează în mod 3D, se adresează altei categorii de

utilizatori). Facil complexitatea interfeţei de sunet, facilităţile din BIOS (în special cele legate de

overclocking), precum şi software-ul livrat. Menţionăm pentru cei (ne)interesaţi de overclocking că opţiunile destinate acestei practici, precum şi rezultatele testelor realizate în condiţii extreme au contat cu 35% din cele 40 de procente ale facilităţilor, deci cu 14% la nota finală. Mult, puţin, rămâne să judecaţi dumneavoastră.

Ergonomia şi construcţia, reunite într-o singură rubrică, au contriltatul final. Au fost acordate note atât comodităţii operării pe placa de bază, în

interiorul carcasei (de exemplu poziţia jumper-ilor şi a conectorilor), precum şi diverselor indicii privind fiabilitatea produsului, luând în seamă temperaturile atinse de diversele componente de pe placă şi alte aspecte subiective. Este imposibil de evaluat fiabilitatea oricărui produs hardware, fiind necesare luni sau chiar ani pentru ca primul defect să-şi facă apariţia, precum şi un număr mare de produse care să fie supuse testelor. De aceea, punctajul oferit aici a fost destul de mic şi în totalitate subiectiv, un rol important jucând experienţa în acest domeniu.

În fine, documentaţia şi service-ul au c manualul, garanţia, precum şi posibilitatea de contact online cu producătorul.

25

Page 28: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul 2.2.3. Testarea efectivă

Sistemul de test a constat într-un procesor Athlon 64 3200+ (nume de cod Winchester - 0.09 microni, 2000 MHz, 512 KB L2 cache, 1.4V, frecvenţa maximă la care rula stabil: 2550 - 2600 MHz la 1.6 – 1.65V), un kit de memorii Corsair TwinX1024-3200XLPT ce totalizau 1 GB, o placă grafică Gigabyte GV-NX66T128D cu chip GeForce 6600 GT (128 MB, 500 MHz core, 1000 MHz memoria), un hard disk Western Digital Caviar SE (WD800JB) de 80 GB cu 8 MB cache pe Parallel ATA, iar pentru evaluarea performanţei controller-ului Serial ATA am montat un Seagate Barracuda 7200.7 SATA cu aceleaşi specificaţii. Driverele au fost cele mai noi oficiale la data începerii testării, şi anume nForce4 Standalone Kit 6.39 şi ForceWare 66.93. Sistemul de operare, desigur, Windows XP SP2.

Fiecare placă a fost setată, după un update al BIOS-ului (dacă exista unul mai nou decât cel cu care placa venea), la maximul de performanţă pe care îl puteam obţine în condiţii de stabilitate perfectă. Stabilitatea a fost măsurată cu al cincilea test din Memtest86+1, urmată de câteva procente din testul 7. Nu am rulat Prime952 pentru că procesorul nu avea prea mult motive să manifeste instabilitate, iar testele rulate pentru a evalua performanţa sunt suficient de stresante pentru acesta pentru a se bloca sau a da erori în caz de probleme. Setările principale de memorie, şi anume CAS Latency, tRCD, tRP, tRAS şi Command per Clock au fost setate la minimul posibil, de obicei CL2 2-2-5 1T, însă au fost şi cazuri în care am rulat în CL1.5 2-2-0 1T. tRC, tRFC, tRRD, tWR, tWTR, tRTW, tREF sunt alte câteva setări, primele două ieşind în evidenţă prin faptul că au valori mari, de minim 7 şi respectiv 9. Rareori am rulat stabil în aceste condiţii, valorile normale fiind 9 şi respectiv 12. De asemenea, Bank Interleave a fost şi el activat.

Overclocking-ul a fost testat în două moduri, în ambele situaţii scopul fiind obţinerea unui bus HTT maxim (în paşi de 5 MHz). Am setat multiplicatorul (dacă placa a permis acest lucru) în aşa fel încât frecvenţa finală a procesorului să fie cel puţin egală cu cea implicită, de 2 GHz, iar celelalte setări au fost puse la minim sau aproape de minim, în aşa fel încât ele să nu afecteze stabilitatea (LDT 2x sau 3x, CL3 4-4-8 2T etc). Apoi am setat memoria atât sincron cu HTT-ul cât şi la un raport de 1:2 faţă de acesta. Tensiunea procesorului a fost ajustată la 1.65V (sau cea mai apropiată valoare mai mică de 1.65V pe care o permitea BIOS-ul) - maximul la care putem sta liniştiţi că nu urmează o mică explozie în interiorul acestuia. De asemenea, tensiunea memoriei a fost urcată până la maxim 2.9V iar dacă placa permitea setarea voltajului chipset-ului, am realizat şi această modificare, crescând valoarea la maxim. Nu am folosit programe de tip A64 Tweaker sau ClockGen pentru a efectua alte setări decât cele ale BIOS-ului sau a încerca creşterea HTT-ului direct din Windows.

2.2.4. Abit AN8 Fatal1ty (nForce4 Ultra) AN8 Fatal1ty poartă „numele” lui Johnathan Wendel, alias Fatal1ty, un gamer

care la doar 23 de ani a câştigat numeroase turnee de 3D Shootere (Quake3, Unreal Tournament, Doom3). Placa are ca scop declarat obţinerea celor mai mari performanţe, însă ştim cu toţii că diferenţele dintre plăci dotate cu acelaşi chipset, sau chiar cu chipset-uri diferite, sunt minime (desigur, dacă neglijăm factorul overclocking). Producătorul susţine că seria Fatal1ty (deschisă cu modelul AA8XE pentru Pentium 4) 1 http://www.memtest.org/ 2 http://www.mersenne.org/freesoft.htm

26

Page 29: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 2: Evaluarea performanţelor plăcilor de bază este creată special pentru jocuri, atât datorită performanţelor extreme ce pot fi obţinute cât şi faptului că placa a fost lipsită de anumite componente pe care gamerii nu le folosesc - făcând referire, probabil, la absenţa porturilor serial şi paralel. Aşadar, avem de-a face cu o campanie de marketing aparent reuşită, mai ales dacă ţinem seama de aspectul exterior al produsului, extrem de atrăgător. Să vedem ce surprize ne mai rezervă. Cele două cutii incluse în pachet, cu care Abit ne-a obişnuit de ceva vreme, conţin diverse accesorii utile plăcii. Nu s-a pus atât de mult accent pe cantitate, precum vedem la plăcile Gigabyte high-end. Astfel, nu avem decât un bracket USB 2.0/FireWire, totalizând (împreună cu porturile din back-panel) şase şi respectiv trei porturi. Însă pe placă avem un singur conector extern de FireWire, ceea ce nu justifică cele două porturi prezente pe bracket.

Cablurile Serial ATA sunt în număr de patru, iar pentru alimentarea hard disk-

urilor este disponibil un convertor molex – SATA, ce conţine doi conectori. Cablurile Parallel ATA sunt în număr de unu, însă el iese în evidenţă prin faptul că este de tip rounded, acoperit cu un plastic transparent, astfel încât cele 80 de fire se află la vedere. Şi cablul floppy este rounded, însă de culoare neagră. Un efect deosebit s-ar fi obţinut dacă şi aceste din urmă cabluri erau de culoare roşu-vişiniu, precum cele SATA, PCB-ul plăcii, slot-urile PCI şi DIMM şi cele câteva LED-uri. Dacă până aici nu am găsit nimic ieşit din comun, situaţia se schimbă dramatic odată ce punem ochii pe OTES RAMFlow, un set de două ventilatoare de 40 mm înglobate într-o carcasă de plastic şi destinate răcirii memoriilor. Ele se aşează deasupra slot-urilor DIMM, prinzându-se cu ajutorul a două cleme, menţinând astfel memoriile la o temperatură la care să suporte un overclocking superior condiţiilor normale. Iată că încet-încet acele performanţe extreme promise încep să-şi arate colţii...

Răcirea extremă este lucrul de care Abit s-a îngrijit cel mai mult. Tranzistorii de

tip MOSFET sunt acoperiţi de radiatoare, iar dacă temperatura acestora depăşeşte o anumită limită, spre ele încep să bată două ventilatoare „Dual OTES” tot de 40 mm dar mai adânci decât cele normale, poziţionate în locul porturilor PS/2, serial şi paralel pe plăcile obişnuite. De asemenea, răcirea chip-ului principal (nu a chipset-ului, pentru că nForce4 este construit dintr-un singur chip) este, după spusele lui Abit, eficientă, radiatorul fiind realizat din cupru. Practic, este vorba de cooler-ul clasic Abit, întâlnit de exemplu la modelul NF7, doar culoarea roşie trădează materialul din care a fost confecţionat. Nu putem trece mai departe fără a enumera succint celelalte elemente de

27

Page 30: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul pe placă: un slot PCI Express X16, două X1, trei PCI, două porturi IDE aşezate culcat (un „bravo!” la ergonomie), patru Serial ATA 300 coordonate de „southbridge”-ul integrat în chip-ul central, iar de reţeaua Gigabit se ocupă un integrat Vitesse. În caz că neglijăm alimentările de ventilatoare deja ocupate (două cu răcirea surselor de putere, una cu chip-ul nForce4, una opţională pentru răcirea memoriilor), găsim doar două fan headere libere, ceea ce nu prea stă bine unui produs Abit, care ne-a obişnuit cu patru sau chiar cu cinci astfel de conectori. Dacă mufa de floppy nu s-ar fi aflat într-o poziţie extrem de proastă, şi anume în spatele ultimului slot PCI, nota la ergonomie ar fi fost mare. Oricum, la acest capitol AN8 stă bine, peste medie.

Performanţele nu au dezamăgit, fiind normale pentru o placă bazată pe acelaşi chipset (sper că îmi este permisă folosirea în continuare a acestui termen, el specifică foarte clar la ce se face referirea deşi este impropriu numit astfel).

Trecând la analiza BIOS-ului, primul lucru care iese în evidenţă este imposibilitatea setării multiplicatorului. Imposibil şi inadmisibil pentru o placă Abit, cu atât mai mult cu cât e vorba de una de vârf. În testul de overclocking, placa se oprea fără drept de apel la un HTT de 255 MHz din cauza procesorului care nu reuşea să ruleze stabil la frecvenţe mai mari (reamintesc că este vorba de un Athlon 64 3200+ ce rulează stabil la puţin sub 2600 MHz, frecvenţa standard fiind de 2 GHz). Problema poate fi rezolvată cu versiunea beta de BIOS (12 beta 1, varianta iniţială fiind 11), ce rezolvă problema multiplicatorului. Frecvenţele maxime atinse prin overclocking au fost de 310 MHz sincron şi 375 MHz cu raport de 2:1 între HTT şi memorie, valori foarte bune. În acordarea notei sa ţinut seama doar de funcţionarea cu acest BIOS beta deoarece lansarea variantei finale de către Abit este iminentă.

BIOS-ul este foarte bun, deşi nu de excepţie. Setările uzuale sunt la locul lor, în meniul SoftMenu, devenit acum µGuru. Tensiunea procesorului poate fi ajustată până la 1.75V, cea a memoriei până la 2.8V, valori aproape deranjant de comune. Nu aveam pretenţia la 4V la memorie, rulăm cu Abit, nu cu DFI, dar un 3.2V pentru a „hrăni” memorii precum Winbond BH5 nu ar fi stricat deloc. Voltajul chipset-ului poate urca până la 1.8V, valoarea cea mai mare întâlnită (pe majoritatea plăcilor el se limitează la 1.65V). Temperatura cooler-ului de pe chipset nu a fost deloc mică, semn că radiatorul de cupru lucrează la maximul de care este capabil. Setarea greşită a parametrilor sensibili poate duce, desigur, la imposibilitatea pornirii. Placa detectează automat aceste situaţii, nefiind necesară nici măcar apăsarea clasicei taste Insert pentru ca sistemul să POST-eze. În cel mai rău caz, avem la dispoziţie LED-urile binecunoscute, ce indică printr-un cod de eroare starea în care sistemul s-a „agăţat”.

Turaţiile celor maxim şase ventilatoare pot fi reglate în fel şi chip, existând posibilitatea setării unei valori minime de temperatură la care să intre în funcţiune ventilatorul la o turaţie mică (reglabilă în volţi), cât şi o valoare destinată turaţiei maxime. Monitorizarea este bună, atât pentru temperatură cât mai ales pentru voltaje, fiind prezente şi câmpuri rar întâlnite, precum voltajul de standby al chipset-ului. O problemă destul de gravă am întâlnit-o chiar de la pornirea plăcii: după câteva secunde, ea s-a închis irevocabil din cauza ventilatorului pentru procesor alimentat din alt conector. Pe lângă faptul că suntem obligaţi să folosim, la prima montare a plăcii (sau după reset-area BIOS-ului) un anume conector, sunt ventilatoare care se alimentează din mufa molex şi care practic nu pot fi folosite pe această placă până nu îi este setată în BIOS opţiunea de a nu stinge sistemul dacă observă că CPU Fan raportează zero turaţii.

Soft-ul livrat include, pe lângă un program de scriere a BIOS-ului din Windows, Abit EQ şi OC Guru, utilitare capabile cam de aceleaşi lucruri ca şi meniurile de

28

Page 31: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 2: Evaluarea performanţelor plăcilor de bază monitorizare şi respectiv overclocking din BIOS. În plus, în cazul lui Abit EQ există trei preset-uri: Quiet, Normal şi Turbo, ce corespund valorilor de 204, 210 şi 216 MHz pentru HTT, ajustându-se în acelaşi timp şi voltajul memoriei şi procesorului. Întâlnim acelaşi 204, valoare considerată implicită de anumite plăci Abit, precum AV8. De aceea, putem face presupunerea că viitoarele BIOS-urile de AN8 ar putea recurge la aceeaşi metodă, nu foarte ortodoxă, de a creşte performanţa plăcii.

Ce lipseşte? Dispozitivul extern 3rd Eye, prezent pe multe plăci mai slab cotate. Dar dacă „săpăm” puţin, descoperim că există şi modelul cu „al treilea ochi”, puţin mai scump.

Concluzie Nu este foarte plăcut să afli că placa de bază pe care tocmai ai cheltuit o sumă

impresionantă are un BIOS în stadiu beta, deşi marcat ca oficial. Acesta este unul dintre puţinele impedimente care pot hotărî un entuziast să nu cumpere Abit AN8 Fatal1ty.

+ potenţial mare de overclocking + răcire excelentă + LED-uri de diagnosticare + prezentare atrăgătoare - BIOS beta - doar 2.8V pentru memorie - preţ mare

2.2.5. Abit AN8 (nForce4) Probabil aţi remarcat pe parcursul acestei prezentări că uneori m-am referit la

placă numind-o AN8 pur şi simplu, fără sufixul Fatal1ty. De ce? Pentru că există şi versiunea AN8 „simplu”, ce nu diferă de sora mai mare decât prin culoarea PCB-ului şi a slot-urilor, prin inscripţionarea diferită a sistemului de răcire a surselor de putere, prin absenţa modulului de răcire a memoriilor şi prin dotarea puţin mai obişnuită la capitolul cabluri (de exemplu, nu avem cabluri IDE rounded ci normale). Şi nu în ultimul rând, prin dotarea cu chipset-ul nForce4 „simplu”, ce nu dispune de Serial ATA 300, ci de versiunea ce permite un transfer de doar 150 MB/s. Diferenţa este absolut insesizabilă, testele nu au scos-o în evidenţă. Teste care au demonstrat performanţe identice şi frecvenţe de overclocking atinse „la fel de” identice. Preţul ei este cu circa 25% mai mic, aşadar este foarte discutabil dacă achiziţionarea versiunii Fatal1ty reprezintă o opţiune bună.

Concluzie + potenţial mare de overclocking + răcire bună

29

Page 32: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul + LED-uri de diagnosticare + prezentare atrăgătoare - BIOS beta - doar 2.8V pentru memorie

2.2.6. DFI LANParty UT nF4 Ultra-D (nForce4 Ultra) BE6-II, KX7-333, IT7, NF7 - toate sunt modele de plăci de bază de la Abit ce

într-un moment sau altul au făcut istorie, fiind considerate adevărate campioane ale overclocking-ului. Probabil vă veţi întreba „ce au ele în comun cu DFI-ul despre care vrem sa discutăm aici?”; ei bine, ele, ca şi ultimele modele produse de DFI, poartă semnătura aceluiaşi inginer, pe nume Oscar Wu. Aceasta, împreună cu lista de specificaţii tehnice şi mai ales cu opţiunile foarte „îndrăzneţe” disponibile în meniul BIOS-ului (pe care le vom detalia mai târziu), ar trebui să spună multe despre cui se adresează placa de faţă.

La o primă vedere aruncată asupra ambalajului, singura opinie este legată de

culorile folosite şi de imaginea stilizată ce lasă impresia unui ambalaj de jucării. Deschizând cutia, observăm un conţinut nu foarte bogat, însa interesant dacă luăm în calcul că modelul prezentat aici este cea mai „săracă” variantă din oferta DFI a acestei game. Cablurile (două ATA-133 rounded, două S-ATA, unul FDD rounded) sunt toate de culoare galbenă şi sensibile la ultraviolete şi, împreună cu combinaţia de culori (PCB cafeniu şi slot-uri galbene la fel de UV-sensitive) folosită de placa de bază, pot avea un aspect destul de plăcut într-o carcasă cu fereastră. Alături de aceste cabluri, sunt furnizate un adaptor pentru alimentarea a două hard disk-uri S-ATA, un cleştişor pentru manevrarea mai uşoară a jumper-ilor, cinci jumperi suplimentari „cu moţ”, trei seturi de jumperi SLI de rezervă şi un back-panel ce asigură compatibilitatea configuraţiei mufelor la orice carcasă. De asemenea, în cutie se mai găsesc un manual nu foarte bogat, însă cu informaţii suficiente pentru ca instalarea să decurgă fără probleme, CD-ul cu drivere şi utilitare, un pliant ce prezintă tehnologia CMOS Reloaded, o dischetă cu driverele de RAID Silicon Image (inutilă, deoarece controller-ul Sil3114 se află numai pe modelele high-end), precum si exoticul modul audio Karajan, care deşi nu e decât un simplu codec ALC850 pe opt canale ce se montează pe un PCB separat, se presupune că oferă o îmbunătăţire calitativă a semnalului faţă de implementarea obişnuită onboard.

30

Page 33: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 2: Evaluarea performanţelor plăcilor de bază

Trecând la analizarea aspectului plăcii, observăm poziţionarea mai deosebită a

slot-urilor de memorie şi a procesorului, probabil în efortul de a reduce lungimea traseelor bus-ului HyperTransport; un vot în plus pentru inginerii DFI, pentru că au depus efortul de a modifica atât de radical PCB-ul de referinţă NVIDIA. Analizând sistemele de răcire, observam că atât tranzistorii ce deservesc sursa de alimentare a procesorului, cât şi cei pentru RAM şi chipset, sunt dotaţi cu radiatoare de dimensiuni impresionante, din aluminiu, ce promit o funcţionare stabilă a respectivelor module în condiţii extreme. Punând şi cooler-ul de pe chipset sub lupă, cooler ce are dimensiuni peste medie şi beneficiază de un ventilator Mag-Lev (teoretic de câteva ori mai fiabil decât cele ball bearing si în acelaşi timp mai silenţios), şi adăugând la aceasta faptul că sunt prezente nu mai puţin de 4 (patru!) mufe de alimentare pentru placa de bază (ATX 2.0, +12V, molex HDD + mufa FDD), nu putem trage decât o concluzie: placa e proiectată să găzduiască componente ce consumă foarte multa putere. Overclocking anybody?

Majoritatea conectorilor au o amplasare bună, singurul care aduce o penalizare mai serioasă este unul din cei de alimentare, şi anume cel cu mufa de FDD, plasat foarte aproape de centru; existenţa lui acolo este justificata dacă ne gândim la eficienţă maximă, pentru că livrează curentul foarte aproape de consumator, eliminând astfel pierderile suplimentare prin traseele de pe PCB-ul plăcii de baza. Un alt lucru care merită cu siguranţă atenţia e prezenţa a două slot-uri PCI Express X16, iar alături de ele existenţa unor seturi de jumperi ce se pot seta pe „Normal” sau „SLI”, întocmai ca la modelele ce suportă modul SLI. Mai mult, AnandTech3 a sesizat acum ceva timp că chipset-urile nForce4 Ultra şi nForce SLI sunt unul şi acelaşi, diferenţa constând doar în prezenta unei punţi conectate pe chipset (similare celei întâlnite la procesoarele Athlon), ce permite identificarea chipset-ului ca având sau nu posibilităţi de SLI. DFI-ul a suportat cu succes modificarea (ce poate fi realizată cu un creion, cu substanţă electroconductoare sau chiar cu pistolul de lipit - nerecomandat celor care nu au priceperea necesară), funcţionând perfect cu două plăci grafice Leadtek 6800 în mod SLI, sistemul overclock-at depăşind bariera celor 19.000 de puncte in 3DMark03.

Back-panel-ul e special, găzduind nu mai puţin de şase mufe USB, două RJ-45 (LAN Gigabit), una FireWire, şase jack-uri audio, două conectoare de tip RCA (intrarea, respectiv ieşirea SP/DIF), precum şi obişnuiţii conectori PS/2 pentru tastatură şi mouse. Se observă eliminarea conectorului pentru portul paralel, în timp ce cel serial precum şi unul suplimentar FireWire şi patru USB pot fi conectate intern pe placa de bază, deşi conectorii de extensie lipsesc. Ultimul lucru legat de layout ce merită menţionat este prezenţa switch-urilor de Power şi Reset precum şi a unui speaker direct

3 http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2322

31

Page 34: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul pe placa de baza, pe care am avut ocazia să le apreciem în timpul testelor, placa având funcţionalitate deplină fără a necesita folosirea unei carcase.

Mai departe, descoperim un BIOS extrem de bogat care, pe lângă numărul foarte mare de setări legate de memorie, permite reglarea tensiunii Vcore (pentru procesor) până la 2.1V, VDD (chipset) până la 1.8V, LDT (HyperTransport) până la 1.5V şi, cel mai impresionant, Vdimm (cea a memoriei) până la 4V. Deşi această din urmă setare e utilă doar în cazul în care sunt folosite memorii cu anumite chip-uri Winbond ce răspund dar mai ales rezistă la asemenea valori, notăm încă un punct în plus pentru DFI din partea entuziaştilor. Toate setările legate de overclocking sunt strânse într-o singură categorie a BIOS-ului, numită „Genie BIOS” - şi când zic „toate” nu mă refer doar la memorie şi voltaje, ci şi la posibilitatea de a dezactiva anumite device-uri on-board ce ar putea limita overclocking-ul extrem (porturi S-ATA, on-board LAN etc) - de unde putem afla tensiunile critice şi, foarte interesant, avem posibilitatea de a rula Memtest86+ imediat după POST (test ce este integrat în chip-ul de BIOS). „Ambalajul de jucării” conţine, se pare, şi ceva jucării de oameni mari.

Un lucru de asemenea special este CMOS Reloaded, ce constă în posibilitatea de a stoca patru configuraţii ale BIOS-ului, ce se pot încărca mai târziu prin simpla apăsare a unei taste; alături de modul „Safe Boot” selectabil printr-un jumper (pentru a nu fi necesar să resetăm BIOS-ul), este o unealtă foarte utilă în cazul overclocking-ului sau al testării componentelor.

Trecând mai departe la măsurarea performanţelor, am observat un comportament excelent, placa stabilind referinţa pentru celelalte incluse în test, mai ales datorită faptului că a suportat setări ale memoriei mai agresive decât în cazul celorlalte modele. Astfel, setările CAS şi TRAS au mers coborâte până la unele valori mai neobişnuite, şi anume 1.5 şi respectiv 0, în timp ce la celelalte modele testate nu am reuşit sa le coborâm în condiţii de stabilitate mai jos de 2, respectiv 5. De asemenea, tRC, tRFC si tRRD au coborât până la 7-9-0, comparativ cu 9-12-2 la celelalte. Cea mai mare diferenţă de performanţă a avut loc în compresia WinRAR, unde placa a punctat cu 1.5% mai bine decât următoarea clasată. Overclocking-ul este însă capitolul unde DFI arată cu adevărat tot ce poate. Forţând memoriile Corsair la latenţe crescute, am reuşit să le împingem până la o frecvenţă stabilă de 315 MHz, destul de impresionant având în vedere că ele sunt certificate la o frecvenţă de lucru de 200 MHz (cu latenţe mult mai strânse însă). Cel mai impresionant lucru a fost HTT-ul atins, şi anume 445 MHz, folosind un divizor 2:1 pentru memorie; astfel, placa a dovedit că poate rula stabil la o frecvenţă aproape de două ori şi jumătate mai mare faţă de specificaţii.

Software-ul inclus pe CD-ul cu drivere constă într-un program de monitorizare (ITE SmartGuardian) ce permite şi controlul turaţiei ventilatoarelor în funcţie de temperaturi, soft-ul NVIDIA nTune precum şi un alt utilitar numit ITE SmartSpeed. Acesta conţine, pe lângă funcţionalitatea lui ITE SmartGuardian, şi posibilitatea setării tensiunilor Vcore, Vdimm si VDD, precum şi un overclocking limitat. Această din urmă funcţie este total nereuşită, posibilităţile de supratactare fiind practic nefuncţionale, aceasta pe lângă greşelile evidente de limbă engleză din program.

Per total, micul producător DFI reuşeşte să se prezinte cu o ofertă excepţională, singurele categorii care ar putea fi îmbunătăţite fiind legate de documentaţie şi de funcţionalitatea software-ului; având însă în vedere că target-ul produsului se află mai degrabă în zona power-user, aceste lipsuri sunt ca şi inexistente.

32

Page 35: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 2: Evaluarea performanţelor plăcilor de bază Concluzie Performanţa şi posibilităţile deosebite de overclocking fac din DFI LANParty

UT nF4 Ultra-D câştigătorul testului nostru, chiar şi în competiţie cu modelele high-end de la producători consacraţi. Titlul de XF Award l-a primit cu greu din cauza absenţei de pe piaţa românească la data efectuării testelor.

+ overclocking extrem atins în practică + BIOS special conceput pentru overclocking + numeroase setări de memorie + poate fi transformată uşor pentru lucrul în mod SLI - documentaţia şi software-ul lasă de dorit

2.2.7. Gigabyte GA-K8NXP-SLI (nForce4 SLI) Placă creată special pentru a oferi maximul de performanţă dintr-un sistem de

gaming, este dotată cu două slot-uri PCI Express X16, GA-K8NXP-SLI impresionează în primul rând prin dotare şi, de ce nu, prin aspectul estetic de excepţie. Mai întâi sare în ochi cutia dublă faţă de cea a unei plăci normale, în interiorul pachetului aflându-se două cutii mai mici, pline cu „jucării”. În prima găsim (enumerate într-o ordine aleatoare) o foaie ce face reclamă la cooler-ul 3D Rocket, creat tot de Gigabyte (un model foarte reuşit), un manual bine scris, unul destinat chip-ului Sil3114 (hint: Serial ATA, RAID 5), un ghid de instalare rapidă sub formă de pliant, scris în câteva limbi, un abţibild Gigabyte... şi cam atât cu „maculatura”. Lucrurile mai serioase se concretizează prin nu mai puţin de opt cabluri Serial ATA şi patru cabluri convertoare molex – alimentare SATA (cu câte doi conectori pe fiecare cablu) şi numai un cablu Parallel ATA. Cu alte cuvinte, fiecare hard disk Serial ATA ce poate fi utilizat împreună cu această placă de bază nu va avea nevoie de nici un cablu suplimentar faţă de cele livrate.

În cealaltă cutie avem deja obişnuitul DPS (Dual Power System) cu care ne

răsfaţă Gigabyte de circa doi ani încoace, precum şi o placă al cărui nume spune totul: 802.11 Wireless LAN Card. Să nu uităm nici de cele trei bracket-uri USB (şase porturi în total, fără a le menţiona pe cele patru de pe placă), unul servind şi conectării a două dispozitive FireWire. Analizând acum placa, observăm cele două slot-uri PCI Express, fiecare putând suporta o placă grafică performantă. Modul SLI este reflectat de un mic card, asemănător modulelor SO-DIMM, ce permite selectarea modului de operare: SLI sau Normal. Cu alte cuvinte, 1x PCI Express 16x sau 2x PCI Express 8x - evident că dacă cea de-a doua placă lipseşte, vom alege prima variantă.

DPS este, după cum spuneam anterior, o placă suplimentară (dotată şi cu sistem de răcire separat) ce se aşează într-un slot special (asemănător ca şi construcţie cu vechiul ISA, dar mult mai mic decât acesta), ce conţine o sursă de putere suplimentară,

33

Page 36: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul utilă în caz de stres maxim (overclocking, temperaturi mari, consum foarte mare din partea procesorului). Practic, am observat că aceasta preia cea mai mare parte din sarcina surselor de putere deoarece tranzistorii de tip MOSFET prezenţi pe placa de bază au rămas reci, cei de pe DPS fiind fierbinţi.

Analizând mai departe, mai reperăm două slot-uri PCI Express X1, aşezate

alternativ cu cele X16, precum şi două PCI „normal”. Interfeţele de unităţi de stocare sunt în număr de zece, două Parallel şi opt Serial-ATA, de patru din acestea din urmă ocupându-se chipset-ul (pardon, chip-ul), restul căzând în sarcina unui controller separat, de la Silicon Image. Fiecare controller este capabil de funcţia RAID, ultimul permiţând şi RAID 5. Back-panel-ul este asemănător cu cel clasic, conectorul serial fiind înlocuit de o intrare şi o ieşire SPDIF, iar conectarea la reţea este servită de două interfeţe capabile de 1 Gbps, chip-urile răspunzătoare fiind produse de Marvell şi Vitesse. Este ciudată alegerea a două chip-uri diferite destinate acestui scop, însă opţiunea producătorului nu poate fi privită decât ca un plus, utilizatorul având acum de unde alege.

Ergonomia. Aproape nimic de reproşat, minusurile fiind de înţeles având în vedere numărul de componente care au încăput pe placă. Spaţiu în jurul procesorului? Este. Spaţiu între placa grafică şi DIMM-uri? Este. Plasare potrivită a conectorului de alimentare? Este. Ce nu prea este e spaţiul dintre slot-urile PCI Express, slot-ul X1 dintre cele două plăci grafice fiind practic inutilizabil pentru că plasarea unei plăci în acesta ar crea probleme grave răcirii plăcii grafice din vecinătate.

BIOS-ul plăcii este excelent, cel puţin după apăsarea tastelor Ctrl+F1, operaţie necesară pentru a putea accesa opţiunile ascunse şi destinată utilizatorilor experimentaţi. Găsim astfel posibilităţi de overclocking practic nelimitate, de la banala setare a bus-ului HTT (era să spun FSB) până la reglaje fine ale memoriei. Numărul de setări legate direct sau indirect de memorie este de 12, putând fi întâlnite o serie de timing-uri care lipsesc cu desăvârşire în BIOS-urile plăcilor ieftine. Tensiunile, atât pentru memorie cât şi pentru procesor, pot fi ajustate până la maxim 2.8V şi respectiv 1.75V, ceea ce nu mai reprezintă nimic deosebit. Deosebit este posibilitatea de overclocking a plăcii grafice. Da, aţi citit bine, placa poate seta din BIOS frecvenţele VPU-ului şi a memoriei plăcii (plăcilor) video în procente, plaja de valori fiind între 100% şi 255%. Performanţele atinse au fost foarte bune, deşi nu cele mai bune. Prin setarea unor latenţe foarte agresive pentru memorie, am obţinut o instabilitate exemplară. Schimbând valorile la unele mai „de bun simţ” dar în continuare foarte agresive, am scăzut performanţa extrem de puţin, dar sistemul a rulat stabil. (Reamintesc faptul că testul de performanţă a fost rulat cu o singură placă grafică. Prezenţa celui de-al doilea slot PCI Express X16 a contat doar la capitolul dotare.)

Overclocking-ul a produs mari dureri de cap. Deşi frecvenţele atinse au fost de 315 MHz asincron şi 265 MHz sincron (destul de modeste, sub pretenţiile pe care le

34

Page 37: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 2: Evaluarea performanţelor plăcilor de bază aveam de la o astfel de placă), am fost lovit de diverse probleme de stabilitate în condiţii uneori hilare. De exemplu, am reuşit să aduc placa în situaţia de a nu trece de POST la un HTT mai mare de 213 MHz şi aceasta în condiţiile în care, peste câteva ore, la exact aceleaşi setări, am obţinut 315 MHz. Altfel spus, placa a funcţionat haotic în condiţii de stres, la un moment dat la circa două din cinci porniri intrând în funcţiune Dual BIOS-ul, fiind detectată coruperea BIOS-ului. Alarmele erau în mod clar false, astfel că am dezactivat opţiunea Auto Recovery (practic, am dezactivat funcţionalitatea Dual BIOS-ului) şi am putut realiza testele. Nu se poate pune problema calităţii slabe a componentelor de pe placă, temperaturile atinse nefiind foarte mari (mai puţin temperatura DPS-ului care a ajuns la valori deranjante odată cu setarea unei tensiuni mari pentru procesor), iar condensatorii Nichicon ce „învăluie” socket-ul procesorului sunt consideraţi ca având o fiabilitate peste medie, putând rezista vreme îndelungată la temperaturi mari. De asemenea, însăşi prezenţa unei surse de putere suplimentare prin prezenţa DPS-ului creşte în mod teoretic fiabilitatea produsului, precum şi şansele de reuşită ale unui overclocking extrem. Aşadar, vina nu se poate spune a cui e. Cert este că alte exemplare ale acestui model au rulat fără probleme la un HTT mai mare şi este posibil ca acest exemplar să fi avut unele probleme, eventual versiunea BIOS-ului (F6, ultimul disponibil la data testării) să creeze probleme. Oricum, aceasta este fraza clasică pe care orice tester o afirmă în situaţii de acest gen, drept urmare impresia subiectivă asupra posibilităţilor de overclocking ale plăcii de faţă - şi luând în calcul experienţele similare pe plăci mai vechi ale aceluiaşi producător - nu este pozitivă.

În rest, producătorul taiwanez a fost la înălţime. Dotările extravagante, chiar dacă au şanse mici să fie folosite în practică, oferă o aură de supremaţie, placa fiind printre cele mai bine dotate plăci pe care am avut ocazia să le testez.

Concluzie Cu puţină atenţie suplimentară la detalii, Gigabyte ar putea accede la fotoliul de

lider al plăcilor de bază destinate entuziaştilor, deţinut în prezent de alte nume sonore pe care vă lăsăm plăcerea să le descoperiţi mai departe în acest capitol. Până atunci, nota 10 la dotare şi doar notă de trecere la overclocking.

+ dotare excelentă + acceptă două plăci grafice în mod SLI + setări bune de overclocking în BIOS + Dual BIOS - lipsă aproape totală a monitorizărilor în BIOS - overclocking-ul efectiv a creat mari probleme

2.2.8. Gigabyte GA-K8NF-9 (nForce4-4X) O variantă pentru buget redus a plăcii descrise anterior este GA-K8NF-9. Bazată

pe un PCB foarte asemănător, deosebirile privesc în primul rând absenţa celui de-al doilea slot SLI (ce este înlocuit de unul PCI normal), iar chipset-ul din dotare este nForce4-4X. Chipset ce nu există în documentele NVIDIA (Gigabyte este singurul producător care îl utilizează) şi care nu reprezintă decât o revizie mai veche a lui nForce4 (A2 faţă de A3) care suportă un bus HyperTransport de maxim 800 MHz (faţă de 1000 MHz pentru variantele clasice). Diferenţele de performanţă sunt absolut neglijabile în sistemele obişnuite, drept dovadă placa a fost la fel de rapidă ca şi

35

Page 38: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul K8NXP-SLI. În plus, a rulat aparent stabil la un LDT de 5x (deci 1000 MHz), e drept, fără să fie conectate la placă prea multe dispozitive şi fără a se efectua teste riguroase.

De asemenea, dotarea plăcii nu este nici pe departe atât de extravagantă ca cea a

suratei mai mari. Lipsesc patru din cele opt porturi Serial ATA, placa DPS, unul din cele două BIOS-uri, iar conectorii de ventilatoare sunt în număr de doi (neluând în seamă cel destinat chipset-ului răcit acum pasiv, în format cu două fire). BIOS-ul este identic cu excepţia opţiunii de overclocking a plăcii grafice, frecvenţele acesteia nemaiputând fi ajustate în procente, ci doar pe baza a două preset-uri: Fast şi Turbo. Frecvenţele maxime ale bus-ului HTT au fost urcate ceva mai sus decât în cazul plăcii anterioare, problemele întâlnite la K8NXP-SLI neapărând. Totuşi, 320 MHz asincron şi 280 sincron nu impresionează pe nimeni care a pus mâna pe plăci mai bune, dar sunt nişte valori excelente pentru un produs value.

Concluzie Una peste alta, GA-K8NF-9 îşi merită banii, fiind un model destul de ieftin şi

care dispune de facilităţi remarcabile. Chiar dacă nu avem două interfeţe LAN sau opt conectori SATA, nici nu avem nevoie de aşa ceva. Cine? Noi, cei care nu suntem dispuşi să plătim dublu pentru astfel de facilităţi.

+ setări bune de overclocking în BIOS + overclocking bun atins în practică + preţ foarte atractiv - lipsă aproape totală a monitorizărilor în BIOS

2.2.9. Rezultate comparative În continuare se prezintă, comparativ, rezultatele obţinute cu diferite progrme de

testare, a plăcilor de bază.

Activitate /program testare - punctaj Placa de bază testată SiSoft

Sandra Science Mark

Copiere fişiere

Arhivare WinRAR

PovRay Codare XviD

DFI 5647 42,8 355 255 842 478 Abit AN8 5632 42,8 358 261 837 480 Gigabyte 5636 43,3 356 259 841 481

SiSoftSandra (Unitatea de măsură: puncte; mai mare = mai bine) Testul sintetic de lăţime de bandă a memoriei din SiSoft Sandra a confirmat ceea

ce bănuiam, având în vedere setările efectuate în BIOS şi rezultatele obţinute în celelalte teste: placa de la DFI oferă un plus de performanţă datorită latenţelor mai mici ale memoriei.

Science Mark (Unitatea de măsură: nanosecunde; mai mic = mai bine)

36

Page 39: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 2: Evaluarea performanţelor plăcilor de bază Testul de latenţă a memorie din ScienceMark nu ne-a oferit nici un rezultat

relevant; ne aşteptam la altceva. Copiere fişiere (Unitatea de măsură: secunde; mai mic = mai bine) La copierea fişierelor, un test al controller-ului Serial ATA, diferenţele au fost

mici, ţinând cont că el este acelaşi la toate cele trei plăci. Arhivare WinRAR (Unitatea de măsură: secunde; mai mic = mai bine) Comprimarea cu WinRAR a scos la iveală cele mai mari diferenţe: Abit AN8 a

fost cea mai lentă placă din test, DFI-ul luând un avans de peste două procente faţă de aceasta.

PovRay (Unitatea de măsură: secunde; mai mic = mai bine) Randarea unei imagini în PovRay depinde aproape în totalitate de procesor,

drept pentru care placa DFI a „stors” doar un 0.6% în faţa lui Abit. Codare XviD (Unitatea de măsură: secunde; mai mic = mai bine) Scoruri foarte apropiate la codarea unui film folosind XviD, placa DFI fiind în

continuare în frunte.

2.2.10. Concluzii Este greu de tras linia şi făcut totalul după doar cinci plăci testate, mai ales când

două dintre ele sunt variante mai sărace ale modelelor de vârf. Practic, am avut în test trei plăci de bază.

DFI LanParty UT nF4 Ultra-D este fără discuţie câştigătorul testului. Ea s-a comportat excelent, o dovadă în plus că DFI este un producător care poate accede uşor la trofeele cele mai mari din domeniul overclocking-ului, orientarea firmei schimbându-se total în ultima perioadă. Şi, să nu uităm, versiunea testată nu este cea mai dotată placă a producătorului taiwanez, iar preţul este foarte tentant.

Abit s-a prezentat exemplar prin AN8, atât cu, cât şi fără sufixul Fatal1ty. Acesta din urmă încarcă substanţial preţul, oferind un plus de facilităţi pe care, cel mai probabil, nu le veţi folosi, sau care nu vă vor ajuta prea mult. Dotarea şi overclocking-ul sunt foarte bune, însă la aceiaşi bani se pot găsi produse care nu poartă „ştampila” Abit şi care pot oferi satisfacţii similare.

Gigabyte a ocupat ultimele două locuri. Dacă la dotare este de neegalat (SLI, opt porturi Serial ATA şi alte „minunăţii”), restul facilităţilor nu au excelat, modelul GA-K8NXP-SLI fiind un produs mediu pentru categoria sa. Cât despre codaşa clasamentului, GA-K8NF-9, ea reprezintă fără discuţie best buy-ul acestui test, dovedind că nu avem nevoie de o gaură în buget de 200$ pentru a obţine o placă bună.

37

Page 40: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

3. Evaluarea performanţelor procesoarelor

3.1. Arhitectura lui Pentium 4 Prescott

3.1.1. Introducere Ultima realizare de la Intel, ce poartă aceeaşi

denumire comercială ca şi predecesorii săi, Pentium 4, este cunoscută sub numele de cod Prescott. Dacă AMD preferă denumiri legate de cai pentru a-şi promova CPU-urile (Morgan, Palomino, Thoroughbred sunt rase de cai) iar VIA foloseşte termeni cu rezonanţă religioasă (Nehemiah, Joshua, Ezra), Intel preferă nume de localităţi sau regiuni geografice din America (Willamette şi Coppermine sunt râuri, Northwood este denumirea atribuită mai multor localităţi), Prescott fiind atât o pădure, un orăşel în Arizona cu o populaţie de câteva zeci de mii de locuitori, cât şi un nume, marele fizician englez Joule având numele complet de James Prescott Joule. Cam atât cu poveştile, să trecem la lucruri serioase.

Modificările aduse de Intel arhitecturii vechiului Pentium 4 (cod Willamette sau Northw

trebuie să vă îngrijoraţi: Intel a făcut tot posibilul pentru a minimaliza efectele

ood) nu sunt atât de marcante ca în cazul trecerii de la Pentium III la Pentium 4 însă putem spune că, din anumite puncte de vedere, ele se aseamănă cu precedentul salt de tehnologie. Arhitectura NetBurst a fost păstrată, deci vom avea în continuare un procesor ce rulează cu un PSB efectiv începând cu de patru ori mai mare decât frecvenţa de bază, şi anume 4x200=800 MHz, frecvenţă cunoscută de la ultimele modele de Northwood, ajungându-se la modelele ulterioare la 4x266=1066 MHz. Simplificând, schimbările aduse de către Prescott se bazează pe încercarea producătorului de a creşte performanţa în primul rând prin creşterea frecvenţei; pentru aceasta, au fost necesare unele schimbări interne care au dus inevitabil la scăderea vitezei comparativ cu alte procesoare la aceeaşi frecvenţă. Cu alte cuvinte, Northwood este mai rapid decât Prescott la aceeaşi frecvenţă în anumite aplicaţii, la fel cum Pentium III Coppermine era mai rapid decât Pentium 4 Willamette dacă se comparau două CPU-uri rulând la tacturi similare.

Nu încercării oarecum forţate de creştere a frecvenţei. Astfel, dimensiunea cache-

ului L2 a fost dublată, o serie de unităţi ale procesorului, precum cache-ul şi unitatea pentru numere întregi au fost optimizate, iar câteva instrucţiuni suplimentare au extins setul SSE2, el devenind acum SSE3. În acelaşi timp, numărul de stagii ale conductelor de prelucrare (aşa numitele pipeline-uri) a fost crescut în continuare, el ajungând la peste 30 (10 la Pentium III, 20 la Pentium 4 Willamette şi Northwood). Această modificare, împreună cu creşterea latenţei cache-ului, oferă noi orizonturi privind potenţialul de a atinge frecvenţe uriaşe, de ordinul a 5 GHz. Nu este nevoie de prea multă imaginaţie pentru a afla motivul acestor schimbări, el fiind unul comercial: mai mulţi megahertzi înseamnă pentru cei mai mulţi mai multă performanţă, fapt ce se dovedeşte a fi din ce în ce mai fals. Vom explica în continuare majoritatea schimbărilor aduse de Prescott lui Pentium 4 Northwood, explicând (cel puţin sumar) toate noţiunile care ar putea produce dificultăţi în urmărirea textului pentru un cititor începător.

38

Page 41: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 3: Evaluarea performanţelor procesoarelor Câteva cuvinte despre tehnologia de fabricaţie. Numărul de microni întâlnit în

specificaţiile oricărui procesor se referă la distanţele dintre tranzistorii procesorului. Cu cât acestea sunt mai mici, cu atât se măreşte potenţialul creşterii frecvenţei de tact. Aceasta este teoria clasică, ce tinde să nu mai fie valabilă din cauza atingerii unor distanţe critice: 0.13 microni pentru Pentium 4 Northwood şi 0.09 microni (90 nanometri) pentru Prescott. Pe de o parte, tranzistorii pot lucra mai rapid, pe de altă parte apar fenomene nedorite, în special datorită dimensiunii foarte mici a pastilei, devenind necesare unele schimbări de ordin intern. Astfel, tehnologia Strained Silicon rezolvă parţial neajunsurile datorate arhitecturii pe 0.09 microni a lui Prescott.

3.1.2. Gestionarea mă comentăm cu care luc

procesoare

emoriei principale şi secundare S puţin

memoria reazăultimele Intel. După

memorie intermediară care stochează informaţiile mai des folosite, crescând foarte mult (de mii de ori) performanţa unui procesor, aceasta

cum se ştie, northbridge-ul, pentru majoritatea chipset-urilor destinate lui Pentium 4, deţine integrate în primul rând controller-ul de memorie şi cel pentru bus-ul AGP sau PCI Express X16. Controller-ul de memorie influenţează puternic performanţa, el având posibilităţi de a lucra cu memoria SDRAM, DDR SDRAM, DDR2 SDRAM sau RDRAM (Rambus). Toate chipset-urile uzuale folosesc memoria în mod dual-channel (care în principiu dublează performanţa acesteia dacă sunt folosite două sau mai mult module de memorie într-o anumită combinaţie), o valoare normală ca lăţime de bandă fiind cea de 6.4 GB/s (DDR400 în mod dual-channel). Pentru ca această viteză teoretică să afecteze puternic performanţa este nevoie ca datele furnizate de procesor să ajungă în memorie la timp, ceea ce înseamnă că, prin intermediul PSB-ului (care este în esenţă viteza de comunicare dintre CPU şi northbridge), să fie furnizaţi memoriei câte 6.4 GB într-o secundă. Exact aceasta este lăţimea de bandă a PSB-ului de 800 MHz. Şi nu este vorba de 800 MHz reali, ci de 200 MHz multiplicaţi de un număr de patru ori, folosindu-se o tehnică asemănătoare cu dublarea ratei de transfer la PSB-urile procesoarelor Athlon şi la memoriile DDR. Astfel, circulaţia fluxului de date procesor-northbridge-memorie se desfăşoară cu viteza de 6.4 GB/s, de două ori mai mult decât pentru un Athlon XP cu PSB de 400 MHz (2x200). În varianta de PSB 533, acest flux circulă cu doar 4.3 GB/s, o frecvenţă a memoriei mai mare de cea corespunzătoare lui PC2100 (DDR266) dual-channel neaducând creşteri majore de performanţă, motivul fiind explicat mai sus. Prescott rulează la un PSB de 533, 800 şi 1066 MHz; în schimb, Northwood beneficiază doar de 400, 533 şi 800 MHz. Totuşi, majoritatea modelelor de Prescott nu depăşesc decât prin overclocking cei 800 MHz, ele fiind similare din acest punct de vedere celor mai recente procesoare Northwood.

Cache-ul este o zonă de

39

Page 42: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul datorită

, existând o secţiun

diferit, în funcţie de relaţia sa cu L1. În momentul umpler

ţine, pe lângă informaţiile rezidua

che-ului L1 comparabilă cu cea a lui L2 dar eficienţa acestuia din urmă este destul de redusă. Chiar dacă avem de-a face cu o

faptului că, în cele mai multe cazuri, datele şi instrucţiunile nu sunt folosite o singură dată ci de un număr foarte mare de ori într-un interval scurt. Există cel puţin două nivele de cache: level 1 (L1) şi level 2 (L2), primul nivel fiind mai aproape de nucleul procesorului şi având astfel o eficienţă mai mare. La majoritatea procesoarelor de azi, el este împărţit într-o secţiune pentru date şi una pentru instrucţiuni.

Pentru procesoarele AMD, cele două zone sunt de capacitate identică şi totalizează 128 KB, însă Pentium 4 a adus o nouă organizare a cache-ului

e de date de doar 8 KB şi una de instrucţiuni, numită Execution Trace Cache, care stochează aceste instrucţiuni într-o formă deja decodată, capacitatea fiind de 12.000 de micro-operaţii (micro-ops); acest tip de cache depăşeşte ca eficienţă unul obişnuit de 8 KB. În cazul lui Prescott, cache-ul pentru instrucţiuni a rămas acelaşi iar cel de date a fost crescut la 16 KB, acest lucru având un impact direct asupra performanţei; el este încă extrem de mic comparat cu procesoarele AMD, care deţin un cache total (date + instrucţiuni) de 128 KB. Totuşi, acest trace cache este vital pentru un procesor cu un pipeline lung, cum este Pentium 4, un cache convenţional chiar şi mult mai mare ar fi putut dezavantaja procesoarele Intel. În plus, L1 cache-ul lui Prescott a fost puternic optimizat, având un hit rate (probabilitatea ca informaţiile cerute să se afle în cache) mai mare decât la predecesori.

Cache-ul L2 este de asemenea o zonă de memorie care stochează date temporare, însă rolul său este

ii cache-ului L1 este solicitat nivelul al doilea, în care sunt depuse informaţiile mai rar folosite, să le numim reziduale (desemnate conform unui algoritm numit LRU - Least Recently Used), urmând ca datele considerate mai importante să fie aduse în spaţiul liber creat în L1. Dacă informaţia copiată anterior din L1 în L2 redevine utilă, ea este readusă în L1, consumându-se din nou timp preţios (se creează altă informaţie reziduală ce este copiată în L2, creându-se loc în L1 pentru noua informaţie preţioasă, fostă reziduală). De ce nu este prelucrată direct în L2? Pentru că sunt şanse foarte mari ca informaţia să fie necesară de un număr mare de ori, fiind mai eficientă copierea ei într-o zonă de memorie mai rapidă decât menţinerea sa într-una lentă. Această relaţie dintre cele două nivele de cache o numim exclusivă.

O altă metodă elimină necesitatea transferului între L1 şi L2 datorat celei dintâi situaţii expuse mai sus. Aceasta datorită faptului că L2 con

le, şi imaginea completă a nivelului 1 de cache, nemaifiind necesară copierea informaţiei din L1 a datelor considerate inutile pentru moment. În acest caz, avem de-a face cu o relaţie inclusivă între cele două nivele. O consecinţă directă este faptul că o relaţie inclusivă implică o dimensiune a L2 cache-ului mai mare decât cea a nivelului 1. În plus, dimensiunea totală a cache-ului este mai mică decât suma celor două componente ale sale. Mai exact, cache-ul total este egal cu L1 + (L2 – L1) = L2. Avantajul vitezei a decis compania Intel să implementeze acest tip de cache în toate procesoarele sale începând cu Pentium Pro şi terminând (deocamdată) cu Prescott. Dimensiunea cache-ului L2 este de 256 KB la primul Pentium 4 (Willamette), 512 KB la Northwood şi 1 MB la Prescott. După cum v-aţi dat seama, în privinţa lui L1 se merge pe ideea de viteză mare şi dimensiune mică, el fiind folosit mult mai intens decât L2. Pentru acesta din urmă se preferă o viteză mai redusă dar o dimensiune mai mare, L2 fiind de zeci de ori mai încăpător decât L1.

Relaţia exclusivă este caracteristică procesoarelor din familia K7 (Athlon) pe Socket A şi AMD64, care au o dimensiune a ca

40

Page 43: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 3: Evaluarea performanţelor procesoarelor dimensiune dublă faţă de predecesor, atât (parţial) pentru L1 cât şi pentru L2, noul model de Pentium 4 are o latenţă mai mare a cache-ului. Motivul este faptul că ambele nivele de cache rulează la frecvenţa internă a procesorului. Cu alte cuvinte, frecvenţele uriaşe pentru care este proiectat Prescott trebuie să fie suportate şi de cache, iar pentru aceasta sunt necesari timpi „morţi” suplimentari sau costuri de fabricaţie mai mari. Intel a preferat prima variantă.

Willamette Northwood Prescott AMD K7 AMD64 Tehnologie 0,18µ 0,13µ 0,09µ 0,25÷0,13µ 0,13÷0,09µ Cache L1 8KB+12Kops 8KB+12Kops 16KB+12Kops 128 KB 128 KB Cache L2 1MB 256 KB 512 KB 1 MB 256 KB 512KB÷Latenţă cache L1

2 2 4 3 3

Latenţă cache L2

19 19 28 20 13

Tip cache inclusiv inclusiv inclusiv exclusiv exclusiv

3.1.3. Latenţa Latenţa reprezintă timpul

uri de tact) scursnei operaţii până

la exec tru cache-ul L1, acest număr este de două cicluri la cicluri la Prescott. Nivelul doi de cache deţine o od şi 28 pentru Prescott. Cu toate acestea, avantajul

solicita pe rând, primind informa

mare, acesta se va umple rapid şi proceso

(măsurabil în ciclde la solicitarea u

utarea efectivă a acesteia. PenPentium 4 Northwood şi de patru latenţă de 19 cicluri pentru Northwo(parţial pentru L1, total pentru L2) dublării cache-ului este probabil superior dezavantajului scăderii eficienţei sale. Aceasta se datorează frecvenţei mari a procesorului, deoarece importanţa unui cache mare creşte odată cu creşterea diferenţei dintre viteza CPU-ului şi cea a memoriei. Să vedem şi de ce.

Dacă un procesor poate face multe, un singur lucru nu poate: să stocheze date (excluzând cache-ul). Pentru aceasta, este nevoie de memoria sistemului. Spre exemplu, dacă procesorul are de adunat 1000 de numere, el le va

ţiile şi oferind imediat rezultatul cerut. Dar ce se întâmplă când în algoritm apare, după terminarea adunării, solicitarea de a refolosi cel de-al 537-lea număr din şirul de 1000? Procesorul ar trebui să ceară memoriei elementul cu numărul de ordine 537. Însă câte cicluri de tact trec de la efectuarea cererii până la obţinerea informaţiei? Dacă procesorul rulează la peste 3 GHz iar memoria la câteva sute de MHz, este uşor de înţeles că soluţia aceasta pune procesorul în situaţia de a aştepta rezultatul în loc să execute alte operaţii, ceea ce duce, evident, la scăderea performanţelor. Situaţia reală este alta: al 537-lea număr se află în cache, alături de celelalte elemente ale şirului şi de multe alte informaţii recent utilizate, durata obţinerii valorii acelui element fiind astfel mult mai mică. Probabilitatea ca o instrucţiune sau o variabilă recent folosită să fie din nou necesară într-un interval scurt este foarte mare.

Cu cât frecvenţa procesorului este mai mare, cu atât diferenţa dintre viteza acestuia şi cea a memoriei creşte şi, pe de altă parte, cu atât procesorul va solicita mai rapid informaţii. Dacă cache-ul nu este suficient de

rul va trebui să ceară memoriei ceea ce îşi doreşte. Pentru a se evita această situaţie, a cărei frecvenţă de apariţie creşte odată cu creşterea frecvenţei procesorului,

41

Page 44: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul trebuie crescută dimensiunea cache-ului. Din păcate, aplicaţiile de azi sunt mai sensibile la creşterea latenţei cache-ului decât la creşterea dimensiunii sale, astfel că, cel puţin din punct de vedere al cache-ului level 2, Northwood este mai rapid decât Prescott.

Ce limbi vorbeşte? O altă caracteristică a lui Prescott (dar şi a altor procesoare din familia P4) este

HyperThreading-ul. Acesta reprezintă, în esenţă, un set de instrucţiuni capabil să simulez orului în mod dual, software-ul comportându-se ca şi cum în siste

Extensions), apoi cu SSE2 odată cu Pentium 4 iar Prescot

line (în traducere - conductă).a unor etape pe care instrucţiunile

până la obţinerea rezultatului final. Pipelin

e

apoi în memorie

e funcţionarea procesm ar fi prezent, fizic, un al doilea CPU. S-a dovedit faptul că două sarcini

diferite, cum ar fi două aplicaţii sau două thread-uri (ramuri) ale aceleiaşi aplicaţii lucrează mai rapid în acest mod, cu un minim de suport atât hardware cât şi software, motivul fiind faptul că multe zone ale procesorului nu sunt folosite la adevăratul potenţial când execută o singură sarcină. De aceea, Intel a implementat tehnologia HyperThreading în ultimele procesoare Northwood, precum şi în majoritatea modelelor de Prescott. Însă sporul maxim de viteză se obţine doar atunci când aplicaţiile sunt optimizate pentru acest mod de lucru, în caz contrar putând fi sesizate chiar şi scăderi de performanţă. Deşi această tehnologie nu este specifică doar lui Prescott, am descris-o pentru a putea fi înţeles paragraful următor. De remarcat însă că există versiuni de Prescott fără aceste instrucţiuni.

În 1997, Intel a introdus instrucţiunile MMX (MultiMedia eXtensions), cu scopul de a accelera aplicaţiile multimedia optimizate pentru acestea. MMX a fost extins cu SSE (Streaming SIMD

t a introdus SSE3, ce cuprinde un număr mic de instrucţiuni în comparaţie cu precedentele versiuni, nefiind decât o completare a acestora. Nu este deloc o exagerare să afirmăm că SSE3 conţine ceea ce Intel a uitat să implementeze în SSE şi SSE2. SSE3 oferă avantaje minore diverselor sarcini ale aplicaţiilor multimedia, cum ar fi compresia video. Pe lângă cele 11 instrucţiuni diverse, destinate operaţiilor cu numere complexe, conversiei integer-FPU şi altele, ultimele două optimizează modul de operare HyperThreading dar necesită suport din partea sistemului de operare. Aşteptăm cu interes dezvoltarea software-ului care să profite de SSE3, Intel punând la dispoziţie versiunea a opta a compilatorului propriu de C++, care „ştie” de SSE3. Sporul de performanţă adus ar putea atinge 10 procente, SSE3 nefiind altceva decât unul din numeroasele avantaje minore ale lui Prescott, însă sub care dacă tragem linie obţinem ceva remarcabil. Asta dacă ar fi vorba doar de avantaje...

3.1.4. Conductele Poate cel mai important aspect legat de noul

Prescott este dat de pipe Acesta reprezintă sumtrebuie sa le parcurgă

e-ul este împărţit în stagii, fiecare având o sarcină bine definită. Iată un exemplu de pipeline simplu, fiecare stagiu ocupând exact timpul unui ciclu de tact.

stagiul 1: fetcher – pregăteşte următoarea instrucţiunestagiul 2: decoder – decodifică următoarea instrucţiunstagiul 3: ALU – execută instrucţiunea stagiul 4: retire unit – aduce rezultatul în

42

Page 45: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 3: Evaluarea performanţelor procesoarelor Desigur, toate aceste operaţii puteau fi executate neorganizat, însă pentru un

pipelin re sunt realizate simultan în locul uneia singure e aceeaşi instrucţiune, ci dim ă. Spre exemplu, fetcher-ul pregăteşte instrucţiunea de desenare a unei ferestre

ct în locul a

cesor cu un număr imens de stagii al pipeline-ului, pr

e cu patru stagii avem patru operaţii ca. Şi nu trebuie înţeles faptul că fiecare pipeline este legat dpotriv, decoder-ul este ocupat cu decodificarea unei instrucţiuni de desenare a unui

caracter în acea fereastră, ALU-ul calculează poziţia icon-ului în interiorul ferestrei iar retire unit-ul returnează memoriei rezultatul copierii unor fişiere în background. Desigur, fiecare instrucţiune trebuie să treacă prin toate etapele pipeline-ului dar nu e necesar ca la un moment dat pipeline-ul să fie plin cu aceeaşi instrucţiune. În caz că nu există simultan mai multe instrucţiuni de prelucrat (situaţie practic imposibilă pentru că procesorul are permanent ceva de lucru), doar un singur stagiu al pipeline-ul va fi ocupat, ceea ce ne oferă o viteză identică cu cea observată în execuţia secvenţială.

Pipeline-ul a fost gândit tocmai pentru a oferi posibilitatea execuţiei simultane a mai multor instrucţiuni şi, în cazul ideal, performanţa este multiplicată de un număr de ori dat de lungimea pipeline-ului. Astfel, dacă procesorul are de executat 100 de operaţii, fiecare necesitând câte patru stagii, vor fi necesare doar 100 de cicluri de ta

400, pe fiecare ciclu fiind executate câte patru operaţii. Din păcate, situaţia ideală nu este întâlnită niciodată pentru că instrucţiunile depind unele de altele mai mult decât pare la prima vedere. Să presupunem că plecaţi de acasă cu maşina personală şi la jumătatea drumului vă daţi seama că nu mai aveţi benzină. Cum nu este nici o benzinărie prin zonă şi cum nimeni nu se oferă să vă tracteze, trebuie să aşteptaţi pe cineva să vă aducă benzina. Drept urmare, veţi aştepta câteva ore în trafic, incomodându-i pe ceilalţi şoferi, eventual vă veţi retrage la marginea drumului pentru a evita neplăcerile pricinuite. Şi cu cât drumul pe care îl aveţi de parcurs este mai lung, cu atât cresc şansele să rămâneţi fără combustibil. Acelaşi lucru se întâmplă şi cu o instrucţiune dacă ea nu poate fi executată decât după ce primeşte de la alta un rezultat: ea va rămâne blocată în pipeline până când primeşte unda verde sau va fi eliminată din pipeline, execuţia ei fiind amânată şi lăsând loc altor instrucţiuni care pot fi executate la acel moment. Este evident că şansele ca acest eveniment să aibă loc cresc odată cu creşterea numărului de stagii, tot mai multe instrucţiuni fiind „blocate în trafic”. Situaţia descrisă duce la apariţia timpilor morţi, în care procesorul nu se încălzeşte şi de care se poate profita, crescându-i-se frecvenţa.

Un procesor care îşi propune să atingă performanţa maximă la o frecvenţă dată va realiza un compromis între avantaje şi dezavantaje, fiind dotat cu un număr relativ redus de stagii. Dacă scopul este atingerea de frecvenţe mari, neţinându-se seama de performanţă, atunci se va realiza un pro

ocesor care să „zacă” nefolosit o bună parte din timp, ceea ce va duce la scăderea drastică a vitezei raportată la frecvenţă. Exact acest lucru a realizat Intel, care a crescut numărul de stagii odată cu apariţia primului Pentium 4 (Willamette): 20 faţă de 10 la Pentium III. Rezultatul a fost evident: cu toate îmbunătăţirile aduse de noua arhitectură (PSB 400 faţă de 133, SSE2 şi altele), un Pentium 4 la 1.5 GHz era depăşit deseori de un Pentium III la 1 GHz, semn că dezavantajul datorat pipeline-ului lung nu este compensat de frecvenţa ridicată. O situaţie similară o întâlnim şi la Prescott, al cărui număr de pipeline-uri a ajuns la 31 de stagii. Totodată, avem şi avantaje: un cache dublu, instrucţiuni SSE3, etc, elemente concepute să afecteze pozitiv viteza, dar pe alte căi. Totul pentru a se putea atinge frecvenţe mari, de ordinul a 4-5 GHz, frecvenţe irezistibile pentru orice cumpărător neavizat.

43

Page 46: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul Un procesor clasic execută fiecare instrucţiune în ordinea firească, aşteptând

terminarea fiecăreia până să treacă la execuţia celei următoare. Un procesor „inteligent” se bazează pe faptul că timpii morţi pot fi folosiţi pentru execuţia următoarei instrucţ

ţie (branch predictor), procesorul va executa, bazând rec te, ramura care are şansele cele mai mari să fie adevăra , fără a evalua condiţia x=y. Cu cât algoritmul predicţiei este mai bun, cu atât acurate

e data aceasta nu este vorba de ramuri cu instrucţ

umai după execuţia primei instrucţiuni va putea fi executată cea de-a doua ă execuţia primelor două va putea fi executată cea de-a treia. Ceea ce înseamnă că o singură unitate ALU din cele trei va fi folosită, procesorul rulând la o treime

iuni. Ce se întâmplă atunci când instrucţiunea curentă depinde de cea precedentă, fiind necesară obţinerea rezultatului de pe urma execuţiei acesteia? Un caz clasic este acela al unui bloc if-then-else din cadrul oricărui limbaj de programare. Pentru execuţia unei anumite ramuri trebuie executată instrucţiunea if, după care se ia o decizie: se merge pe ramura A sau B. Exemplu:

if x=y then { ramura A } else { ramura B } Cu ajutorul unităţii de predic

edenu-se pe „experienţele” ptăţea ei este mai mare iar cazurile în care este aleasă ramura greşită sunt mai rare.

(Nu trebuie înţeles faptul că, la alegerea ramurii greşite, rezultatul furnizat va fi incorect; situaţia doar va genera timpi suplimentari.) Pentru Prescott, Intel a îmbunătăţit predicţia, motivul fiind faptul că un pipeline mai lung avea nevoie stringentă de acest lucru. Modificările sunt minore dar importante şi de natură calitativă, nu cantitativă. Şi anume, nu a fost mărit Branch Target Buffer-ul (spaţiul de memorie din procesor destinat depozitării acţiunilor precedente, pe baza cărora algoritmul să prevadă acţiunile viitoare) ci algoritmul a fost optimizat.

O altă unitate a procesorului este scheduler-ul. Acesta, ca şi branch predictor-ul, este conceput pentru a creşte eficienţa CPU-ului, pentru a-l determina să lucreze la potenţialul maxim de care dispune. D

iuni ce vor fi probabil executate ci de unele care vor intra sigur în execuţie. Procesoarele moderne deţin mai multe unităţi independente care îndeplinesc aceeaşi sarcină (spre exemplu, toate modelele de Pentium 4 deţin trei unităţi de calcul cu numere întregi – ALU), însă fără acest scheduler (to schedule = a programa, cu sensul de a stabili ceva la un anumit moment), nu ar fi activă decât o singură unitate la un moment dat. Să presupunem că avem de efectuat trei adunări, toate urmând a fi executate de câte o unitate ALU. Dar ce ne facem când instrucţiunile depind una de alta, precum se poate vedea în exemplul următor:

1. a = 1 + 2 2. b = a + 4 3. c = b – a Este clar că nşi numai dup

din potenţial. Aici intervine scheduler-ul, care programează execuţia altor instrucţiuni, nelegate de cele de mai sus, dând astfel câte o sarcină fiecărei unităţi ALU. Prescott a necesitat modificări şi în această privinţă, pentru a compensa creşterea numărului de stagii al pipeline-ului. Cum arhitectura curentă nu permite o modificare puternică a acestei unităţi, schimbările au fost minore.

44

Page 47: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 3: Evaluarea performanţelor procesoarelor 3.1.5. Calculul matematic

Numărul de unităţi a rămas acelaşi ca la precedentele modele de P4. Segmentul ALU (Arithmetic and Logic Unit), cel care se ocupă cu calcule legate de numere întregi, a rămas divizat în trei segmente care pot prelucra datele şi instrucţiunile independent, conform celor descrise în paragraful anterior. Două dintre ele lucrează la o viteză dublă faţă de restul unităţilor (sunt double pumped), de aceea operaţiile se execută foarte rapid. Odată cu Prescott, Intel a încercat să elibereze al treilea ALU (cel lent) de sarcinile pe care oricum le îndeplinea cu greutate, oferind unităţilor ALU double pumped mai multe sarcini. Astfel, operaţiile de tip shift şi rotate erau executate de ALU-ul lent, acum ele au fost preluate de celelalte două mai rapide.

Un exemplu practic de îmbunătăţire este acela în care sunt aplicate unui număr binar operaţii de multiplicare cu 2 (10 binar), caz tipic de shift în care este suficientă deplasarea cu câte un pas a fiecărui bit. De asemenea, înmulţirile sunt acum realizate de unitatea FPU (Floating Point Unit), care chiar dacă teoretic este mai lentă decât ALU-ul, este specializată în astfel de operaţii şi poate furniza rezultatele mai rapid.

3.1.6. Tensiunile Se ştie că prin creşterea „fineţii” tehnologiei se pot obţine, pe de o parte

temperaturi de rulare mai scăzute şi, pe de altă parte, frecvenţe mai mari de funcţionare. Să ne amintim de P4 Willamette (0.18 microni) care se oprea fără drept de apel la 2 GHz pe când Northwood (0.13 microni) a atins 3.4 GHz. Mai mult, necesarul de tensiune de funcţionare scade, de la 1.75V pentru Willamette s-a ajuns la 1.5V pentru Northwood, iar Prescott coboară până la 1.287V. Pe de altă parte, arhitectura internă influenţează puternic factorii putere disipată şi temperatură de funcţionare, deci ar fi greşit să afirmăm că, indiferent de alte considerente, un CPU construit pe baza unei tehnologii mai „fine” şi rulând la un voltaj mai mic va fi mai rece. Ca să nu o mai lungim, Prescott este un procesor mai fierbinte decât se dorea a fi, care consumă mult. La 3.4 GHz, un Northwood disipă 89W faţă de 103W în cazul lui Prescott. Chiar dacă acesta din urmă este special conceput pentru frecvenţe mari, este nevoie de măsuri speciale de precauţie: în primul rând, datorită consumului excesiv, plăcile de bază trebuie să suporte acest consum, în al doilea rând sistemul de răcire trebuie să fie foarte bine pus la punct.

În fine, Prescott este compatibil cu standardul VRM 10.0 (VRM = Voltage Regulator Module), ceea ce îi conferă câteva avantaje, printre care posibilitatea selectării tensiunii în paşi mai mici (0.0125V faţă de 0.025V la predecesori) şi Dynamic VID, adică posibilitatea ca procesorul să-şi schimbe tensiunea „on the fly”, nu doar din BIOS, cu utilitate evidentă în cazul sistemelor mobile. Dezavantajul: toate plăcile de bază trebuie să suporte acest standard, deci plăcile vechi nu au nici o şansă să lucreze cu Prescott.

3.1.7. Ambalarea Deşi nu are legătură cu arhitectura lui Prescott, menţionăm că Intel a introdus un

nou mod de a „împacheta” procesorul, denumit LGA775, socket-ul purtând denumirea de Socket T. În trecut, modul µPGA a dominat modelele acestei companii, reprezentat

45

Page 48: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul de Socket 478. Principiul, folosit la toate procesoarele de la 80386 până în prezent, era clar: spatele chip-ului cuprindea un număr mare de pini care erau inseraţi într-un socket, realizându-se astfel contactul. Noul mod de împachetare LGA (Land Grid Array) elimină aceşti pini (cel puţin partea vizibilă a acestora), contactul realizându-se prin alăturarea directă a procesorului de socket. Astfel, îndoirea sau ruperea pinilor nu mai poate avea loc, în schimb socket-ul poate fi deteriorat destul de uşor prin montarea repetată a procesoarelor. Odată cu apariţia acestui mod de împachetare, Intel a schimbat şi modul de a marca produsele sale. Dacă concurentul său, AMD, foloseşte de multă vreme altă unitate de măsură (rating-ul) pentru a caracteriza procesoarele, Intel a utilizat până acum modul consacrat, şi anume specificarea frecvenţei de funcţionare.

Recent, această politică a fost schimbată, locul frecvenţei fiind luat de un număr; de exemplu, Pentium 4 550 desemnează un P4 ce rulează la 3.40 GHz. Modelele cu sufixul J (de exemplu 550J) beneficiază de tehnologia antivirus XD (eXecute Disable), cunoscută şi ca EDB (Execute Disable Bit) sau NX (No eXecute), care asigură o minimă protecţie împotriva celor mai uzuali viruşi. Practic, sistemul de operare (Windows XP SP2, de exemplu) se foloseşte de această funcţie a procesorului pentru a marca diferite segmente de memorie ca fiind neexecutabile. Astfel, doar codurile marcate în mod explicit ca executabile pot fi rulate, viruşii bazându-se, în general, tocmai pe această slăbiciune a sistemului, de a putea rula orice cod din orice zonă de memorie. Tehnologia a fost până acum implementată de Intel doar în modelele pe 64 de biţi (Itanium), iar AMD a fost mai „sprinten”, fiind prima companie care a introdus într-un procesor de larg consum această tehnică.

3.1.8. Versiuni de Prescott-uri Există până în prezent câteva revizii ale lui Prescott, denumite stepping-uri,

diferenţele dintre acestea fiind minore sub aspectul funcţionalităţii şi inexistente când vine vorba de performanţe. Prima revizie (uzuală - deoarece au existat şi reviziile A0 şi B0 dar informaţiile despre acestea sunt practic inexistente), C0, suferea de boli ale copilăriei, procesoarele ce purtau acest însemn fiind extrem de fierbinţi şi producând diverse neplăceri. Astfel, cei care doreau să atingă maximul de performanţă prin overclocking erau dezamăgiţi, noul P4 neputând face faţă temperaturilor mari. Mai mult, plăcile de bază cu regulatoare de tensiune mai slabe nu făceau faţă curenţilor mari, consumul de putere putând depăşi 100W, stresând în acelaşi timp şi sursa sistemului. De asemenea, o mai mare atenţie trebuia acordată fluxului de aer din carcasă, procesorul fiind acum o sursă enormă de căldură, putând afecta buna funcţionare a sa şi a componentelor din jurul său dacă nu erau luate măsuri de precauţie. Tocmai de aceea, Intel a specificat în mod expres temperatura maximă ambiantă la care procesoarele sale pot lucra: 38 de grade. Intel a remediat problema şi a introdus a doua revizie, denumită D0, îmbunătăţind eficienţa funcţionării tranzistorilor care, odată cu trecerea la o tehnologie de fabricaţie tot mai mică, generau „pierderi de putere” (power leakage).

Cea mai nouă revizie, numită (cum altfel?) E0, îmbunătăţeşte şi mai mult caracteristicile termice ale procesoarelor însă de data aceasta sporul este minor. Aspectele mai importante ale lui E0 constau în primul rând în adăugarea de facilităţi suplimentare, cum ar fi Execute disable sau XD - tehnologia antivirus de care vorbeam mai devreme, Enhanced Halt State - facilitate care permite ajustarea tensiunii de

46

Page 49: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 3: Evaluarea performanţelor procesoarelor alimentare a procesorului în mod dinamic, scăzând-o în momentul în care nu este nevoie de putere de procesare, fapt ce conduce la un consum de putere şi căldură degajată mai scăzute şi Thermal Monitor 2 - funcţie prin care se poate ajusta frecvenţa procesorului în cazul în care temperatura sa depăşeşte pragul maxim admis – aceasta spre deosebire de senzorul termic iniţial, care „punea procesorul pe tuşă” în totalitate ori de câte ori temperatura depăşea limita.

Pe lângă toate acestea, în aceeaşi perioadă cu introducerea noii revizii, Intel a adăugat în procesoarele sale suport pentru EM64T (Extended Memory 64-bit Technology), motiv pentru care majoritatea chip-urilor E0 deţin EM64T. Aceasta din urmă reprezintă răspunsul lui Intel la tehnologia AMD64 care deja începuse să „prindă” pe piaţă server-elor, ce oferea în plus regiştri şi mod de adresare pe 64 de biţi. Această arhitectură este compatibilă cu cea AMD64 şi incompatibilă cu cea pe care Intel a promovat-o mult timp prin seria de procesoare Itanium, IA64. Practic, EM64T este o extensie a setului IA32, toate procesoarele compatibile EM64T putând rula fără probleme aplicaţii IA32, pe când procesoarele Itanium rulează extrem de lent codul pe 32 de biţi deoarece IA64 reprezintă o arhitectură complet nouă. Intel a ţinut mult timp secret acest „supliment”, aproape sigur prezent dar dezactivat încă de la prima revizie a lui Prescott, motivul principal fiind promovarea de către al său concurent a aceleiaşi tehnologii, iar setul de instrucţiuni „made in Santa Clara” se numea, de câţiva ani, IA64. Pe când EM64T nu este decât o copie a instrucţiunilor dezvoltate de texani, fiind pentru prima dată când gigantul californian a realizat o clonă a unei tehnologii AMD.

Ne putem pune întrebarea de ce Intel a implementat în procesoarele sale această tehnologie care nu-i aparţine, istoria spunând că tendinţa este inversă, AMD copiind sau urmând să copieze fiecare set de instrucţiuni Intel, începând cu MMX şi terminând cu SSE3. Răspunsul este legat de software-ul conceput pentru AMD64, ce a devenit din ce în ce mai răspândit, existând versiuni ale sistemelor de operare destinate acestei arhitecturi atât de Windows XP şi 2003 Server cât şi de Linux (în diverse distribuţii, precum Red Hat, SuSE, Fedora Core, Gentoo, Mandrake etc).

3.1.9. Alte procesoare din familia P4 Celeron este numele comercial al unui procesor în

mare parte identic cu versiunea „de prim rang” dar care suferă de anumite limitări. Scopul este evident: costuri mai scăzute, deci acoperirea unei categorii din piaţă dornică de un preţ foarte mic, pentru care performanţele contează mai puţin.

Primul Celeron a apărut la începutul anului 1998, fiind o variantă de Pentium II cu performanţe ceva mai mici. Nu vom insista asupra acestei perioade ci vom menţiona că Celeron a fost omniprezent pe piaţă de atunci şi până în prezent. Deşi arhitectura sa a suferit schimbări majore, fiecare model de Celeron a avut la bază nucleul fratelui mai mare. În privinţa versiunii care „se trage” din Pentium 4, limitarea a fost legată de trei aspecte: în primul rând, cache-ul L2 a fost redus la 128 KB (faţă de 256 KB pentru P4 Willamette şi 512 KB pentru P4 Northwood), acest lucru afectând puternic performanţele. Chiar dacă diferenţa nu pare colosală, trebuie ţinut cont că prima parte a acestui cache afectează cel mai mult viteza de lucru; astfel, creşterea de la 256 la 512 KB contează mult mai puţin decât creşterea de la 128 la 256 KB. Al doilea factor este frecvenţa PSB. Primele versiuni de P4 (Willamette) rulau cu acest bus la 400 MHz iar a doua versiune, P4 Northwood, l-a crescut la 533 şi apoi la 800 MHz. Însă Celeron a rămas la 400 MHz, ceea ce reprezintă a doua limitare, totuşi

47

Page 50: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul nu atât de drastică în comparaţie cu cea descrisă anterior. Al treilea factor, şi puţin important, este absenţa funcţiei HyperThreading.

Celeron a existat atât în versiune cu nucleu Willamette cât şi Northwood. Specificaţiile sale fiind similare (afară de tehnologia folosită – 0.18 şi respectiv 0.13 microni), performanţele au fost identice la frecvenţă identică, adică relativ slabe în comparaţie cu Pentium 4 sau chiar cu versiunea low-end de la AMD, şi anume Duron. Astfel, Celeron a căpătat o reputaţie negativă, fiind recomandat doar utilizatorilor care doresc neapărat un procesor Intel dar dispun de fonduri limitate.

Celeron D este numele noului Celeron, având la bază nucleul Prescott. Aceasta înseamnă că toate aspectele enunţate mai devreme care privesc Pentium 4 Prescott, îl privesc şi pe Celeron D. Diferenţele faţă de acesta constau, în principal, în absenţa a trei sferturi din cache-ul L2, dimensiunea sa fiind de 256 KB, dublu faţă de Celeron-ul vechi. În plus, PSB-ul a fost limitat la 533 MHz (faţă de majoritatea P4 Prescott-urilor care lucrează la 800 MHz), dar cu 33% mai mult decât la Celeron. Drept urmare, performanţele sporite faţă de varianta veche transformă acest Celeron D într-un procesor cât se poate de decent pentru orice aplicaţie.

Pentium 4 Extreme Edition şi-a făcut apariţia datorită nevoii lui Intel de a concura (a se înţelege cel puţin a egala, de preferinţă a depăşi) cel mai rapid procesor de la AMD, şi anume Athlon 64 FX-51. Acesta dispunea de avantaje minore dar observabile în cifre în cadrul diverselor teste realizate de reviste şi site-uri. Şi aici un avantaj de 2-3%, deşi nesemnificativ în realitate, poate decide succesul sau insuccesul unui produs. Aşadar, Intel a introdus un model de Pentium 4 cu un al treilea nivel de cache, acesta având o dimensiune de 2 MB. Desigur, acest L3 a contat extrem de puţin în materie de performanţă dar a făcut diferenţa; preţul, în schimb, a fost stabilit la nişte valori exorbitante, de unde şi succesul foarte redus al acestui model. Arhitectura lui P4-EE a fost preluată de la Gallatin, un Northwood uşor modificat. În plus, a fost introdusă şi o versiune cu un PSB de 1066 MHz, ea reprezentând la data lansării singurul model de Pentium 4 care rula la această frecvenţă de bus.

3.1.10. Concluzii Pentru cei care nu au avut răbdare să ne urmărească până aici,

vom recapitula noutăţile aduse de Prescott: • tehnologie de 0.09 microni (90 nm) Strained Silicon; • pipeline crescut cu circa 50%, ceea ce determină o scădere masivă de

performanţe dar şi un potenţial crescut privind frecvenţa de funcţionare; • cache pe de o parte îmbunătăţit, prin dublarea secţiunii de date a nivelului 1 şi în

totalitate a nivelului 2 şi prin creşterea eficienţei sale, pe de altă parte suferind de handicapul creşterii latenţei;

• branch predictor-ul şi scheduler-ul îmbunătăţite, rezultând o predicţie şi o execuţie a instrucţiunilor mai eficientă; totuşi este vorba de optimizări strict necesare unui pipeline atât de lung;

• optimizarea execuţiei anumitor operaţii, precum înmulţirile; • 13 instrucţiuni noi, cuprinse în setul SSE3, care pot aduce avantaje minore în

anumite aplicaţii, cu sprijinul acestora; • tehnologiile antivirus XD şi EM64T, implementate doar în ultimele modele.

48

Page 51: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 3: Evaluarea performanţelor procesoarelor 3.1.11. Anexă: Chipset-uri pentru Pentium 4

Nu putem spune că există anumite chipset-uri specifice lui Prescott pentru că orice chipset uzual lucrează fără probleme cu noul P4 şi totodată toate chipset-urile nou-apărute, lansate în preajma apariţiei lui Prescott lucrează fără probleme cu procesoarele mai vechi. Singura condiţie este ca chipset-ul să deţină suport pentru un PSB cel puţin egal cu cel al procesorului. Astfel, un P4 la 2.4 GHz cu FSB 800 nu poate fi montat pe o placă de bază cu chipset Intel 845PE, care nu suportă (cel puţin oficial) această frecvenţă de bus. Anumiţi producători au depăşit specificaţiile chipset-ului, garantând funcţionarea plăcilor lor la un PSB superior celui suportat de chipset. Însă, vorbind din punctul de vedere al chipset-ului, doar Intel 848P, 865 (în versiunile PE, G şi GV), 875P, 910GL, 915 (P, G, GV) şi 925 (X şi XE) suportă acest PSB (să ne reamintim faptul că majoritatea modelelor de Prescott rulează la un PSB de 800). În plus, Intel 925XE suportă suplimentar şi PSB-ul de 1066 MHz de care dispune modelul de Pentium 4 Extreme Edition la 3.46 GHz.

Putem observa mai sus două generaţii de chipset-uri: 8xx şi 9xx. Primele, apărute în prima parte a anului 2003, erau adaptate la procesoarele acelei perioade, oferind dotări precum AGP 8x şi USB 2.0, dual-channel DDR, uneori RAID şi Serial ATA, dotări demne de a fi menţionate, la acea vreme, pe ambalajul oricărui produs. Următoarea generaţie, în special familiile 915 şi 925 au oferit facilităţi noi, precum PCI Express, DDR2, facilităţi utile anilor 2004 şi mai ales 2005.

3.2. Arhitectura procesoarelor AMD64

3.3. Trecut şi prezent Competiţia procesoarelor din urmă cu câţiva ani era mult diferită faţă de cea

actuală. Revistele de specialitate abundau de materiale care prezentau pe câteva pagini cum noile (pe vremea aceea) AMD K6 şi Cyrix 6x86 „zdrobeau” (pe ici pe colo doar în punctele esenţiale) performanţa Pentium-urilor, criteriul de stabilire afiind doar frecvenţa acestuia.

l performanţei

Situaţia s-a schimbat în timp, viteza brută a procesorului pierzând mult din importanţă. Dacă acum cinci ani vedeam încărcarea Windows-ului de două ori mai rapidă pe un procesor la 500 MHz decât pe unul la 200MHz, odată cu atingerea barierei de 1GHz, procesorul a încetat să mai reprezinte punctul de atracţie. Aceasta pentru limitarea în privinţa jocurilor, cele mai avide de performanţă, a început să fie dată de placa grafică. Astăzi degeaba „ne scăldam” cu 3.8 GHz dacă rulăm Half Life 2 pe un Radeon 9200 pe 64 de biţi.

Procesorul a rămas important doar pentru cârcotaşi, fani Intel sau AMD, care susţin cu tărie ori că produsele de la Intel sunt mult superioare celor AMD (şi acest "mult" este nelipsit), ori invers. Tocmai pentru această categorie se duce bătălia între cele două companii, cel puţin cea vizibilă prin marketing, ele făcând tot posibilul pentru a-şi satisface fanii. Fiecare schimbare de arhitectură, micşorare de proces de fabricaţie, adăugare de cache, noi nume de căi, creştere în frecvenţă, trebuie anunţată cu surle şi trâmbiţe de-o parte şi de alta. Dar din ce în ce mai puţini cumpără procesoare de dragul tehnologiilor, nimic nu mai este ca înainte. Trebuia să se întâmple ceva...

49

Page 52: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul Şi s-a întâmplat! AMD a amanetat herghelia1 pe o tehnologie nouă, pe 64 de biţi.

Iniţial, deşi departamentul de marketing a lucrat serios la imaginea noii progenituri, nimeni nu a zis nimic. Revistele şi site-urile de profil au publicat ştirile corespunzătoare şi... atât. Aceasta pentru că Opteron, căci acesta este numele său, era creat pentru un domeniu destul de ciudat al computerelor: server-ele de mare performanţă. Abia la aproape un an distanţă au ieşit la lumină nişte procesoare utilizabile de către oamenii obişnuiţi: Athlon 64, Athlon 64 FX şi, mai târziu, Sempron.

Nucleul s-a numit K8 (în contrast evident cu precedentele K6 şi K7 - Athlon). Numele de cod au purtat denumirea generală Hammer, versiunile iniţiale fiind Sledgehammer (Opteron) şi Clawhammer (Athlon 64). După nume (K8), ne putem da seama că AMD a întors foaia şi vrea să ne răsfeţe cu ceva complet nou. Să vedem prin ce se diferenţiază de arhitectura K7.

Este discutabil care dintre instrucţiunile pe 64 de biţi şi integrarea controller-ului de memorie este mai importantă. Dacă primul aspect este legat în viitor, extinderea setului IA32 la cel denumit acum AMD64 ducând la crearea unui potenţial suplimentar de performanţă şi nimic mai mult, controller-ul de memorie (până acum prezent în northbridge-ul plăcii de bază) scapă sistemul de o gâtuire extrem de deranjantă. În rest, modificările sunt minore, implementarea instrucţiunilor SSE2 sau creşterea uşoară a numărului de stagii ale pipeline-ului sunt schimbări fireşti pentru care nu s-a făcut prea mare tam-tam.

3.3.1. Cei 64 de biţii Să începem cu începutul. Am spus

mai devreme că cei 64 de biţi nu afectează în mod esenţial performanţa. Cel puţin nu în acest moment. Pentru a justifica afirmaţia, vom face o călătorie în istorie, mai exact în 1985, când Intel lansa primul procesor pe 32 de biţi, 80386. El era dotat cu un set nou de instrucţiuni, capabil să acceseze până la 4 GB de memorie (faţă de cei 16 MB ai celor pe 16 biţi) şi să ofere performanţe de invidiat dacă era folosit la potenţialul său maxim. Soft-urile uzuale pe 32 de biţi au început să răsară abia la începutul anilor ’90, iar prima tentativă de sistem de operare pe 32 de biţi a fost Windows 95, un adevărat talmeş-balmeş de cod pe 16- şi 32-bit. Windows NT exista de ceva vreme pe piaţă dar el era adresat celor care azi folosesc procesoare Opteron, aşa că nu poate intra în discuţie. Abia Windows 2000 şi mai ales Windows XP, ce sunt programate complet pe 32 de biţi, au devenit sisteme de operare uzuale, la nu mai puţin de 15 ani de la lansarea primului procesor capabil (teoretic, nu şi din punct de vedere al vitezei) să le utilizeze.

Nu este deplasat să anticipăm un fenomen asemănător cu privire la instrucţiunile pe 64 de biţi. Ele sunt prezente de ceva timp - dar sub o cu totul altă formă - în procesoarele Intel Itanium, destinate server-elor; ele, spre deosebire de cele AMD64, nu lucrează nativ cu cod IA32.

Există totuşi o veste bună: deja o serie de sisteme de operare utilizează la maxim noile procesoare AMD, precum Windows XP x64 Edition sau o serie de distribuţii de Linux. Mai mult, şi Intel a adoptat recent aceste instrucţiuni, denumind setul EM64T.

1 http://www.xf.ro/content-62-page1.html

50

Page 53: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 3: Evaluarea performanţelor procesoarelor Nu trebuie însă să ne bucurăm prea mult pentru că schimbarea nu poate avea loc de la o zi la alta şi va trece mult timp până ce vom vorbi de aceste sisteme de operare la fel cum vorbim azi de cele pe 32 de biţi care sunt prezente în marea majoritatea sistemelor de calcul moderne. Cei 64 de biţi au reprezentat în primul rând un instrument de marketing pentru AMD, nicidecum o necesitate a momentului.

Trebuie să privim instrucţiunile AMD64 ca pe o extensie la setul IA32, nu ca pe un înlocuitor. Procesorul este capabil să comute între legacy mode şi long mode în funcţie de necesităţi, la fel cum 80386 putea comuta între modul real şi cel protejat. Practic, este vorba de nişte regiştri suplimentari incluşi în nucleul procesorului, care pot efectua operaţii cu numere pe 64 de biţi (până la 2 la puterea 64). Astfel, pot fi prelucrate simultan de două ori mai multe date, traficul dintre procesor şi celelalte componente desfăşurându-se mult mai fluent. (Observaţie: tehnic vorbind, programatorul are la dispoziţie 5 moduri: legacy 16-bit mode, legacy 32-bit mode, compatibility 16-bit mode, compatibility 32-bit mode şi 64-bit long mode, însă descrierea lor în detaliu nu face subiectul cursului de faţă.).

De asemenea, dublarea numărului de regiştri şi practic triplarea spaţiului de memorare a acestora (măsurabil în biţi – 3072 faţă de 1280) conduce la posibilitatea menţinerii de date în procesor pentru mai mult timp, fiind mai rar necesară schimbul cu memoria principală.

De remarcat următorul fapt: K8 nu va rula mai rapid (dar nici mai lent) decât K7 codul pe 32 de biţi sau, dacă performanţele vor diferi, ele se vor datora altor motive decât prezenţa noului set de instrucţiuni. În legacy mode, K8 este transformat într-un procesor normal, capabil să execute instrucţiunile precum orice procesor pe 32 de biţi.

Să luăm un exemplu: algoritmii de criptare. Unii necesită operaţii cu numere pe 64 de biţi. Folosind o maşină 32-bit, este imposibilă obţinerea directă a unui rezultat, singura metodă de calcul fiind crearea unui algoritm care să realizeze acest lucru, similar celui aplicat de om pentru orice adunare sau înmulţire. (vă mai aduceţi aminte de „75-18; le punem unul sub altul; 5-8 nu se poate, împrumutăm o zece; 15-8=7; la cifra zecilor ne mai rămâne 6; 6-1=5, deci rezultatul e 57” ?). Orice procesor pe 64 de biţi poate realiza „dintr-un foc” operaţia, economisindu-se mult timp.

Memoria maximă adresabilă a crescut şi ea de la 64 GB la procesoarele IA32 cu PAE (Physical Addressing Extensions) activat la 1 TB. E drept, e puţin probabil ca acum un server să necesite atât de multă memorie, dar cei 64 GB precedenţi se aflau în mod sigur la limită.

3.3.2. Memoria gestionată direct din procesor O altă noutate adusă de generaţia K8 este faptul că de

acum nu chipset-ul va mai fi răspunzător de memorie ci însuşi procesorul. Memoria, ca orice entitate din interiorul sistemului de calcul, trebuie să fie gestionată de un controller care să realizeze comunicarea dintre aceasta şi elementul central, procesorul. Până acum, northbridge-ul integra acest controller însă, din raţiuni de viteză, procesorul a preluat sarcina.

Comunicarea dintre memorie şi procesor se realiza prin bus-ul denumit până acum PSB sau (incorect dar încetăţenit) FSB, ce reprezenta una dintre gâtuirile principale de care sufereau procesoarele rapide. Totuşi, să nu ne bucurăm prea mult de noua reuşită a celor AMD şi să prezentăm şi dezavantajele. De fapt dezavantajul: cel care decide ce tip de memorie poate fi folosită în sistem este procesorul. Dacă el deţine un controller DDR SDRAM, atunci va fi imposibilă „asortarea” lui cu una de tip DDR2

51

Page 54: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul sau RDRAM, de exemplu. Astfel, upgrade-ul este mai problematic, de schimbarea procesorului depinzând schimbarea memoriei şi invers.

Lăţimea bus-ului dintre procesor şi controller-ul de memorie a rămas aceeaşi ca la vechile sisteme: 64 sau 128 de biţi, în funcţie de tipul controller-ului integrat: single- sau dual-channel. Frecvenţa însă a crescut la valori impresionante, ea fiind acum egală cu frecvenţa procesorului. Să luăm ca exemplu trei procesoare: unul K8, unul K7 şi altul Pentium 4 ce rulează la 2.4 GHz, ultimele două având un PSB de 200 MHz reali. Arhitectura K7 beneficiază de bus-ul EV6, ce dublează frecvenţa, PSB-ul efectiv fiind de 400 MHz. În cazul lui P4, situaţia este mai fericită, bus-ul Quad Pumped ridicând această frecvenţă la 800 MHz efectivi. K8 se va situa mult deasupra ambilor concurenţi, bus-ul dintre procesor şi controller-ul de memorie rulând la 2400 MHz, depăşind de 6 şi respectiv 3 ori arhitecturile celorlalte două CPU-uri.

Comunicarea dintre controller şi memorie se desfăşoară la aceeaşi viteză, şi anume la frecvenţa memoriei, şi pe 64 sau 128 de biţi, în funcţie de numărul de canale.

Există un aspect ciudat dar foarte important pentru cei interesaţi de overclocking (dar nu numai) care trebuie explicat în acest context. În sistemele obişnuite, memoria rulează la o frecvenţă egală cu frecvenţa PSB înmulţită cu un raport fix de numere mici. De exemplu, pe o platformă K7 cu un chipset nForce2, dacă avem un PSB de 400 MHz, memoria va rula, spre exemplu, la 1:2, 5:12 sau 2:6 din această frecvenţă, adică 200, 166 şi respectiv 133 MHz teoretici (sau 1:1, 5:6 sau 2:3 în cazul în care considerăm frecvenţele efective, de 400, 333 şi 266 MHz). Motiv: controller-ul de memorie trebuie să lucreze în strânsă legătură cu PSB-ul, la fiecare n biţi primiţi de la memorie trebuind să transmită m biţi către procesor, şi invers – unde n şi m sunt direct proporţionali cu frecvenţa memoriei, respectiv a bus-ului PSB.

Ce ne facem când controller-ul este integrat în procesor? El va primi de la acesta n biţi şi va transmite mai departe m, însă raportul trebuie să fie unul de numere mici. Raţiuni tehnice împiedică rapoarte gen 2:29, cum ar fi necesar dacă procesorul ar rula la 2900 MHz iar memoria în DDR400. Astfel, s-au ales nişte divizori întregi, frecvenţa memoriei fiind 1:15, cea mai apropiată valoare de 2:29 (adică 1:14.5) inferioară acesteia. De ce inferioară? Pentru că nu se poate permite memoriei să ruleze la o frecvenţă superioară celei dorite, din motive evidente. Astfel, în exemplul nostru, memoria va rula la doar 193.33 MHz în loc de cei 200 solicitaţi.

3.3.3. HyperTransport Comunicarea dintre procesor şi chipset se realizează prin bus-ul HyperTransport

(pe care îl vom numi în continuare HT), numit iniţial LDT (Lightning Data Transport). Bus-ul nu este conceput special pentru această platformă, el fiind unul universal, ce serveşte, de exemplu, şi la comunicarea dintre southbridge-ul şi northbridge-ul chipset-ului nForce2 (deci în cadrul platformei K7!). În cazul nostru, bus-ul este o componentă a PSB-ului, dar cea care afectează cel mai puţin performanţa şi care depinde exclusiv de chipset. De aceea, deşi există o „bătălie pe viaţă şi pe moarte” privind „cine scoate cel mai rapid HyperTransport”, trebuie ştiut că acest lucru nu afectează aproape deloc viteza de lucru. Deşi el este conceput pe doar 32 de biţi (16 biţi pentru transmisie, 16 pentru recepţie – cazul cel mai frecvent) la o frecvenţă de tipul 800 sau 1000 MHz, e suficient să ne gândim că lăţimea de bandă obţinută este de 800 MHz x (32/8) bytes = 3.2 GB/s, adică puţin peste valoarea lui AGP 8x dar sub cea oferită de PCI Express X16. Un HT de 1 GHz (prin cei 4 GB/s) se apropie de cei 4.3 GB/s ai lui PEG x16. Ceea ce înseamnă că nu vom putea folosi la întreaga capacitate o placă grafică PCI

52

Page 55: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 3: Evaluarea performanţelor procesoarelor Express. Reprezintă acest lucru un dezavantaj? Cu siguranţă nu, jocurile de azi nefiind limitate aproape deloc de o lăţime de bandă echivalentă cu AGP 4x (circa 1 GB/s).

Bus-ul HT realizează legătura şi cu celelalte componente, de exemplu controller-ul IDE, cel USB 2.0 sau chiar cel SCSI. Nu putem nega dezavantajul ce rezultă de pe urma folosirii acestui bus, dar el este extrem de mic, lucru reflectat de un test ce poate fi realizat de către oricine: cele mai multe plăci de bază permit ajustarea frecvenţei HT şi un scurt 3DMark rulat la mai multe frecvenţe ne poate lămuri că diferenţele sunt infime.

Revenind la controller-ul de memorie, trebuie spus că sistemele obişnuite nu

sunt afectate foarte mult de prezenţa acestuia în procesor: latenţele reduse nu au crescut niciodată la valori impresionante performanţele. Sporul adevărat apare în sistemele multiprocesor unde, spre deosebire de alte platforme, lăţimea de bandă dintre procesor şi controller-ul de memorie nu este împărţită în mod egal între procesoare. Fiecare procesor are acum maxim trei legături (Hyper Transport Links): una prin care este legat de chipset (prezent şi la sistemele cu un singur procesor) şi altele două prin care putea „lua legătura” cu alte două procesoare. Iată, de exemplu, schema de interconectare între 8 procesoare, figura 3.1:

În plus, interconectarea dintre

procesoare este supusă specificaţiilor NUMA (Non-Uniform Memory Access) prin care se asigură posibilitatea oricărui procesor de a accesa orice zonă de memorie, spre deosebire de tehnica shared, unde fiecare procesor avea alocată o zonă specifică de memorie, neputând adresa una ce aparţinea altui CPU.

3.3.4. Cache-ul La AMD64, această memorie

intermediară este stratificată pe două nivele integrate în CPU, ca la orice procesor modern. Relaţia dintre ele este exclusivă, ca şi la generaţia anterioară, ceea ce înseamnă că nivelul al doilea de cache nu include şi o imagine a celui dintâi (în contras4). Astfel, eficienţa nivelului doi este mai redintre L1 şi L2.

Viteza comunicării dintre cele două niun plus de performanţă faţă de arhitectura Knumărului de intrări în TLB (Translation Locache. Desigur, trebuie să explicăm ce este ace

Gestionarea memoriei de către procesreală şi adresare virtuală. Uneori este mai ulocaţie decât la mod absolut, adică precizând dpunctul zero. TLB este o mică zonă de memo

53

Fig. 3.1: Schema de interconectare între 8 procesoare.

t cu relaţia inclusivă întâlnită la Pentium dusă datorită unui transfer mai frecvent

vele a fost dublată, de aici rezultând încă 7. Tot legat de cache, notăm o creştere a okaside Buffer) pentru ambele nivele de st TLB.

or este realizată în două moduri: adresare til ca adresarea să se facă relativ la altă istanţa de la altă adresă şi nu pe cea de la rie integrată în nucleul procesorului care

Page 56: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul face legătura dintre cele două tipuri de adresare (cu ajutorul ei se poate transforma o adresă virtuală într-una reală şi invers).

Dimensiunea cache-ului a suferit şi ea modificări. Dacă primul nivel a rămas la 128 KB, nivelul al doilea a fost crescut la 512 KB sau 1 MB, în funcţie de modelul procesorului. Se spune că creşterea de la 256 KB la 1 MB afectează cu 15% performanţa, deşi această cifră poate părea unora destul de optimistă, aceasta datorită eficienţei mai scăzute a nivelului doi comparativ cu Pentium 4.

Cât despre latenţa cache-ului, pentru nivelul unu ea a rămas aceeaşi, dar pentru cel de-al doilea a fost micşorată. Situaţia e foarte interesantă, Prescott are pipeline şi latenţe crescute faţă de predecesor pentru a-şi putea creşte frecvenţa, pe când K8 are aproape acelaşi pipeline iar latenţa a scăzut, ceea ce poate constitui o barieră în goana după gigahertzi. Desigur, AMD ştie mai bine ce face...

3.3.5. Conductele şi predicţia La procesoarele AMD, pipeline-ul este împărţit în două segmente: unul pentru

ALU şi unul destinat FPU-ului. Există un segment comun, de 6 stagii, care nu a fost afectat de nici o schimbare în cazul lui K8, el cuprinzând fetch (preluarea instrucţiunii) şi decode (decodificarea acesteia). Prelucrarea efectivă este realizată în alte stagii, la K7 în număr de 4 (pentru ALU) şi respectiv 9 (pentru FPU). La K8, aceste ultime stagii au fost crescute cu câte 2, numărul total devenind 12 faţă de 10 (pentru ALU) şi 17 faţă de 15 (pentru FPU).

După cum spuneam şi în subcapitolul anterior, dedicat lui Prescott, un pipeline prea lung afectează negativ performanţa dar creşte posibilitatea atingerii de frecvenţe mari. De asemenea, nu este de dorit nici un pipeline foarte scurt pentru că astfel nu mai poate fi executat în paralel un număr prea mare de instrucţiuni. AMD a crescut cu 2 numărul de stagii din cauza reproiectării blocului de predicţie (branch predictor), anticiparea instrucţiunilor devenind acum cu 5÷10% mai precisă, precum şi datorită îmbunătăţirii spaţiului din scheduler destinat unităţii ALU. De ce creşterea pipeline-ului a fost datorată îmbunătăţirii celor două unităţi? Cu cât „prezicătorul” este mai eficient, cu atât există şanse mai mici ca ramura curentă de execuţie să fie incorectă, urmând golirea pipeline-ului. De aceea, AMD a considerat că pipeline-ul poate fi crescut, şansele de alegere greşită a ramurii fiind suficient de reduse astfel încât creşterea lungimii sale să fie considerată un avantaj.

Acelaşi lucru se poate spune şi despre scheduler, care trimite către fiecare unitate de prelucrare instrucţiunile cuvenite. Cu cât acesta poate reţine mai multe instrucţiuni, cu atât ele vor fi executate mai eficient. La K8, spaţiul acestuia a crescut substanţial, de trei ori.

Observaţie. Un pipeline foarte lung, având un branch prediction cu un hit-rate de 100% precum şi un scheduler foarte încăpător va oferi numai avantaje în termeni de performanţă. Lungimea mare a pipeline-ului nu trebuie privită ca o sperietoare. Numai ca pentru un pipeline lung să nu afecteze negativ viteza sunt necesare un branch prediction şi un scheduler pe măsură, iar acestea nu pot fi îmbunătăţite la infinit.

3.3.6. Moştentirea de la Intel În primul rând, SSE2. Setul de instrucţiuni introdus odată cu primul Pentium 4

este, în sfârşit prezent şi în CPU-urile AMD. Situaţia este oarecum amuzantă, ambii producători schimbând între ei tehnologii (Intel a preluat de la texani setul AMD64). Deşi instrucţiunile de acest tip nu sunt licenţiate în nici un fel, o regulă dedusă

54

Page 57: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 3: Evaluarea performanţelor procesoarelor experimental spune că niciodată cel care copiază nu va obţine, legat de acele instrucţiuni, performanţele concurentului său. Aşa se face că noua generaţie de procesoare de la AMD obţine performanţe teribil de mici prin SSE2. Într-o situaţie asemănătoare s-a aflat şi Intel la lansarea lui P4 (Willamette, primul model), unitatea FPU fiind mai lentă decât cea din Pentium III, programele inteligente care foloseau instrucţiuni SSE în locul celor FPU obţinând performanţe mult crescute. Sau, dacă ne adâncim şi mai mult în istorie, găsim un K6-2 cu al său FPU de 2-3 ori mai lent decât cel din procesoarele Intel similare. Însă setul 3DNow!, folosit cu totul şi cu totul ocazional în programele acelor vremuri, salva onoarea firmei AMD, deşi utilizatorii nu prea beneficiau de acesta.

Revenind în prezent, având în vedere că procesoarele K8 au întârziat nepermis de mult, unii au presupus că AMD pur şi simplu nu a mai avut timp să optimizeze SSE2-ul, aplicaţiile ce se folosesc de el fiind deseori mai lente decât cele ce se bazează pe clasicul FPU.

Ce am mai văzut la Intel şi aşteptăm implementat şi în procesoarele concurenţei? Thermal throttling, SSE2 optimizat, SSE3 (inclus deja în ultimele stepping-uri de K8) şi, de ce nu, HyperThreading. Legat de ultimul aspect, AMD a achiziţionat licenţele necesare pentru această tehnică, dar nu se întrevede nici un model care să beneficieze de ea. AMD este o companie mică (în comparaţie cu alţi giganţi din lumea IT, printre care se află şi Intel), deci orice implementare care costă mult e calculată la sânge. AMD nu-şi poate permite prea multe eşecuri, înainte de fiecare lansare a unei noi generaţii ea având dificultăţi mari financiare: înainte de lansarea lui K6 era în pragul falimentului, înainte de lansarea lui K7 avea serioase probleme financiare (ultimele modele de K6 nefiind prea reuşite) iar înainte de K8 mergea în pierdere.

Un ultim lucru care merită menţionat este protecţia antivirus NX (No Execute) despre care am discutat la capitolul destinat lui Prescott şi care de altfel este prezent în ultimele versiuni ale acestuia. AMD s-a aflat în faţa lui Intel de această dată, oferind încă de la primul procesor K8 apărut (Opteron) această protecţie.

3.3.7. Modele de K8, tehnologii de fabricaţie şi platforme Primele variante de K8 au fost destinate server-elor şi au

purtat numele de Opteron. Controller-ul de memorie integrat era de tip dual-channel iar memoriile necesare erau de tip registered. Cele patru versiuni disponibile, deşi aparent identice, erau capabile să ruleze în sisteme de un singur, două, patru şi respectiv opt procesoare, ele identificându-se printr-un număr de tip 1xx, 2xx, 4xx şi 8xx. Spre exemplu, Opteron 246 rula la 2 GHz şi putea funcţiona în sisteme dual-procesor.

Numele de cod a fost Sledgehammer iar platforma utilizată Socket 940. Odată cu apariţia modelelor desktop, destinate tuturor utilizatorilor, AMD a portat o versiune a lui Opteron în sisteme „mai cuminţi” dar destinate entuziaştilor. Astfel s-a născut Athlon 64 FX, un procesor extrem de scump pentru aproape oricine (costa peste 1000$ la lansare). În plus, fiind practic un Opteron din seria 1xx redenumit, necesita şi memorii registered, extrem de scumpe şi cu puţin mai lente decât cele normale (unbuffered). Notarea lui Athlon 64 FX a fost destul de ciudată, modelele purtând numele FX-51, FX-53, FX-55 etc.

55

Page 58: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul Pentru utilizatorii care ţineau seama şi de bugetul alocat, Athlon 64 „simplu” a

oferit satisfacţii similare, diferenţa de performanţă faţă de FX fiind minimă. Athlon 64 a fost văduvit de o parte din pini, numărul lor fiind redus la 754, iar controller-ul de memorie integrat rula pe un singur canal, memoria L2 cache rămânând la 1 MB.

Pentru denumirea modelelor, AMD s-a folosit de rating-ul cunoscut de la Athlon XP, referinţa fiind procesoarele Intel Pentium 4. Astfel, un Athlon 64 3200+ este (teoretic) la fel de rapid ca un Pentium 4 la 3.2 GHz. Northwood sau Prescott? Nu răspundem la întrebări filozofice...

Noul core, NewCastle, exista atât în versiuni single- cât şi dual-channel, diferenţa faţă de Clawhammer privind dimensiunea cache-ului: doar 512 KB. Acest lucru nu a constituit un dezavantaj, frecvenţa superioară compensând minusul cu pricina. De exemplu, Athlon 64 3200+ în versiunea Clawhammer (1 MB cache) avea o frecvenţă de 2 GHz, pe când cea NewCastle (512 KB) de 2.2 GHz.

Platforma Socket 754 a fost păstrată, fiind însă considerată din ce în ce „mai low-end”. Socket 940 a fost înlocuit cu Socket 939, modelele ce se inserau în acest socket beneficiind de un controller de memorie ce lucra cu memorii unbuffered în dual-channel.

Toate nucleele amintite erau create în tehnologia de 0.13 microni (130 nm). Trecerea la 0.09 microni (90 nm) a fost iminentă, fiind necesară pentru atingerea de frecvenţe superioare. Aşa s-a născut nucleul Winchester, aproape identic ca funcţionalitate cu NewCastle, dar mai rece, creat numai pentru platforma 939 (care de altfel are şi un viitor asigurat). Totuşi, el s-a dovedit a fi un semi-eşec din punct de vedere al overclocking-ului, procesul de fabricaţie nematurizat punându-şi amprenta asupra frecvenţelor atinse. De remarcat şi controller-ul de memorie uşor îmbunătăţit al noului core.

Recent, AMD a introdus nouă noi nuclee pe 0.09 microni: Venice şi San Diego, cu 512 şi respectiv 1 MB de cache, implementând instrucţiunile SSE3, un controller de memorie optimizat şi un potenţial crescut de atingere a frecvenţelor mari.

Pentru Socket 754, AMD a introdus câteva versiuni de Sempron, diferenţele faţă de Athlon 64 privind cache-ul: 128 sau 256 faţă de 512 KB sau 1 MB (controller-ul de memorie fiind, evident, single-channel), precum şi setul de instrucţiuni pe 64 de biţi absent. Mai exact dezactivat şi imposibil de activat. Rating-ul său a fost stabilit în funcţie de Celeron D, modelul 3100+ rulând la 1.8 GHz, ca şi Athlon 64 2800+, dar acesta din urmă avea un cache level 2 dublu.

De reţinut faptul că modelele inferioare lui Sempron 3100+ sunt concepute pentru platforma Socket A, ele neavând nimic în comun (afară de nume) cu cele S754.

În fine, menţionăm că tehnologia de fabricaţie a lui K8 a unor modele a suferit o modificare importantă: introducerea SOI (Silicon-On-Insulator) care, pe scurt, oferă şanse suplimentare creşterii frecvenţei procesorului, dar despre care nu vom vorbi în detaliu aici.

3.3.8. Concluzii AMD a schimbat multe odată cu K8. Puţine dacă ne referim strict la arhitectura

internă dar multe dacă luăm în calcul adaosurile: controller-ul de memorie integrat şi instrucţiunile pe 64 de biţi. Dacă al doilea aspect nu aduce beneficii prea mari, primul ajută substanţial la creşterea performanţei, excluzând astfel din ecuaţie o puternică limitare de care sufereau vechile K7, limitare care uneori nu putea fi suprimată nici măcar odată cu creşterea foarte mare a frecvenţei de tact. Limitare care nu era prezentă

56

Page 59: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 3: Evaluarea performanţelor procesoarelor la procesoarele Pentium 4, probabil din cauza PSB-ului foarte mare (de ordinul a 800 MHz faţă de maxim 400 la K7) care compensa latenţele suplimentare datorate prezenţei externe a controller-ului în cauză. Cu alte cuvinte, puteam creşte oricât frecvenţa unui Athlon XP, efortul necesar atingerii vitezei unui Pentium 4 sau Athlon 64, în unele - şi destul de puţine - aplicaţii urmând o curbă exponenţială ascendentă. În testele în cauză, un Athlon XP supus unui overclocking puternic şi rulând la 2.6 GHz era cu doar puţin mai rapid decât unul la 2 GHz; în schimb, un Athlon 64 la 2.6 GHz nu are probleme în a afişa rezultate oarecum proporţionale cu cel la 2 GHz, nefiind atât de limitat de factori externi precum un controller de memorie.

Acestea fiind zise, să facem un rezumat al facilităţilor oferite de noile procesoare AMD:

• tehnologie de 0.13 (130 nm) şi apoi de 0.09 microni (90 nm) SOI; • controller de memorie integrat, ce deţine principalul merit al creşterii

performanţelor; • instrucţiuni AMD64, slab folosite pentru moment; • instrucţiuni SSE2 (introduse pentru prima dată în Pentium 4), implementarea

lăsând de dorit la capitolul viteză; • pipeline uşor crescut odată cu un branch prediction şi o unitate scheduler

îmbunătăţite; • cache crescut iniţial la 1 MB, revenindu-se ulterior la 512 KB, cel de 1 MB fiind

destinat modelelor high-end; • protecţie antivirus NX, similară celei XD de la Intel.

Anexă: Chipset-urile destinate procesoarelor din familia AMD64Dacă la Prescott lucrurile erau mai simple, piaţa fiind împărţită în Intel şi „alţii”,

în cazul lui AMD există doi mari jucători: NVIDIA şi VIA. Pentru prima dată, NVIDIA foloseşte un singur chip, unind northbridge-ul (văduvit de controller-ul de memorie) cu southbridge-ul, denumirea de chipset devenind astfel improprie (întâlnim expresia single-chip core-logic). Există două familii de nForce pentru procesoarele AMD K8, şi anume nForce3 - cu suport AGP 8x, şi nForce4 - cu suport PCI Express. Dacă seria nForce3 150 nu are în dotare decât simpla interfaţă ATA 133, nForce3 250 oferă atât porturi Parallel ATA cât şi Serial ATA. Mai mult, nForce4 Ultra introduce Serial ATA II, dublând lăţimea de bandă disponibilă pentru unităţile de stocare (nForce4 „simplu” se limitează la un Serial ATA „I”), însă impactul asupra performanţelor este cvasi-zero. În fine, nForce4 SLI oferă posibilitatea conectării în acest mod a două plăci grafice PEG X16 pentru maximizarea performanţei 3D.

De partea cealaltă, VIA ne oferă pentru platforma AGP un K8T800 „simplu” şi unul Pro, diferenţele dintre ele constând în viteza HyperTransport, precum şi în viteza de comunicare dintre northbridge şi southbridge, precum şi K8T890 pentru PCI Express, a cărui răspândire nu este mare.

Menţionăm că între chipset-uri mai există diverse diferenţe la nivelul HyperTransport, atât ca lăţime a bus-ului (8 biţi sau 16 biţi) cât şi ca lăţime de bandă (între 600 şi 1000 MHz). În sistemele obişnuite aceste elemente influenţează atât de puţin performanţa încât competiţia este doar una de marketing (similară celei dintre AGP 4x şi 8x, de exemplu).

Viitorul ne va oferi multe surprize, cea mai aşteptată fiind legată de DDR-2 şi de modelele cu două nuclee. Legat de primul aspect, acest lucru depinde de procesor şi

57

Page 60: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul doar AMD este cel care poate decide; cu siguranţă, atunci când se va simţi nevoia, vom avea parte şi de noul standard implementat în viitoarele Athlon 64.

Cât despre dual-core, ele au frecvenţe mai scăzute decât modelele cu un singur nucleu, performanţele urmând să fie, însă, superioare.

3.4. Procesoare Dual-Core Cipurile dual-core, proiectate pentru a sustine două nuclee distincte, oferă

practic două unităţi centrale de procesare integrate într-o singură bucată de silicon. Pe scurt, în baza testelor PC World dintre Intel Pentium 840 Extreme Edition şi AMD Athlon64 X2, câştigător este procesorul celor de la Advanced MicroDevices, care surclasează toate procesoarele Intel existente. Interesant de aflat este: pentru cat timp?

Procesorul AMD Athlon 64 X2 4800+, ce lucrează la o frecvenţă de tact de 2,4 GHz pe o arhitectură de 90 nm, are 1 MB de memorie cache L2 pe fiecare nucleu. Magistrala sistemului funcţionează la 2.000 MHz datorită tehnologiei HyperTransport. Conectarea la sistem se face prin intermediul unui Socket 939. Procesorul consumă maximum 110 W, beneficiind şi de tehnologia Cool’n’quiet, care ajustează puterea consumată în funcţie de activitatea desfăşurata de procesor. Lansate în iunie anul curent, procesoarele Athlon 64 X2 pe 64 biţi propulsează deja serverele dual-core Opteron şi staţiile de lucru.

Intel nu s-a lăsat mai prejos şi a lansat procesorul Intel Pentium 840 Extreme Edition. Este implementat pe o arhitectura de 90 nm, funcţionând la o frecvenţă de tact de 3,2 GHz. Ca şi competitorul direct, are câte 1 MB de memorie cache L2 pe fiecare nucleu. Front Side Bus-ul acestui procesor atinge 800 MHz, conectându-se pe socket LGA 775.

Interesant este ca pe lângă tehnologia Dual-Core, acest model este dotat şi cu funcţia Hyper Threading. Astfel, având în vedere că fiecărui procesor fizic dintre cele două de pe capsula îi sunt alocate două procesoare logice prin HT, rezultă ca noul model de la Intel poate executa nu mai puţin de patru procese în paralel.

Computerele cu procesoare dual-core au început să apară deja pe piaţă în diferite variante. Pentru o mai uşoară trecere între generaţiile de procesoare, la platformele AMD există posibilitatea de upgrade a existentului Athlon 64 din PC doar printr-un simplu upgrade de BIOS. Pe de alta parte, Intel nu oferă aceeaşi flexibilitate, pentru trecerea la tehnologia Intel Dual-Core fiind necesară achiziţia unei noi placi de bază.

Testele indică faptul că indiferent de constructorul ales, Intel sau AMD, cipurile Dual Core beneficiază de performanţe ridicate atunci când rulează mai multe aplicaţii simultan. Vom analiza în continuare tehnologiile şi proprietăţile specifice fiecărui producător pentru a ne face o idee de ansamblu asupra modurilor de implementare a procesoarelor dual-core.

58

Page 61: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 3: Evaluarea performanţelor procesoarelor 3.4.1. Tehnologia Intel dual-core Intel

Un procesor dual-core Intel are două nuclee de execuţie separate pe acelaşi cip care rulează la aceeaşi frecvenţă. Ambele nuclee împart acelaşi package fizic şi aceleaşi interfeţe cu chipset-ul şi memoria. Totuşi, ele pot opera ca nuclee distincte de execuţie. Procesarea dual-core este una dintre metodele de a furniza performanţa în timp ce se balansează cerinţele de putere şi constă în adăugarea mai multor resurse procesorului şi nu în creşterea frecvenţei acestuia (fig. 3.2).

Fig.3.2: Procesor dual-core: se observă paralelismul în execuţia proceselor.

Fig.3.3: Procesor dual-core cu tehnologie Hyper Threading – 4 procese pot rula

simultan.

Fig.3.4: Procesor cu tehnologie Hyper Threading – execuţie simultană a două procese.

O staţie de lucru bazată pe un procesor dual-core Intel extinde capabilităţile PC-

ului şi asigură un mai mare grad de procesare simultan, un utilizator putând, de exemplu, să randeze şi să editeze o secvenţă video în acelaşi timp. Ca o analogie, imaginaţi-vă o autostradă cu patru benzi: pe ea trec până la de doua ori mai multe maşini fără a obliga fiecare maşină să meargă de doua ori mai repede.

Procesorul Intel dual-core este o evoluţie a tehnologiei Hyper Threading. Atât tehnologia HT, cât şi un procesor dual-core permit rularea mai multor aplicaţii concepute pentru a exploata procesele multiple, dar dual-core aduce mai multe resurse şi putere de procesare în cadrul PC-ului. În alte cuvinte, procesarea dual-core face acelasi lucru ca şi Hyper Threading, doar că mai repede, având o putere de calcul mai mare.

Fig.3.4: Procesor cu un singur nucleu – procesele sunt rulate secvenţial.

59

Page 62: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul În viitor, Intel va lansa procesoare ce vor îmbina cele două tehnologii, Hyper-

Threading şi Dual-Core, pentru a asigura rularea în paralel a unui număr maxim de patru procese diferite. Acest lucru va duce, pe lângă dublarea teoretic a vitezei, la o explozie a numărului aplicaţiilor concepute să ruleze pe sistemele multi-core.

3.4.2. Tehnologia Dual-Core AMD AMD continuă drumul inovaţiilor introducând tehnologia dual-core (dual

socket) pentru piaţa PC. Procesoarele dual-core Opteron pentru staţii de lucru extind arhitectura Direct Connect a AMD, conectând două unităţi centrale de procesare (CPU) într-un singur circuit integrat, îmbunătăţind per total performantele sistemului şi eficienţa acestuia. Procesoarele AMD Operton single-core şi dual-core cu arhitectura Direct Connect şi HyperTransport Technology permit tranziţia uşoară la tehnologia pe 64 biţi fără a sacrifica performanta pe 32 biţi.

Un lucru îmbucurător pentru fanii AMD este că tehnologia dual-core este extrem de uşor de implementat prin următoarele considerente principale:

• procesorul dual-core conţine două unităţi centrale de procesare într-un singur circuit integrat, fiecare nucleu având propria memorie cache L2 de 1 MB;

• se conectează pe socket-urile existente cu 940 de pini pentru procesoarele AMD Opteron;

• un update de BIOS este tot ceea ce este necesar pentru a obţine un sistem compatibil de a rula cu procesoare dual-core;

• cele două nuclee CPU se descurcă cu aceeaşi memorie şi cu tehnologia HyperTransport disponibile pentru procesoarele single-core. Procesoarele AMD Opteron dual-core prezintă, de asemenea, avantajele

arhitecturii unui procesor cu un singur nucleu. Aceste avantaje cuprind următoarele tehnologii:

• Direct Connect Arhitecture - ajută la îmbunătăţirea performanţei sistemului şi a eficienţei prin conectarea directă a procesoarelor, controllerului de memorie şi a dispozitivelor de intrare-ieşire ale procesorului.

• HyperTransport Technology - asigură interconectare cu lăţime de bandă scalabilă între procesoare, subsitemele periferice şi alt chipset.

• AMD PowerNow! Technology cu Optimized Power Management (OPM) - asigură necesarul de putere de calcul în funcţie de cerinţe, rezultând un raport performanţă-putere optimal. Să analizăm, însă, cum se vor comporta noile cipuri în PC-urile noastre: Creştere de viteza Sistemul de referinţa pe care s-au efectuat testele a rulat Windows XP Pro.

Acesta a venit configurat cu 1 GB de memorie DDR 400, un hard disc de 10.000 rpm şi o placa video nvidia GeForce 6800 Ultra cu 256 MB de memorie DDR3. Maşinăria AMD Athlon64 X2 a reuşit un scor de 116 puncte în WorldBench 5, cu mult mai bun decât cele 95 de puncte obţinute de procesorul dual-core Pentium 840 Extreme Edition.

Unitatea AMD a arătat un real plus de putere în porţiunea de multitasking a lui PC WorldBench 5. Timpul de doar 6 minute şi 44 de secunde a fost cu 3 minute şi 42 de secunde mai bun decât media dintre două sisteme Athlon 64 FX 55 şi cu aproape 3 minute mai bun decât Pentium 840 EE dual-core. În WorldBench 5, unitatea dual-core

60

Page 63: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 3: Evaluarea performanţelor procesoarelor produsă de Intel, a arătat îmbunătăţiri comparativ cu acelaşi sistem, dar echipat cu un procesor Pentium 4 seria D la 3,2 GHz (ambele cu Hyper-Threading activat).

Despicând firul în patru, mai aflam un lucru interesant: în testele de anduranţă şi de stabilitate, procesorul 840 al lui Intel rămâne ferm pe poziţie, chiar şi după multe zile de lucru intens, în timp ce Athlon-ul 4800+ începe să aibă probleme. La acest capitol putem acorda o bilă albă lui Pentium 840 EE, care se potriveşte ca o mănuşă serverelor şi staţiilor de lucru folosite cu aplicaţii puternice. Este adevărat că procesorul produs de Intel consumă mai mult curent electric, dar de aici provine şi plusul de stabilitate atât de necesar multor utilizatori.

Ce se poate face concret cu procesoarele dual-core? Pentru a plasa procesoarele dual-core într-un context potrivit, trebuie să

reconsiderăm modul de lucru cu computerul. Sistemele cu două procesoare logice sunt perfect potrivite pentru a face operaţiuni multiple, simultan, fără ca utilizatorul să observe scăderi de performanţă. Imaginaţi-vă cum ar fi să jucaţi un joc 3D sofisticat în timp ce arhivezi fişiere audio.

Chiar dacă decizi să mai introduci o operaţiune dificilă, cum ar fi compresia de volume mari de fişiere, abilitatea de a juca shooter-ul 3D nu va fi redusă. Dacă se introduce a patra comandă consumatoare de resurse de către sistem, atunci se va reduce în mică măsură timpul total de execuţie a proceselor, dar nu se va observa un impact major asupra răspunsurilor directe date de sistem.

Intel deja introduce procesoarele dual-core bazate pe sistemul Pentium D, iar PC-urile propulsate de acestea vor fi considerabil mai ieftine decât cele cu Pentium 840 EE.

Deşi scumpe, procesoarele dual-core dovedesc performanţe simţitor îmbunătăţite. AMD îşi continuă în salturi drumul către inimile gamer-ilor înnebuniţi de gigaherti, în timp ce Intel preferă sa urce cu paşi mărunţi, siguri şi stabili.

3.5. Test de procesoare Importanţa unui procesor (CPU) într-un sistem de calcul este printre cele mai

mari. Teoretic, vorbim despre componenta centrală a PC-ului, „creierul” său, unitatea care coordonează toate activităţile şi fără de care nimic din ceea ce vedem pe monitor nu s-ar putea realiza. Aşadar, o modificare a nivelului său de performanţă va conduce la schimbarea dramatică a vitezei de lucru, productivităţii şi satisfacţiei.

Nu trebuie neglijată, însă, importanţa memoriei (mai ales din punct de vedere cantitativ), a plăcii grafice şi a altor componente de bază. De fapt, în primul rând contează sarcinile pe care le dăm PC-ului, în funcţie de ele putându-se deduce nivelul de performanţă necesar din partea fiecărei componente. De exemplu, un împătimit al jocurilor va avea nevoie în primul rând de o placă grafică performantă (cu un GeForce 6200, de exemplu, nu se va putea atinge un framerate minim decent în ultimele apariţii), apoi de un procesor performant; abia în ultimul rând contează alţi factori, precum o cantitate de memorie mai mare de 1 GB sau un hard disk rapid. În schimb, un profesionist al graficii (2D) nu se va folosi de puterea 3D a plăcii grafice, în schimb va avea nevoie de un procesor cât mai rapid şi de o cantitate de memorie de minim 2 GB pentru a-şi face treaba în condiţii bune.

61

Page 64: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul

În continuare se prezintă rezultatele unor teste care se doresc a fi un ghid al

momentului cu privire la achiziţionarea unui procesor, fie pentru un sistem nou, fie în cazul unui upgrade. Se urmăreşte să se acopere toate domeniile de utilizare a PC-ului, prin prezentarea unui număr mare de teste, cuprinzând atât jocurile şi partea de multimedia/entertainment cât şi aplicaţiile profesionale. Au fost introduse atât teste analitice (jocuri reale, codare audio/video, arhivare), cât şi sintetice (3DMark, SuperPI), pentru o evaluare din două perspective: cea reală - perceptibilă în practică, şi cea teoretică - atât de populară printre entuziaşti şi cei care doresc să doboare recorduri. Şi, de ce să nu recunoaştem, testele sintetice reflectă în mare măsură comportamentul în utilizarea reală.

Platformele alese au fost în număr de trei: LGA775, Socket AM2 şi Socket 939, toate prezente pe piaţă în acest moment, deşi Socket 939 se pare că în curând va ieşi din scenă.

LGA775, numită şi Socket T, a apărut în urmă cu peste doi ani, fiind dedicată exclusiv procesoarelor Intel. Aceasta a înlocuit vechiul Socket 478 şi a introdus pentru prima dată acest Land Grid Array (LGA) - un tip de împachetare diferit de cel clasic: pinii nu se află pe procesor, ci pe placa de bază, CPU-ul conţinând doar contactele necesare pentru a se face legătura cu pinii. Criticat în primul rând pentru faptul că pinii situaţi în socket pot fi îndoiţi sau chiar distruşi relativ uşor, LGA775 a căpătat - vrând-nevrând - o popularitate mare printre utilizatori, devenind singura soluţie pentru platforma Intel.

Socket AM2 desemnează penultimul socket introdus de AMD, El se deosebeşte de cel anterior, Socket 939, printr-un pin suplimentar, precum şi prin dispunerea diferită a celorlalţi. Este evident faptul că AMD a decis acest lucru pentru a crea o incompatibilitate forţată, dar necesară pentru introducerea noilor sale procesoare cu suport DDR2: controller-ul de memorie fiind situat în procesor, un CPU Socket AM2 introdus într-o placă de bază cu suport DDR nu ar fi funcţionat, şi nici reciproc.

Socket 939 a fost, timp de doi ani, referinţa pentru platforma AMD64. Deşi îmbunătăţirile aduse de Socket AM2 sunt minore, procesoarele S939 sunt pe cale de dispariţie din magazine, dar în acelaşi timp foarte populare printre utilizatori.

Arhitecturile testate sunt în număr de trei: Intel NetBurst, Intel Core şi AMD64. Intel NetBurst reprezintă o arhitectură aspru criticată, dar care a dominat lumea

procesoarelor Intel în ultimii şase ani. Ea a fost introdusă odată cu Pentium 4 şi a succedat-o pe cea P6 (Pentium II/III), având ca principale caracteristici creşterea de patru ori a lăţimii de bandă a bus-ului PSB (el fiind numit acum Quad Pumped) şi restructurarea cache-ului level 1. Mai târziu şi fără legătură directă cu arhitectura, Intel a introdus o serie de inovaţii în procesoarele acestei serii, precum tehnologiile HyperThreading şi EM64T (aceasta din urmă fiind „împrumutată” de la AMD64), precum şi includerea a două nuclee într-un singur CPU. Critica principală adusă a fost

62

Page 65: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 3: Evaluarea performanţelor procesoarelor datorată consumului extrem de ridicat şi a performanţei mici per clock (performanţa la o frecvenţă dată), fapt datorat pipeline-ului2 extrem de lung; spre exemplu, un Athlon 64 la 2 GHz depăşea cu mult un Pentium 4 la aceeaşi frecvenţă; interesant este faptul că şi vechea arhitectură de la Intel, P6, întrecea unele modele de Pentium 4 chiar şi la o frecvenţă mai ridicată (de exemplu, Pentium III la 1 GHz vs. Pentium 4 la 1.3 GHz). Succesul lui NetBurst a fost datorat numelui Intel, marketing-ului agresiv, dar şi faptului că procesoarele din această serie puteau, într-adevăr, să atingă frecvenţe deosebit de ridicate - apropiindu-se de 4 GHz şi depăşind chiar cu mult această valoare prin overclocking-ul extrem.

Platforma Intel Core a fost introdusă în acest an de către Intel, ea reprezentând o revenire în prim-plan a arhitecturii P6, aflată la baza procesorului Pentium III. Arhitectura a fost folosită chiar şi în vremurile de apogeu ale lui Pentium 4 în „persoana” lui Pentium M (nume de cod Dothan), un procesor foarte popular pentru platformele mobile. Ca fapt divers, Pentium M a pătruns şi în domeniul desktop datorită adaptorului Socket 479-478, care a dat naştere celei mai performante şi mai reci combinaţii posibile pentru un PC, el oferind o performanţă per clock superioară chiar şi unui Athlon 64 FX.

În ceea ce priveşte arhitectura Core, practic Intel a preluat scheletul lui Dothan şi i-a adus numeroase îmbunătăţiri pentru a o face competitivă acestei perioade. Instrucţiunile SSE3, EMT64 şi VT sunt considerate de mulţi „bling-bling”-uri - accesorii inutile, însă nu se ştie niciodată când este nevoie de ele. Au mai fost moştenite unele inovaţii aduse de NetBurst (dar fără legătură cu arhitectura în sine), precum bus-ul Quad Pumped. Performanţa per clock a devenit foarte ridicată, depăşind-o pe cea a concurenţilor de la AMD, iar procesoarele rezultate au, spre deosebire de cele AMD64, rezerve foarte mari de atingere a frecvenţelor ridicate. S-ar părea că diferenţa de performanţă se datorează în mare parte şi cache-ului de 4 MB de tip inclusiv, împărţit între cele două nuclee. Pe baza acestei arhitecturi a ieşit la lumină, de curând, şi primul CPU cu patru nuclee: Core 2 Extreme QX6700 (nume de cod Kentsfield).

AMD64, deşi un simplu update al vechiului AMD K7 (Athlon, Athlon XP), a introdus câteva îmbunătăţiri cheie, cea mai importantă fiind includerea controller-ului de memorie în procesor. Deşi s-a insistat mult pe instrucţiunile, regiştrii şi întreaga arhitectură pe 64 de biţi, utilitatea acestui „add-on” este momentan extrem de redusă, dată fiind lipsa de popularitate a sistemelor de operare şi a aplicaţiilor care să utilizeze cod 64-bit. Oricum, cine îşi cumpără procesoare AMD64, nu o face din cauza celor 64 de biţi, ci datorită performanţei sporite de mutarea controller-ului de memorie din placa de bază în procesor, ceea ce reprezintă, în continuare, principalul avantaj al procesoarelor AMD, fără de care ele nu ar fi făcut faţă concurenţei. Acest lucru a adus şi câteva dezavantaje, unul dintre ele fiind resimţit chiar acum, la apariţia lui Socket AM2: odată cu schimbarea tipului de memorie, trebuie înlocuit şi procesorul, şi placa de bază.

Descrierea configuraţiilor care au stat la baza testului Placa grafică folosită a fost un NVIDIA GeForce 7900 GTX produs de EVGA,

tactat la 710/1800 MHz, frecvenţe ridicate faţă de cele standard (650/1600 MHz) în ideea de a nu avea plafon în performanţă grafică - lucru practic imposibil pentru anumite procesoare, care ar fi fost satisfăcute doar de o configuraţie SLI. (Desigur,

2 Pipeline - reprezintă suma unor etape pe care instrucţiunile trebuie să le parcurgă până la obţinerea rezultatului final

63

Page 66: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul frecvenţele au fost testate minuţios, astfel încât placa a rulat perfect stabil şi fără artefacte în aceste condiţii.)

S-a renunţat la împerecherea a două plăci grafice pentru acest test deoarece ar fi putut apărea probleme serioase cu driverele în anumite cazuri, cel puţin pe platforma Intel. Ca pas firesc de urmat, am scăzut detaliile şi rezoluţiile până am ajuns la un punct unde coborârea sub o anumită limită deja ar fi fost irelevantă (nimeni nu mai foloseşte rezoluţii precum 800 x 600 sau 640 x 480 cu un Core 2 Duo, spre exemplu). Sistemul de operare a fost Windows XP Professional SP2, iar setările plăcii grafice din drivere au fost cele implicite, pentru o evaluare cât mai apropiată de condiţiile utilizării de zi cu zi.

Ca plăci de bază, pentru platforma Intel sa ales un DFI Infinity 975X/G (chipset

Intel 975X) deoarece, în momentul în care s-au rulat testele, era practic cea mai performantă placă disponibilă. Layout-ul este unul simplu, ce nu excelează prin nimic, dar ca performanţă surclasează alternativele de la Asus şi Gigabyte. Voltajele generoase, atât pentru procesor cât şi pentru memorii, au înlăturat îndoielile pe care le-am avut în legătură cu ea.

Pentru procesoarele AM2 sa folosit o placă Abit AN9 32X (chipset nForce 590 SLI), ce oferă premisele unui overclocking ridicat. În fine, pentru Socket 939, sa dispus de un „bătrân” Abit AN8 (chipset nForce 4), cu setări moderate de overclocking, dar cu performanţe de top.

Memoriile folosite au făcut parte dintr-un kit Corsair CM2X512-8000UL, module echipate cu chip-urile Micron D9 „fatbodies”; ele au rulat la frecvenţe impresionante, cu latenţe extrem de mici: până la 800 MHz am rulat cu CL3 2-2-7, în cazul platformei Intel. Pentru platforma Socket 939 (DDR) am dispus de un kit OCZ PC4400 Gold Limited Edition (chip-uri TCCD), fără performanţe deosebite, dar arhisuficiente pentru nevoile noastre.

Sursa a purtat numele Antec Phantom 500W, ea fiind dotată cu două rail-uri independente de 12V de 16A şi respectiv 17A şi dovedind voltaje stabile, cu variaţii minime, chiar şi la stresul enorm exercitat de o platformă de ultimă generaţie overclock-ată aproape de limită.

Răcirea a fost asigurată de un cooler Scythe Ninja Plus, un monstru care ar înspăimânta utilizatorul obişnuit. El a reuşit să răcească pasiv toate procesoarele pe care le-am avut în teste. Evident, la frecvenţe implicite.

3.5.1. Testarea propriu-zisă În general, performanţa unui procesor este evaluată utilizând diverse aplicaţii

care calculează ori timpul necesar efectuării unei operaţii, ori câte operaţii sunt efectuate într-un interval de timp prestabilit. Operaţiile (benchmark-urile) în cauză încearcă să reflecte, pe cât posibil, comportamentul practic al procesorului, simulând activitatea

64

Page 67: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 3: Evaluarea performanţelor procesoarelor utilizatorului. Aşadar, nici un benchmark nu este perfect, ci depinde atât de aplicaţia folosită de către utilizator, cât şi de operaţiile realizate în cadrul acelei aplicaţii.

Testele care folosesc aplicaţii reale se numesc teste analitice, iar cele care raportează rezultatele unor programe create special pentru a evalua performanţa sunt testele sintetice. Clasificarea este oarecum convenţională, întrucât numeroase teste sintetice folosesc aplicaţii ce au la bază motorul unor software-uri clasice; de exemplu, 3DMark se bazează pe engine-uri reale de jocuri, diferenţele de comportament dintre benchmark şi jocurile propriu-zise fiind nesemnificative.

Benchmark-ul sintetic 3DMark 2001 a fost folosit deoarece este până acum singurul test care solicită semnificativ toate componentele vitale ale unui sistem (CPU, memorie RAM, placă grafică, sursă). Grosso-modo, putem spune că testul Car Chase depinde de procesor, Dragothic de procesor şi placa video, Lobby de memorie (latenţe şi lăţime de bandă), iar Nature este intens grafic. Tocmai de aceea sa preferat compararea framerate-ului în toate testele, în defavoarea scorului final.

Din 3DMark03 sa selectat pentru testarea procesorului numai GT1 (Wings of Fury), testul fiind comparabil ca pondere a procesorului cu primele trei teste din 3DMark2001.

Din 3DMark05 s-au selectat testele de bază, care oferă un scor final, dar s-au reţinut, de asemenea, rezultatele din fiecare test. În cazul lui 3DMark06, s-au utilizat numai testele pentru CPU deoarece celelalte sunt foarte intens solicitante pentru placa grafică, iar aceasta plafonează performanţa într-un mod ce face imposibilă deducerea influenţei procesorului asupra rezultatului final, deci, practic, diferenţierea procesoarelor.

Tot la capitolul performanţă 3D, s-au introdus o serie de jocuri reale, fie complete sau demo-uri ale acestora create special pentru testare: F.E.A.R., Quake 4, FarCry, GunMetal şi X3.

Pentru evaluarea vitezei de randare în aplicaţii de grafică profesională, sa avut la dispoziţie SPECviewperf, alături de CineBench, PovRay şi Photoshop CS2 (aplicarea filtrului Radial Blur asupra unei imagini).

Pentru testarea în aplicaţii multimedia, sa codat un scurt film în format original DVD (MPEG-2 la 720 x 480) folosind codec-ul DivX 6.3, precum şi un fişier audio (Dream Theater - Octavarium, de pe albumul cu acelaşi nume) cu mai multe encodere lossy şi lossless, rezultând fişiere în formatele MP3, MPC, Vorbis, AAC, FLAC şi APE.

În fine, ultimele trei teste au constat în folosirea benchmark-ului din WinRAR, a aplicaţiei ScienceMark (pentru diverse simulări ştiinţifice), precum şi clasicul SuperPI, care efectuează atât de inutilul calcul cu milioane de zecimale al numărului pi.

Explicaţii În cazul jocurilor 3D, creşterea rezoluţiei (sau creşterea nivelului de anti-aliasing

- are un efect similar) conduce la un stres suplimentar din partea plăcii grafice şi, eventual, a memoriei sistemului. În alcătuirea scenelor, procesorul calculează în principal wireframe-ul3 obiectelor, altfel spus coordonatele punctelor ce le definesc, urmând ca mai apoi placa grafică să le umple cu culoare şi să le aplice diverse efecte. Este evident faptul că un obiect va fi calculat într-un mod similar, indiferent dacă rezoluţia este 640 x 480 sau 1600 x 1200, fiind aplicate aceleaşi formule de calcul pentru definirea poligoanelor şi funcţiilor matematice care le creează. Aşadar, pentru

3 http://en.wikipedia.org/wiki/Wire_frame_model

65

Page 68: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul evaluarea performanţei pure a unui procesor, este de dorit folosirea unei rezoluţii cât mai mici, pentru ca placa grafică să termine întotdeauna calculele înaintea procesorului, ea neconstituind astfel un factor limitativ.

Altfel stă treaba când vine vorba de nivelul de detalii ale unei scene, scăderea sau creşterea lui reflectându-se într-o solicitare mai intensă a procesorului şi/sau plăcii grafice, de la caz la caz, în funcţie de ce reprezintă pentru fiecare aplicaţie/joc schimbarea acestui nivel. De exemplu, nivelul maxim poate însemna folosirea un poligon regulat cu 100 de laturi pentru înfăţişarea unui cerc, pe când un nivel mai scăzut poate reduce acest număr la 50, realismul scenei devenind altul - caz în care procesorul are mai puţin de lucru. Dar, la fel de bine, reducerea nivelului de detalii poate desemna o filtrare mai sumară a texturilor, ele devenind mai puţin clare - caz în care placa grafică este degrevată de o parte dintre sarcini.

În aceste condiţii, de ce nu sa folosit rezoluţia minimă permisă (uneori chiar 320 x 240), împreună cu nivelul minim de detalii, pentru a fi siguri că placa grafică nu limitează în nici un fel performanţa? Pentru că orice test trebuie să aibă o aplicabilitate practică, să reflecte comportamentul real al unui utilizator; or, nimeni nu îşi chinuieşte ochii într-o rezoluţie mai scăzută de 1024 x 768 dacă îşi cumpără o placă grafică de ultimă generaţie - cum este cea folosită în testul nostru.

3.5.2. Procesoare testate:

3.5.2.1. Socket 939 Athlon 64 3500+ „Venice” (2.2 GHz, 11 x 200, 512 KB cache L2); A treia variantă de Athlon 64 pentru Socket 939, după ClawHammer şi

Winchester, Venice aduce în prim plan un controller de memorie îmbunătăţit (puţin mai lent decât cel inclus în Winchester, dar mai compatibil), temperaturi mai joase ca predecesorii săi şi potenţial de overclocking mai ridicat.

Revizia E3, prezentă în testul nostru, a oferit, teoretic, un potenţial de overclocking mai ridicat decât cea ulterioară, E6. Aceasta din urmă a dezamăgit entuziaştii, necesitând voltaje mari pentru a atinge frecvenţe cât de cât ridicate.

Testarea a avut loc la setările: • 2200 MHz, PSB 200 MHz, DDR400, CL2 2-2-5 1T (Athlon 64 3500+) • 2500 MHz, PSB 250 MHz, DDR500, CL2.5 3-3-7 1T • 2000 MHz, PSB 200 MHz, DDR400, CL2 2-2-5 1T (Athlon 64 3200+)

Athlon 64 X2 4600+ „Manchester” (2.4GHz, 12 x 200, 2 x 512 KB cache L2); Dual-core de la AMD, nucleul Manchester este de fapt rezultatul alipirii a două

nuclee de tip Venice. Performanţele sunt specifice unui CPU dual-core, mai ales în aplicaţiile optimizate pentru multiprocesor.

Testarea a avut loc la setările: • 2400 MHz, PSB 200 MHz, DDR400, CL2 2-2-5 1T (Athlon 64 X2 4600+) • 2750 MHz, PSB 250 MHz, DDR500, CL2.5 3-3-7 1T

3.5.2.2. Socket AM2 Sempron 2800+ „Manila” (1.6 GHz, 8 x 200, 256 KB cache L2); Mezinul familiei AM2 urcă generos în frecvenţă mulţumită cache-ului minuscul

(dar suficient pentru aplicaţiile nepretenţioase), memoriilor excelente şi plăcii de bază

66

Page 69: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 3: Evaluarea performanţelor procesoarelor excepţionale. Nucleul Manila este un nucleu Orleans (A64 AM2) cu cache-ul redus la 256 KB.

Testarea a avut loc la setările: • 1600 MHz, PSB 200 MHz, DDR2-667, CL3 3-3-7 1T (Sempron 2800+) • 2880 MHz, PSB 360 MHz, DDR2-960, CL4 3-3-8 2T

Athlon 64 X2 4200+ „Windsor” (2.2 GHz, 11 x 200, 2 x 512 KB cache L2); Dual-core-ul pentru platforma AM2, nucleul Windsor nu reprezintă o inovaţie,

ci doar o cuplare a două nuclee Orleans. Comportamentul în teste este decent, deşi am fi preferat ca urcarea în frecvenţă să se facă cu o creştere mai mică a tensiunii.

Testarea a avut loc la setările: • 2200 MHz, PSB 200 MHz, DDR2-800, CL4 3-3-8 1T (Athlon 64 X2 4200+) • 2750 MHz, PSB 250 MHz, DDR2-834, CL4 3-3-8 1T • 2000 MHz, PSB 200 MHz, DDR2-800, CL4 3-3-8 1T (Athlon 64 X2 3800+)

3.5.2.3. Socket T (LGA775) Intel Celeron D 336 „Prescott” (2.8 GHz, 21 x 133, 256 KB cache L2); Răţuşca cea urâtă a lui Intel, Celeron, nu a dezamăgit, dovedind prin

overclocking performanţe decente pentru zona în care se află şi pentru preţul pe care îl are.

Testarea a avut loc la setările: • 2800 MHz, PSB 133 MHz, DDR2-533, CL3 2-2-7 (Celeron D 336) • 4305 MHz, PSB 205 MHz, DDR2-617, CL3 2-2-7

Intel Pentium 4 531 „Prescott” (3 GHz, 15 x 200, 1 MB cache L2); Considerat de mulţi o relicvă vie a arhitecturii NetBurst, procesorul de faţă este

unul decent, deşi temperaturile atinse i-ar face pe mulţi să înnebunească, mai ales dacă îşi doresc sisteme silenţioase. Performanţa sa este una bună, însă fără a excela.

• 3000 MHz, PSB 200 MHz, DDR2-667, CL3 2-2-7 (Pentium 4 531) • 3825 MHz, PSB 255 MHz, DDR2-680, CL3 2-2-7

Intel Pentium D 945 „Presler” (3.4 GHz, 17 x 200, 2 x 2 MB cache L2); Performanţele foarte bune caracterizează acest procesor, datorită cache-ului

măricel şi mai ales a faptului că avem de-a face cu un procesor cu două nuclee. • 3400 MHz, PSB 200 MHz, DDR2-667, CL3 2-2-7 (Pentium D 945) • 4250 MHz, PSB 250 MHz, DDR2-667, CL3 2-2-7

Intel Core 2 Duo E6300 „Allendale” (1.86 GHz, 7 x 266, 2 x 1 MB cache L2); Mezinul familiei Core 2 Duo, 6300 dovedeşte o putere de calcul ieşită din

comun şi se ia la trântă voiniceşte cu Pentium D 945. Şi are „numai” 2 MB de cache level 2 şi frecvenţă net inferioară acestuia.

• 1866 MHz, PSB 266 MHz, DDR2-667, CL3 2-2-7 (Core 2 Duo E6300) • 3010 MHz, PSB 430 MHz, DDR2-646, CL3 2-2-7

Intel Core 2 Duo E6700 „Conroe” (2.66 GHz, 10 x 266, 2 x 2 MB cache L2); Englezul spune „save the best for last”. Noi nu spunem nimic, ci vă invităm doar

să studiaţi graficele testelor, deoarece ele vorbesc de la sine.

67

Page 70: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul

• 2666 MHz, PSB 266 MHz, DDR2-667, CL3 2-2-7 (Core 2 Duo E6700) • 3450 MHz, PSB 345 MHz, DDR2-690, CL3 2-2-7

Observaţii:

• sa folosit frecvenţa de 2 GHz pentru Venice cu scopul de a simula comportamentul lui Athlon 64 3200+, un procesor de referinţă pentru platforma Socket 939;

• sa folosit frecvenţa de 2 GHz pentru Windsor pentru a simula comportamentul lui Athlon 64 X2 3800+, cel mai lent CPU dual-core de la AMD;

• în cazul lui Sempron AM2, setarea memoriei a fost DDR2-667 datorită compatibilităţii oficiale restricţionate la această frecvenţă, deşi nu au fost probleme în rularea la DDR2-800;

• aparent, limitarea overclocking-ului la Sempron 2800+ (la 80%!) a fost datorată plăcii de bază, procesorul putând urca la o frecvenţă şi mai mare;

• pentru platforma Intel, nu (mai) există setarea Command Per Clock (1T/2T), rulându-se implicit cu valoarea 2T, însă procesoarele Intel se pare că nu depind în mod vital de latenţa 1T; în cazul lui AMD, creşterea la 2T determină o scădere masivă de performanţă; Diferenţele dintre procesoare au fost marcante în toate testele, cu excepţia lui

Nature - primul test popular ce a folosit funcţia Pixel Shader introdusă odată cu generaţia GeForce 3 şi în cazul căruia, la cinci ani de la apariţie, plăcile grafice moderne determină în continuare o limitare a framerate-ului. Altfel ar fi stat situaţia într-o configuraţie multi-GPU.

Rezultatele sunt exprimate în număr de fps.

68

Page 71: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 3: Evaluarea performanţelor procesoarelor

69

Alegerea unui procesor a fost întotdeauna o decizie grea. Aici nu există „cel mai

rapid”, ci „cel mai potrivit”, în cele din urmă fiind o decizie subiectivă.

Page 72: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

4. Evaluarea memoriilor

4.1. Introducere Un test de memorie nu este simplu de realizat. Puţini se încumetă, puţini reuşesc.

Spre deosebire de alte teste, acesta nu este unul care să reflecte cu acurateţe comportamentul produselor, precum stă treaba la plăci de bază sau plăci grafice. De ce? Pentru că numărul parametrilor care trebuie luaţi în calcul este cu cel puţin un ordin de mărime mai mare. Unii ar spune că e simplu: setezi frecvenţa, micşorezi latenţele, eventual creşti tensiunea la maxim şi vezi la cât rulează stabil. Fals. Un test riguros ia în calcul şi parametrii cei mai puţini uzitaţi. Drive Strength, tRFC, tRWT, tREF... şi lista lor ar putea umple o pagină.

Testarea şi metoda prezentate în curs reprezintă un compromis, testarea nu este atât de riguroasă pe cât s-ar fi putut realiza, din cauza timpului enorm care ar fi fost necesar acestui demers. Fără a exagera câtuşi de puţin, un test de memorii perfect riguros ar trebui să dureze circa trei luni de muncă intensivă. Nu s-au efectuat testele decât sumar pe o a doua placă de bază, nu s-au luat în considerare decât parţial latenţele secundare, s-au testat doar 30 de produse (cu toate că s-ar fi putut procura mai multe) şi nu s-au introdus în „concurs” decât kit-uri de 1 GB (câte două module de 512 MB). Tocmai de aceea testul nu trebuie considerat ceva exhaustiv, ci în primul rând un ghid care să deschidă gusturile celor pasionaţi, să lămurească unele aspecte delicate legate de memorii şi abia apoi să ofere un ghid de cumpărare celor interesaţi.

Momentan, ne aflăm într-o perioadă de trecere de la standardul DDR la cel DDR2. Totuşi, platforma AMD se foloseşte intensiv memorii DDR, iar sistemele bazate pe procesoarele companiei texane sunt preferate de foarte mulţi, dacă nu de cei mai mulţi entuziaşti de la noi, cu atât mai mult cu cât chipset-urile au căpătat o anumită maturitate, iar multe plăci de bază oferă o configurabilitate foarte bună. E suficient să comparăm BIOS-ul unei plăci high-end cu chipset Intel cu cel al unei plăci nForce4 (în ediţia pentru AMD): trei sau patru setări de memorie versus minim 10, uneori 20 sau 30.

De asemenea, mentalitatea cumpărătorului a suferit schimbări semnificative în ultima perioadă. Acum, el nu mai pune problema la modul „vreau să-mi iau o memorie de 512 MB”, ci „vreau să-mi aleg o memorie care merge în latenţe strânse şi în frecvenţă mare”. Chiar dacă sporul de performanţă nu este senzaţional, latenţele pot face diferenţa dintre un sistem rapid şi unul care suferă de pe urma unei limitări ce putea fi evitată. Mai problematic este aspectul frecvenţelor; de exemplu, cine posedă un Athlon 64 3200+ care, supus overclocking-ului, rulează în 2700 MHz, va avea nevoie de o memorie pe măsură, care să satisfacă „foamea” de lăţime de bandă a procesorului, şi anume una care să reziste cu succes la 270 MHz. Dacă nu, frecvenţa ei va trebui scăzută iar penalizarea de performanţă va fi destul de mare.

Aşadar, nu există memorie ideală. Fiecare utilizator îşi va stabili propriile standarde în funcţie de diverşi factori, dintre care amintim:

• frecvenţă, • latenţe, • performanţă brută, • răspuns la tensiune şi, de ce nu, aspect.

70

Page 73: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 4: Evaluarea memoriilor Mai mult, ar putea conta şi aplicaţiile rulate: ce este mai convenabil, un Athlon

64 „chinuit” la 2600 MHz cu memoria rulând sincron (260 MHz) sau unul la 2750 MHz „chinuit” şi mai mult, cu memoria asincron (230 MHz)? Cine se joacă va prefera prima opţiune, cine codează filme va merge pe a doua.

Aspectele abordate în acest material sunt diverse. Veţi afla care sunt, ce înseamnă şi cum trebuie setate latenţele memoriei, precum şi modul de comportare al celor mai importante module de pe piaţă, alături de modul lor de procurare.

4.2. Standarde, HTT, frecvenţe, lăţimi de bandă Standardul DDR SDRAM a adus îmbunătăţiri minore de ordin tehnologic faţă de

vechiul SDRAM, însă a dublat performanţa. Datele sunt transmise atât pe frontul crescător, cât şi pe cel descrescător al semnalului, rezultând o lăţime de bandă de două ori mai mare, şi asta la aceeaşi frecvenţă. În rest, avem principii similare standardului SDRAM, şi care se regăsesc şi la recentul DDR2. Nu vom intra prea mult în detalii, întrucât am mai scris despre memorii în capitolul 2.1.2, ci ne vom limita la descrierea funcţionării memoriei DDR SDRAM - pe scurt, DDR.

Fizic vorbind, modulele DDR prezintă 184 de pini (faţă de 168 pentru SDRAM-ul clasic şi de 240 pentru DDR2). Aspectul lor este asemănător, cele SDRAM prezentând două crestături, faţă de celelalte două tipuri care dispun de una singură. Desigur, plăcile de bază dispun de slot-uri specifice în care modulele vor fi inserate, în funcţie de tipul acestora; aşadar, nu vom putea introduce o memorie DDR2 într-un slot DDR, oricât de asemănătoare ar fi ele.

Lăţimea de bandă oferită de DDR este egală cu frecvenţa sa înmulţită cu 2, şi apoi cu 8, unitatea de măsură fiind GB/s (gigabyte pe secundă). Astfel, o memorie DDR400 va transmite (aproximativ) 3,2 GB/s către controller-ul de memorie, elementul central de gestiune a acesteia. De ce cifrele 2 şi 8? Pentru că avem de-a face cu memorii DDR, ce dublează lăţimea de bandă, iar la fiecare ciclu de tact sunt transmişi câte 8 bytes (64 de biţi), aceasta fiind lăţimea consacrată a bus-ului. În cazul controller-elor de memorie dual-channel, numărul lor creşte la 16 bytes (128 de biţi) per ciclu, însă sunt necesare (cel puţin) două module de memorie, de preferinţă identice.

Standardele DDR aprobate de JEDEC - autoritatea în domeniu care ratifică diversele standarde de memorie, sunt PC1600, PC2100, PC2700 şi PC3200, frecvenţele corespunzătoare fiind de 100, 133, 166 şi respectiv 200 MHz, deseori fiind referite ca DDR200, DDR266, DDR333 şi DDR400 din cauza raportării la SDRAM: o memorie DDR266 (PC2100) este de două ori mai rapidă decât una SDRAM PC133, chiar dacă ambele rulează la 133 MHz.

Cu toate acestea, diverşi producători au impus anumite pseudo-standarde, care să satisfacă nevoile în creştere ale utilizatorilor. Dacă platformele Intel au trecut la DDR2, cele AMD sunt în continuare fidele standardului DDR şi solicită o lăţime de bandă tot mai mare. Marketing-ul joacă un rol esenţial aici, diferenţele „palpabile” dintre o memorie la 600 MHz şi una la 400 MHz fiind minime datorită latenţelor mai crescute la frecvenţe mari.

În mod uzual, frecvenţa memoriei nu poate depăşi frecvenţa bus-ului procesorului (HTT, ex-FSB = viteza de comunicare dintre procesor şi chipset-ul plăcii de bază), care în mod implicit este de 200 MHz. Modelele recente de procesoare Athlon 64 (precum cele cu nucleu Venice sau San Diego) pot folosi un divizor maxim de 250:200, adică 5:4, între memorie şi HTT. Atunci ce sens are să depăşim lăţimea de bandă oferită de memoriile ce rulează la 250 MHz (DDR500)?

71

Page 74: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul Soluţie se găseşte întotdeauna. Aici ea poartă numele de overclocking: bus-ul

HTT poate fi crescut cu oarecare riscuri la 300 MHz sau chiar mai sus (micşorând în acelaşi timp multiplicatorul acestuia, astfel încât produsul final să nu depăşească 5 x 200), limitarea constituind-o acum placa de bază, eventual controller-ul de memorie al procesorului. De exemplu, un bus HTT de 300 MHz va putea profita de o frecvenţă a memoriei de până la 375 MHz (DDR750), o valoare practic imposibil de atins. Dar nu ne opreşte nimeni să setăm divizorul la 1:1, rezultând un frumos DDR600. Ca să fie mai clar, un HTT crescut nu afectează cu nimic performanţa (din moment ce frecvenţa finală a acestuia nu poate depăşi 1000 MHz - e totuna dacă avem 5 x 200 sau 4 x 250), dar arhitectura procesoarelor AMD64 nu permite o frecvenţă a memoriei mai ridicată decât produsul dintre HTT şi 5:4 (1,25).

Totuşi, dacă creştem HTT-ul la 300 MHz nu se măreşte şi frecvenţa finală a procesorului? Cum va rezista un Athlon 64 de la 2 la 3 GHz? Simplu: prin scăderea multiplicatorului (operaţie posibilă la toate procesoarele AMD, cu un suport minim din partea plăcii de bază); în cazul de mai sus îl vom reduce de la 10x la 7x, rezultând o frecvenţă finală de 2100 MHz, uşor de suportat de către orice procesor.

Plăcile de bază nu acceptă uşor frecvenţe mari ale HTT-ului: unele se plafonează la 220 MHz, altele suportă şi peste 300 MHz cu anumite setări. Mai mult, dacă rulăm asincron (nerecomandat dar posibil) - deci frecvenţa memoriei va fi egală cu HTT-ul înmulţit cu un număr fracţionar (de exemplu 1:2), putem atinge HTT-uri de peste 400 MHz!

Putem jongla cu divizorul dintre HTT şi memorie astfel încât să obţinem performanţele optime. Uneori, datorită latenţelor mai scăzute, o frecvenţă mai mică a memorie ar putea completa perfect nevoile de calcul, astfel încât rularea asincronă la un raport 333:400, adică 5:6, ar putea fi avantajoasă.

4.2.1. Latenţe Numite şi timing-uri, acestea reflectă îndeaproape performanţa memoriei.

Practic, latenţele sunt nişte numere ce reprezintă cicluri de tact dintre diferite stadii de prelucrare a informaţiilor de către memorie. Cu cât acestea sunt mai mici, cu atât performanţele vor fi mai mari, dar cu atât cresc şi şansele ca memoria să nu le suporte.

Latenţele se pot regla din BIOS-ul plăcii de bază (dacă acesta dispune de o astfel de facilitate) sau prin intermediul diverselor utilitare, precum SysTool sau A64Tweaker. Logica de bază a latenţelor va fi explicată în capitolul următor (test plăci grafice) şi vă invităm să o (re)citiţi; în continuare, vom completa acele explicaţii şi ne vom referi la latenţele ce pot fi setate de către utilizator, detaliind semnificaţia acestora.

Fiecare bank al memoriei (un bank fiind o grupare de mai multe chip-uri - de multe ori logică) constă, în realitate, într-o matrice uriaşă, pentru accesarea unei informaţii fiind necesară localizarea unei celule. În acest scop, au loc câteva procese fundamentale: CAS (Column Address Strobe) şi RAS (Row Address Strobe), fiecare fiind dedicat selectării coloanei, respectiv liniei din matrice. RAS-ul constă în câteva etape, prin care informaţia este citită sau scrisă: Active (activează rândul), Read (citeşte informaţia), Write (scrie informaţia); Precharge (şterge informaţiile şi face pregătirile

72

Page 75: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 4: Evaluarea memoriilor pentru reluarea ciclului), deşi nu face parte din ciclul RAS, este strâns legat de acesta din motive evidente. Între Active şi Read/Write are loc şi selectarea coloanei prin intermediul lui CAS, astfel încât la începutul demarării citirii sau scrierii să existe informaţia legată de coordonatele celulei accesate.

Limitarea timpilor necesari desfăşurării acestor operaţii este efectuat prin setarea latenţelor. Dacă acestea sunt prea mici, memoria va pierde informaţii şi vor apărea erori (de la blocaje, erori de program şi ecrane albastre în Windows până la imposibilitatea de a intra în POST).

tCL (CAS Latency), deşi era latenţa de bază în cazul memoriilor SDRAM, importanţa acesteia a scăzut mult la DDR SDRAM. Ea reprezintă timpul minim în care se desfăşoară selectarea coloanei prin intermediul procesului CAS.

Valorile uzuale sunt de 2, 2.5 şi 3, cele mai rapide memorii suportând valoarea 2 la 200 MHz, 2.5 la 250 sau chiar 300 MHz. Valoarea 3 nu este acceptată de unele module, indiferent de frecvenţă, însă la altele ea este strict necesară pentru atingerea de frecvenţe mari. De asemenea, valoarea de 1.5, suportată de unele plăci de bază, nu creează probleme de stabilitate dar nici nu oferă vreun avantaj; în schimb, cele de 1, 3.5, 4 şi 4.5 sunt practic inutile şi, de cele mai multe ori imposibil de setat.

tRCD (RAS to CAS Delay) limitează timpul dintre RAS şi CAS sau, altfel spus, timpul dintre comenzile Active şi Read/Write. Ea este cea mai importantă latenţă pentru memoriile DDR deoarece afectează cel mai mult performanţa.

Memoriile ieftine lucrează cu valori de 3 sau chiar 4, pe când cele mai rapide oferă un tRCD de 2 la 200 MHz, 3 la 250 MHz şi 4 la 300 MHz.

tRP (RAS to Precharge Delay) se referă la timpul de desfăşurare al comenzii Precharge, adică refacerea celulelor pentru reluarea ciclului. Importanţa ei este mai redusă decât cea a lui tRCD şi comparabilă cu tCL.

Valorile uzuale sunt de 2, 3 şi 4; memoriile performante acceptă tRP = 2 la 230 - 250 MHz, apoi 3 la 300 MHz, pe când cele lente lucrează cu 3 şi 4 la 200 MHz.

tRAS (RAS Active Time sau Active to Precharge Delay) este o latenţă foarte interesantă, care iese din tiparele obişnuite. Ea oglindeşte timpul dintre comanda Active şi cea Precharge, limitând practic întregul proces RAS. Deoarece ea include atât tRCD-ul cât şi tCL-ul, o valoare mai mică decât suma acestora două nu va avea nici un efect. Pentru performanţe optime se recomandă o valoare cu 1 sau 2 mai mare decât suma celor două - aceasta deoarece, în mod paradoxal, o valoare prea mică poate chiar reduce (nesemnificativ) performanţa.

Valorile uzuale sunt cuprinse între 5 şi 11, fiecare producător preferând o anumită combinaţie pe care o consideră ideală. Numere mai mici de 5 nu sunt suportate oficial (tRCD + tCL + 1 nu poate fi mai mic de 5), dar unele plăci permit setarea acestora pe riscul utilizatorului (risc de performanţe scăzute, rareori de instabilitate). Per total, impactul asupra performanţei şi stabilităţii este neglijabil.

Trăgând linie, observăm că memoria lucrează într-un mod relativ simplu: se selectează un bank, apoi un rând şi o coloană, se citeşte sau scrie informaţia şi se fac pregătirile pentru reluarea ciclului. Selectarea unui rând nu trebuie să dureze mai puţin decât specifică valoarea tRCD, selectarea unei coloane se supune indicaţiilor lui tCL, timpul de accesare + citire/scriere + „pregătire pentru pregătire” nu trebuie să fie mai redus decât indică tRAS-ul, iar pregătirile pentru ciclul următor nu trebuie să fie mai scurte decât ne spune tRP-ul.

Deşi nu este legată strict de memorie, ci de controller, setarea Command Rate (CMD) este, de departe, cea mai importantă. Numită în diverse moduri (CPC, 2T

73

Page 76: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul Timing, Command per Clock), ea semnifică timpul scurs de la selectarea bank-ului memoriei până la începerea trimiterii comenzilor către acesta.

Valorile posibile sunt 1T şi 2T (notate exact astfel). Orice platformă ar trebui să suporte 1T pentru un maxim de două module de 1 GB.

Pentru a nota timing-urile principale ale unei memorii, vom folosi notaţia CL tRCD-tRP-tRAS CMD, de exemplu CL2 2-2-5 1T sau CL2.5 3-3-7 2T. Dacă setarea CMD este omisă, se va presupune implicit că ea este 1T.

Pe lângă aceste latenţe principale, există câteva ce au o importanţă mai redusă şi pe care le-am descris în continuare, pe scurt. Menţionăm că ele sunt valabile în primul rând pe platforma nForce4, deşi cele multe dintre ele pot fi aplicate şi altor chipset-uri sau chiar altor tipuri de memorii (SDRAM sau DDR2 SDRAM).

• tRC (Row Cycle Time) are o importanţă semnificativă şi reflectă întregul ciclu de parcurgere al unui rând, aşadar RAS (reflectat de tRAS) + Precharge (reflectat de tRP). În mod evident, valoarea minimă este egală cu suma dintre tRAS şi tRP (de obicei nici nu pot fi setate valori mai mici de 5 + 2), însă unele memorii au nevoie de mai mult.

• tRFC (Row Refresh Cycle Time) este timpul minim dintre două operaţii de Refresh aplicate aceluiaşi bank, adică de reîmprospătare a informaţiilor, element vital în cazul oricărei memorii DRAM. Valoarea minimă este în general de 9, însă unele memorii au nevoie de mai mult, mai ales la frecvenţe mari. Impactul asupra performanţei este neglijabil.

• tRRD (Row to Row Delay) limitează timpul dintre RAS şi RAS pentru acelaşi bank. Opţiunea rareori are un rol de luat în seamă, valoarea clasică fiind 2. La nevoie, ea poate fi crescută la 4 dar uneori poate fi scăzută chiar la 0; impactul asupra performanţei se lasă însă aşteptat.

• tWR (Write Recovery Time) reflectă timpul dintre finalizarea unei operaţii de scriere şi operaţia de Precharge. Importanţa setării este redusă, valorile posibile fiind de 2 sau 3.

• tWTR (Write to Read Delay) se referă la timpul dintre o operaţie de scriere şi una de citire în cadrul aceluiaşi bank. Valoarea de 1 oferă cea mai bună performanţă la citire, însă cea de 2 este uneori utilă pentru creşterea stabilităţii la frecvenţe mari.

• tRTW (Read to Write Delay) este similară lui tWTR, dar limitează timpul scurs dintre o operaţie de citire şi una de scriere. Valoarea optimă este 1, însă cea de 4 este indicată pentru şanse mai mari de stabilitate. Dacă tCL este setat altfel decât 2, s-ar putea să fie necesar şi un tRTW de minim 2.

• tREF (Refresh Period) conţine o setare uşor de înţeles dar dificil de setat optim. Este vorba de timpul la care memoria este reîmprospătată; valorile mari oferă o mai bună performanţă în detrimentul stabilităţii, iar valorile foarte mici (sub 2000) o reduc în mod exponenţial. 3120 pare a fi valoarea optimă, ce oferă un compromis bun între performanţă şi stabilitate.

• tWCL (Write CAS Latency) indică o setare de CAS specifică operaţiei de scriere. Cum singura setare posibilă pare a fi cea de 1, nu este cunoscut impactul său asupra performanţei.

Deşi nu este o latenţă, setarea DRAM Bank Interleave are un impact

semnificativ asupra performanţei. Dacă o dezactivăm, diferite bank-uri ale memoriei nu vor putea fi accesate sau reîmprospătate alternativ, ci doar simultan, ceea ce înseamnă

74

Page 77: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 4: Evaluarea memoriilor că nu vom putea folosi mai multe bank-uri în paralel, performanţa scăzând corespunzător.

Majoritatea acestor latenţe sunt obţinute de către placa de bază pe baza citirii SPD-ului (Serial Presence Detect), o tabelă înglobată în fiecare modul de memorie, ce cuprinde diverse alte informaţii pe lângă aceste timing-uri, cum ar fi producătorul memoriei. În momentul pornirii sistemului pentru prima dată, placa de bază citeşte aceste valori şi le setează, cel puţin până la intervenţia utilizatorului care le poate ajusta după cum doreşte. Teoretic, e vorba de latenţele la care producătorul garantează funcţionarea memoriilor, însă practic mulţi dintre aceştia setează valori mai relaxate, pentru mai multă siguranţă.

Acestea fiind zise, putem enunţa o regulă foarte importantă în cazul memoriilor: toate memoriile de aceeaşi capacitate, ce rulează la aceleaşi latenţe şi deţin acelaşi număr de bank-uri (sunt ori single-sided, ori double-sided), vor obţine performanţe identice în toate testele.

Testele realizate au vizat comportamentul diferitelor setări, instrumentele de lucru fiind o placă de bază DFI UT LanParty Ultra-D, un procesor Opteron 146 (2 GHz, frecvenţă reală setată: 200.9 MHz), o placă grafică Gigabyte GV-RX85X256V-B (Radeon X850 XT PE) cu Catalyst 5.11 instalat. Memoriile au format un kit dual-channel de 1 GB şi au rulat în DDR400, modulele fiind double-sided.

Setarea de bază a fost CL2 2-2-5 1T, iar celelalte latenţe au fost reduse la minim, cu excepţia celor suportate neoficiale şi considerate neuzuale. Astfel, tRC a luat valoarea 7, tRFC 9, tRRD 2, tWR 2, tWTR şi tRWT 1. Ultimele trei teste au constat în reducerea multiplicatorului procesorului la 9, rezultând o frecvenţă de aproximativ 1800 MHz (în timp ce memoria a rămas constantă), precum şi în scăderea frecvenţei memoriei la 166 şi respectiv 133 MHz (procesorul a rămas constant). În final, am ales câteva combinaţii uzuale ale latenţelor, pentru a releva impactul asupra performanţei generat de creşterea simultană a acestora.

S-a folosit atât un demo personalizat pentru Quake 3, care a stresat puternic procesorul şi memoria, precum şi mai puţin cunoscutul program de benchmark RealStorm Bench 20041, ce randează scene 3D folosindu-se exclusiv de puterea procesorului.

1 http://www.realstorm.com/

75

Page 78: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul

76

Page 79: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 4: Evaluarea memoriilor

]

77

Page 80: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul 4.2.2. Concluzii

Din rezultatele obţinute mai sus putem trage câteva concluzii, cu menţiunea că acestea ar putea diferi în cazul folosirii altei platforme (altă placă de bază, eventual chipset diferit).

• tCL = 2.5 afectează relativ puţin performanţa; în schimb, setarea la 3 o reduce simţitor.

• tRCD = 3 este cauza unei scăderi semnificative de viteză, iar tRCD = 4 depăşeşte cu puţin ca importanţă tCL = 3.

• tRP = 3 sau 4 este o setare ce are un impact minor, dar neneglijabil. • Command Rate = 2T „omoară dintr-un foc” viteza, aducând-o la nivelul lui

tRCD = 4. • tRAS are o importanţă total nesemnificativă; totuşi, este recomandată o valoare

egală cu suma dintre tCL, tRCD şi 1. • Creşterea lui tRC generează o scădere minoră de performanţă, dar care nu merită

neglijată. Cele mai multe memorii suportă valori mici, drept urmare încercarea merită făcută.

• Importanţa lui tRFC este complet nesemnificativă, similară lui tRAS. • Doar setarea lui tRRD la 4 a limitat viteza, cu toate că extrem de puţin. • tWR, tWTR şi tRWT au avut o importanţă neglijabilă, dar pot face diferenţa

într-un test de performanţă. • Micşorarea cu 200 MHz a frecvenţei procesorului a avut un impact mai

pronunţat decât orice însumare a setărilor. • Scăderea frecvenţei memoriei la 166 MHz a depăşit ca importanţă setarea

Command Rate = 1T, tRCD = 4 sau tCL = 3 însă, cu siguranţă, nu şi suma acestora.

4.3. Modul de testare Memoriile DDR testate au venit ori în kit-uri de 1 GB, ori separat, în module de

câte 512 MB. Diferenţe practic nu există (decât, cel mult, legate de preţ), orice modul modern este capabil să ruleze în mod dual-channel fără probleme.

Ca platformă de testare, sa folosit un procesor Opteron 146 (nume de cod Venus sau San Diego - discutabil, 2 GHz, 0.09 microni) în format Socket 939. Chiar dacă numele de Opteron este asociat mai degrabă serverelor, trebuie ştiut că versiunile pe Socket 939 au preţuri foarte convenabile şi sunt compatibile cu practic toate plăcile de bază recente. Performanţele unui astfel de procesor sunt comparabile cu cele ale unui Athlon 64 3500+, el dispunând de frecvenţa lui 3200+ dar şi de o cantitate dublă de cache L2. Sa făcut această alegere întrucât sa dorit să fim limitaţi cât mai puţin de controller-ul de memorie, care la revizia Winchester era undeva în vecinătatea stadiului de „catastrofal”.

Placa de bază utilizată în primul rând a fost un DFI UT LanParty Ultra-D cu chipset nForce4 Ultra. Deasupra memoriilor am aşezat un ventilator AeroCool X-Flow, în general la turaţie minimă (2200 rpm), doar pentru determinarea frecvenţei maxime fiind folosit la maxim (3800 rpm, zgomot de Airbus).

Alternativ, sa folosit şi o placă Abit AN8 SLi Fatal1ty, ce a edificat unele probleme întâlnite pe DFI (şi care s-au dovedit a fi legate de compatibilitate). BIOS-urile au fost ultimele oficiale: N4D623-3 (23-06-2005), respectiv 18 (18-10-2005).

78

Page 81: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 4: Evaluarea memoriilor Avantajul plăcii DFI constă în stabilitatea mare la frecvenţe ridicate, exemplarul

testat urcând până la 320 MHz folosind BIOS-ul standard; probabil că, dacă am fi recurs la BIOS-uri speciale, am fi atins valori mai mari pentru anumite tipuri de memorii.

Setările efectuate în BIOS au fost alese astfel încât frecvenţa procesorului să nu fie mai mică decât cea implicită. La ce folos să folosim memoria la 320 MHz când procesorul rulează la numai 1600 MHz? De asemenea, multiplicatorul HTT a fost astfel ales încât produsul să nu fie mai mare decât valoarea implicită, de 1000 MHz.

S-au selectat patru praguri: 200, 250, 275 şi 300 MHz, la care sa măsurat latenţele minime principale: tCL, tRCD, tRP, asociate unor latenţe secundare alese astfel încât ele să nu afecteze stabilitatea şi folosind, de preferinţă, Command Rate 1T. Timing-ul tRAS a fost ales în funcţie de tRCD (nu şi de tCL, pentru simplificare): 5 pentru tRCD = 2, 7 pentru tRCD = 3 şi 8 pentru tRCD = 4.

În final, s-au urcat latenţele la CL2.5/3 4-4-10 1T, precum şi alte câteva timing-uri secundare, obţinând astfel frecvenţa maximă la care memoriile rulează cu o performanţă decentă. Desigur, cu 7-7-15 2T am fi obţinut frecvenţe mai mari, dar la o lăţime de bandă prea mică.

Frecvenţe de peste 300 MHz au fost obţinute aproape exclusiv pe platforma DFI. Abit-ul a refuzat categoric orice frecvenţă de peste 296 MHz la o pereche de module normale (double-sided).

Revenind în detaliu la latenţe, pentru DDR400 am ales la tRC valoarea de 10, pentru DDR500 11, pentru DDR550 şi DDR600 12, iar pentru frecvenţa maximă, 14. Chiar dacă practic toate memoriile suportă valoarea 7, am ales una standard şi uzuală.

tRFC a parcurs drumul 12-14-15-15-17, tRRD 2-2-2-2-4, tWR 2-2-2-2-3, tWTR 1-1-1-1-2, tRWT 3-3-3-4-4, iar tREF 3120-3120-3120-3120-2064. Placa Abit a avut probleme cu tRWT, pe care l-a setat la 4 indiferent de dorinţa noastră.

Modelul de la DFI conţine şi alte câteva setări interesante, ele fiind reglate, pe cât posibil, pe valoarea Auto. Nu le vom detalia aici, cu excepţia celor legate de Drive Strength, o opţiune extrem de utilă dacă dorim atingerea frecvenţelor maxime. Practic, este vorba de ajustarea amplitudinii semnalului dintre memorie şi controller, influenţarea acesteia având consecinţe directe asupra stabilităţii. Diferenţe aparent minore, precum revizii diferite ale plăcilor de bază, au o influenţă directă asupra valorilor optime. De asemenea, tipul chip-urilor ce dotează memoriile contează enorm; aici cea mai bună soluţie nu stă în recomandări, ci în invitaţia de a încerca. Durează câteva ore pentru a găsi optimul, iar satisfacţia este garantată pentru pasionaţi.

Pentru a evalua stabilitatea am folosit versiunea 1.65 a popularului Memtest86+2, cu care am rulat de trei ori testul #5, o dată #8 şi câteva procente din #7 (din motive de timp) apoi o versiune pentru Windows3, unde ne-am limitat la 40%, cu excepţia frecvenţei maxime, unde am parcurs întreg testul. Nu afirmăm că o asemenea testare este suficientă pentru a declara o memorie „perfect stabilă”, dar a fost cel mai bun compromis pe care l-am putut realiza.

Ultimul aspect discutat este tensiunea memoriei. Un voltaj crescut poate aduce stabilitate sporită în overclocking, dar creşte în acelaşi timp căldura degajată. Uneori, după o jumătate de oră este necesară scăderea lui pentru a atinge rezultatele optime, chiar dacă în primele minute o tensiune crescută pare a oferi mai multă stabilitate. Şi aceasta indiferent cât de bună este răcirea.

2 http://www.memtest.org/ 3 http://hcidesign.com/memtest/download.html

79

Page 82: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul O regulă empirică spune că dacă memoria „răspunde la voltaj” (adică se

comportă mai bine la o tensiune mărită) atunci îl putem creşte în continuare; condiţia este să avem o răcire bună. Totuşi, nu recomandăm valori mai mari de 3V decât în cazul celor care ştiu cu adevărat ce fac.

4.4. Chip-uri de memorie Pentru mulţi, o memorie se evidenţiază (pe lângă frecvenţe şi

latenţe) prin producător. În general, afirmaţia este falsă, singurii factori care contează cu adevărat sunt chip-urile (peste 90% din importanţă) şi PCB-ul. Acesta din urmă a purtat, de obicei, semnătura cunoscutei companii BrainPower4, renumită pentru produselÎn imaginea alăturată avem câteva exemple de inscripţionări, prin care un PCB poate fi identificat ca BrainPower.

e sale de calitate.

După cum spuneam, tipul chip-urilor din dotare determină întreg comportamentul unei memorii, abia diferenţa dintre produsele cu aceleaşi chip-uri fiind făcută de elemente auxiliare, precum PCB-ul şi eventual radiatoarele ce acoperă memoria.

Există puţine modele populare de chip-uri, ele fiind descrise în continuare. Ne vom referi doar la situaţia în care folosim două module de 512 MB, situaţia fiind diferită pentru 256 MB sau 1 GB deoarece o cantitate mai mare de memorie „stresează” mai mult controller-ul, rezultând frecvenţe maxime mai reduse; desigur, şi reciproca este adevărată, recordurile fiind obţinute întotdeauna cu 2 x 256 MB.

Foarte frecvent este procesul de remarcare a chip-urilor, acestea având inscripţionat producătorul modulului, şi nu fabricantul real al integratelor. Cumpărătorul este astfel derutat, chiar dacă memoriile nu sunt acoperite cu radiatoare.

Samsung TCCD reprezintă, probabil, cele mai bune chip-uri DDR. Ele sunt depăşite pe alocuri în materie de latenţe, dar sunt singurele care depăşesc considerabil frecvenţa de 300 MHz (DDR600). Timing-urile la care lucrează stabil sunt CL2 2-2-x sau 2-3-x pentru DDR400, CL2 sau CL2.5 3-3-7 pentru DDR500, CL2.5 3-3-x, până la CL2.5 4-4-x pentru DDR550 şi CL2.5 4-3-x sau 4-4-x pentru DDR600. Ele răspund la un voltaj de până la 2.8V, însă uneori pot urca până la 3V (rareori mai mult) cu un impact mic asupra frecvenţelor maxime. Cele mai multe rezistă la cel puţin 310 MHz şi se pare că nu agreează setarea CL3, cu care pot genera erori la frecvenţe mari.

Dezavantaj: preţ ridicat. Winbond UTT au fost memorii excepţionale în trecut, mai ales în

versiunea BH5; cu timpul, popularitatea lor a scăzut. Avantajul lor stă în faptul că nu sunt afectate aproape deloc de latenţe, majoritatea oferind cel puţin 240 MHz cu CL2 2-2-x (spre deosebire de TCCD-uri, care se opresc la 215 - 225 MHz). Altă caracteristică a Winbond-urilor, în general, este tensiunea mare la care răspund, ce poate urca până la 4V! Puţine plăci de bază permit aşa ceva, mai ales că un TCCD la 4V s-ar „evapora” instantaneu.

Totuşi, unele UTT-uri creează probleme şi la 3.2V. Pentru DDR400 CL2 2-2-x sunt suficienţi şi 2.7V, situaţie în care nu avem nevoie de răcire suplimentară.

4 http://brain-power.net/menus.php?name=Company&c_lang=english

80

Page 83: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 4: Evaluarea memoriilor Preţul relativ redus este încă un atu al acestor chip-uri. Micron 5B G oferă performanţe de invidiat, rulând fără probleme la CL2 2-2-x

în DDR400, între CL2.5 2-2-x şi CL3 3-2-x în DDR500 şi în CL3 3-3-x mai sus, până în zona lui DDR600. Pe lângă frecvenţele ridicate atinse (totuşi, ceva mai reduse decât la TCCD), avem şi avantajul unor latenţe decente; practic, ele nu au nevoie de setarea 4 pentru tRCD şi tRP, însă se simte afinitatea lor pentru CL3.

Ele răspund la tensiuni de circa 3V, dar au nevoie de răcire activă chiar şi la 2.85V, în caz contrar riscând supraîncălzirea, urmată de apariţia erorilor.

Aceste chip-uri sunt întâlnite, în general, pe modulele provenite de la Crucial, o divizie a companiei Micron Technology. Preţul nu este tocmai redus, dar nici exagerat.

Micron 5B C nu se bucură de aceleaşi avantaje: ating în jur de 240 - 250 MHz cu CL3 3-3-x, dar în DDR400 au un comportament bun: CL2.5 2-2-x. De asemenea, ele răspund la voltaj, chiar şi puţin peste 3V.

Aceste chip-uri se găsesc pe memorii ieftine, la preţuri convenabile. ProMos 5B se comportă foarte bine, atingând frecvenţe apropiate de Micron 5B

G: 270 - 290 MHz cu CL3 4-3-x şi CL2.5 3-3-x pentru frecvenţe de 200 - 250 MHz.

Diverse tipuri de chip-uri Infineon pot fi întâlnite îndeosebi pe memoriile DDR400 ieftine, ce suportă de obicei CL2 3-3-x sau 3-2-x, dar rareori ating 250 MHz. Nu obişnuiesc să răspundă la un voltaj de peste 2.8V decât ocazional.

Numeroase memorii testate au manifestat un comportament similar, rulând cu CL2 3-3-x în DDR400, atingând aproximativ 240 - 245 MHz şi refuzând categoric CL3. Ele au avut chip-urile marcate în diverse moduri: G.Skill, Kingmax, PQI, Princeton, Sycron etc. Bănuiala noastră se îndreaptă către Infineon B5. De asemenea, două alte module au avut un comportament similar, dar au avut o afinitate specială pentru CL3, iar în DDR400 au rulat la CL2 3-2-x; de asemenea, ele au avut probleme de compatibilitate cu placa de bază de la DFI, pe Abit simţindu-se în largul lor. Pe acestea le-am identificat ca Infineon CE-5.

Deşi nu suntem siguri că Samsung TCC4 au stat la baza unui kit din test, comportamentul este asemănător cu informaţiile găsite pe Internet. Ele se pot lăuda cu un comportament foarte slab, atingând 210 - 225 MHz la latenţe CL3 3-3-x, iar în DDR400 nu depăşesc CL2.5 3-3-x.

Afară de acestea, există diverse chip-uri ale căror comportament nu l-am putut testa. Printre ele se numără Hynix D43 şi D5, ambele cu un comportament satisfăcător: 260 - 290 MHz cu timing-uri CL3 4-4-x, respectiv CL2.5 4-4-x.

Samsung TCC5 şi TCCC oferă performanţe total diferite; dacă TCC5 sunt versiuni puţin slabe de TCCD, TCCC-urile ating 250 - 260 MHz cu CL3 4-4-x, iar la 200 MHz nu suportă decât CL2.5 3-3-x.

Samsung UCCC pot fi întâlnite doar pe module de 1 GB şi rulează la 260 - 280 MHz cu latenţe destul de relaxate.

4.4.1. A-Data Vitesta DDR500 Deşi majoritatea modulelor ce poartă

acest nume deţin chip-uri Hynix, cele testate (ce nu fac parte din vreun kit, fiind vândute separat) sunt dotate cu Samsung TCCD. Surprinzător

81

Page 84: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul este preţul foarte redus pentru performanţele oferite, performanţe similare celorlalte memorii ce au în dotare aceleaşi chip-uri.

Modulele sunt acoperite cu radiatoare roşii de aluminiu, iar PCB-ul este de asemenea roşu, fiind produs de BrainPower. Ele sunt certificate CL3 4-4-8 la 250 MHz şi CL2.5 4-4-7 la 200 MHz, cel puţin dacă privim SPD-ul. Se pare că latenţa CL3 este o reminiscenţă de la implementările cu Hynix, din moment ce chip-urile TCCD nu numai că rareori sunt avantajate de aceasta, dar de obicei obţin şi performanţe mai slabe în compania ei. Ce-i drept, nu la 250 MHz, unde nu există probleme.

Testele au arătat un comportament meritoriu. Am remarcat CL2 2-2-5 în DDR400 (peste jumătate dintre TCCD-uri reuşesc această setare), CL2 3-3-7 în DDR500 (CL2 este chiar dificil de obţinut), iar în frecvenţă au urcat până la 312 MHz, o valoare mai degrabă mediocră printre memoriile TCCD.

Concluzie Performanţele foarte bune, în prima jumătate a modulelor dotate cu chip-uri

TCCD, alături de preţul extraordinar de mic constituie avantaje indiscutabile ale acestui produs. Totuşi, dacă nu aveţi posibilitatea să verificaţi chip-urile din dotare (lucru posibil doar prin testarea efectivă), s-ar putea ca memoriile de faţă să nu vă mulţumească decât parţial.

+ performanţe excelente + preţ foarte convenabil + radiatoare din aluminiu - nu toate exemplarele se vor comporta la fel de bine - latenţe prea relaxate înscrise în SPD

4.4.2. Corsair TWINX1024-3200C2PT rev 4.2 Revizia 4.2 a modelului 3200C2PT de la Corsair vine cu chip-uri TCCD, aşezate

pe un PCB BrainPower. Iarăşi avem de-a face cu o memorie foarte ieftină, care îşi face toţi banii, cu toate că este certificată doar DDR400 CL2 (SPD-ul indică doar CL3 3-3-8).

Comportamentul nu a fost impres

a fost de 314 MHz - nici bună, nici rea, dar foarte ridicată dacă ne

produs foarte bun şi ieftin, cu mici probleme pentru un entuziast extrem

ionant pentru un kit cu TCCD-uri, ci impresionant în sine, dacă ne raportăm la preţ. Nu au fost probleme în DDR400 pentru CL2 2-2-5, dar DDR550 şi DDR600 au fost obţinute cu ceva efort, şi doar la latenţe CL2.5 4-4-8 şi respectiv CL3 4-4-8 din cauza tensiunii de alimentare mici pe care memoriile au suportat-o. Practic, pentru CL2.5 în DDR600 avem nevoie de un minim de voltaj crescut, însă C2PT-urile s-au plafonat la 2.7V, orice încercare de a creşte tensiunea peste această valoare soldându-se cu numeroase erori. Setarea CL3, chiar dacă nu este pe placul chip-urilor din dotare, dacă totuşi poate fi „prinsă”, se mulţumeşte cu o tensiune mai mică. Deşi nu putem garanta acest lucru, problema ar putea fi datorată plăcii de bază, care face „mofturi” cu anumite memorii la voltaje mari.

Frecvenţa maximă uităm la zona de preţ din care face parte kit-ul. Concluzie Per total, un, dar suficient de bună pentru a fi luată în calcul de către toate celelalte categorii

82

Page 85: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 4: Evaluarea memoriilor de utilizatori. Din păcate, această versiune se află spre sfârşitul vieţii, reviziile 5.x, ce sunt mai uşor de găsit, fiind considerabil mai slabe.

+ performanţe foarte bune + preţ redus + radiatoare din aluminiu - probleme la tensiune peste 2.7V - nu rulează cu latenţe strânse la frecvenţe mari - latenţe prea relaxate înscrise în SPD

4.4.3. Corsair TWINX1024-3200C2PT rev 5.2 Noua revizie de 3200C2PT se poate lăuda cu un comportament total diferit faţă

de cea anterioară. Chip-urile din dotare sunt ProMos, probabil din seria 5B. Din păcate, DFI LanParty a întâmpinat dificultăţi în combinaţie cu acestea, maximul atins fiind de doar 238 MHz, departe de potenţialul kit-ului. Cu Abit AN8 nu au fost probleme - 286 MHz cu CL3 4-3-8, adică mai mult decât satisfăcător. În schimb, setarea CL2 nu a fost acceptată de Abit în DDR400, cu toate că pe DFI am atins CL2 3-3-7.

Latenţele la 250 MHz au fost CL2.5 3-3-7, iar la 275 MHz CL3 4-3-8, adică la mică distanţă de comportamentul TCCD-urilor; totuşi, nici nu s-a pus problema de DDR600.

SPD-ul este... amuzant pentru o memorie al cărei nume indică foarte clar CL2: CL3 3-3-8 pentru DDR400, CL2.5 3-3-7 pentru DDR333 şi CL2 2-2-6 pentru DDR266.

O particularitate a chip-urilor ProMos este legată de setarea tWTR (Write to Read Delay), care nu este acceptată la valoarea 1 decât la frecvenţe reduse (în jur de 200 MHz), deşi toate celelalte memorii nu au avut probleme de acest gen. Setarea afectează foarte puţin performanţa, deci nu este cazul să ne îngrijorăm.

Cât despre tensiune, nu am obţinut nimic în plus la peste 2.75V. La 2.8V au apărut erori, semn că chip-urile ProMos nu sunt tocmai indicate supravoltării.

Concluzie Preţul este corect, iar frecvenţele atinse potrivite pentru o memorie „de mijloc”.

Sperăm din partea producătorilor de plăci de bază - şi în special din partea lui DFI - o rezolvare cât mai rapidă a problemelor de compatibilitate, ce pot şifona în mod incorect imaginea acestui produs.

+ frecvenţă maximă ridicată + radiatoare din aluminiu - probleme serioase de compatibilitate cu DFI LanParty - probleme minore de compatibilitate cu Abit AN8

4.4.4. Corsair TWINX1024-3200XLPT rev 1.2 Vârful de gamă al celor de la Corsair, seria 3200XLPT, a strălucit din toate

punctele de vedere. Bazată pe clasicele chip-uri TCCD, modulele şi-au întrecut concurenţii în majoritatea testelor, atingând CL2 3-3-7 în DDR500, CL2.5 3-3-7 în DDR550 şi CL2.5 4-3-7 în DDR600. Acest comportament „flawless” a fost completat de frecvenţa maximă de 320 MHz (posibil mai mare, dacă placa de bază ar fi permis, am fi aflat), alături de un răspuns la voltaj de până la 3V!

De asemenea, frecvenţa de 226 MHz atinsă cu timing-urile CL2 2-2-5 a fost mai ridicată decât concurentul direct, G.Skill Extreme Performance FF, motiv pentru care putem declara acest kit ca fiind cel mai bun produs bazat pe chip-uri TCCD. E drept,

83

Page 86: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul orice memorie cu Winbond UTT va rula în CL2 2-2-5 la frecvenţe mai mari, dar de la nişte TCCD-uri nu se poate cere mai mult decât oferă 3200XLPT.

SPD-ul este înscris corect, iar preţul mare, dar corespunzător calităţii produsului. Concluzii Cine este în căutarea celor mai bune memorii cu chip-uri TCCD (practic, a celor

mai potente memorii în materie de frecvenţă), s-ar putea să fi găsit alegerea ideală. + performanţe maxime pentru TCCD + răspuns în voltaj până la 3V + radiatoare din aluminiu - preţ ridicat, deşi perfect justificat

4.4.5. Corsair TWINX1024-3200C2PRO rev 4.1 Interesante ca aspect, excelente din punct de vedere al performanţei, kit-ul

3200C2PRO se deosebeşte de celelalte prin prezenţa LED-urilor ce indică activitatea. Practic, atunci când memoriile sunt folosite intens, aceste lumini „umplu” memoria, creând un efect vizual deosebit.

De asemenea, design-ul modulelor este ieşit din comun, ele fiind ceva mai înalte decât memoriile obişnuite, şi aici ar putea mici probleme la montarea pe anumite plăci de bază, în cazul în care cooler-ele se bazează pe o înălţime standard a modulelor de memorie.

Pe lângă aceste considerente, performanţele au fost foarte bune, kit-ul având la bază aceleaşi chip-uri TCCD. SPD-ul indică un „obositor” CL3 3-3-8, însă nu au fost probleme pentru rularea cu CL2 2-2-5 în DDR400. În rest, nu au am observat diferenţe faţă de alte memorii de acelaşi tip, poate cu excepţia frecvenţei de 318 MHz, foarte apropiată de maximul posibil.

Mici probleme de sensibilitate la tensiune au apărut, dar ele nu au fost nici pe departe atât de grave ca în alte cazuri.

Concluzie Kit-ul 3200C2PRO primeşte nota 10 la capitolul design, în rest rezultatele fiind

excelente pentru orice utilizator. Dacă studiem şi preţul, observăm că el nu este foarte ridicat.

+ performanţe foarte ridicate + LED-uri de activitate, design atrăgător + radiatoare din aluminiu - latenţe prea relaxate înscrise în SPD

4.4.6. Corsair TWINX1024-4400C25PT rev 1.1 Încă un Corsair cu TCCD, nimic spectaculos - s-ar zice. Deşi aşa este, în mare

parte, observăm faptul că aceste module sunt certificate pentru a rula în DDR550 CL2.5 4-4-8. Aşadar, cei neinteresaţi de aspecte precum chip-uri din dotare sau revizii, vor putea achiziţiona fără grijă 4400C25PT pentru a le tacta garantat la 275 MHz. Latenţele specificate sunt mai relaxate decât cele atinse de noi, la frecvenţa nominală obţinând CL2.5 3-3-7.

Probleme cu voltajul mare au existat, dar ele s-au manifestat doar la frecvenţe ridicate. Maximul atins a fost de 316 MHz, o valoare bună.

84

Page 87: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 4: Evaluarea memoriilor SPD-ul nu a concordat cu rezultatele obţinute, fiind indicată doar frecvenţa de

200 MHz pentru latenţele CL2.5 4-4-8. În schimb, noi am atins CL2 2-2-5. Ce putem reproşa acestui kit este preţul, puţin mai ridicat decât cel al kit-ului

3200XLPT, ceea ce ni s-a părut nejustificat. XLPT-urile oferă alte câteva avantaje (minore, ce-i drept, şi care ar putea depinde de la exemplar la exemplar), dar e puţin probabil să existe cândva module XLPT care să nu suporte 250 MHz cu CL2.5 4-4-8, motiv pentru care dintre cele două produse recomandăm categoric kit-ul 3200XLPT.

Concluzie Deşi sunt module de mare performanţă, apropiindu-se de maximul pe care l-am

putut obţine în materie de frecvenţă, preţul - deşi nu exagerat - este mai ridicat decât cel al altor produse similare, posibil mai bune.

+ performanţe foarte ridicate + radiatoare din aluminiu - mici probleme la creşterea tensiunii - valori relaxate înscrise în SPD

4.5. Concluzii Am parcurs împreună treizeci de perechi de memorii ce poartă marca unora

dintre cele mai cunoscute companii ale domeniului. Dintre toate, s-au remarcat modulele cu chip-uri Samsung TCCD şi îndeosebi Corsair TWINX1024-3200XLPT rev 1.2 şi G.Skill Extreme Performance F1-4800DSU2-1GBFF, care au obţinut performanţe maxime. Remarcabilă a fost şi prestaţia modulelor A-Data Vitesta DDR500, ce oferă performanţe apropiate la un preţ extrem de mic, însă nu putem şti ce se ascunde în spatele radiatoarelor: Samsung TCCD sau Hynix.

Trei produse au oferit funcţii suplimentare de afişare. Două dintre ele - Corsair TWINX1024-3200C2PRO rev 4.1 şi Crucial Ballistix Tracer PC4000 posedă LED-uri pentru indicarea activităţii, iar Corsair Xpert TWINXP1024-3200XL rev 1.2 deţine suplimentar un senzor pentru monitorizarea temperaturii şi alte câteva funcţii interesante. În plus, toate trei s-au comportat bine, ceea ce este normal - funcţiile suplimentare nu sunt implementate decât pe modelele high-end.

În gama ieftină am avut numeroase produse ce purtau diverse brand-uri. Dintre ele s-au remarcat Corsair VS1GBKIT400 cu chip-uri ProMos, precum şi G.Skill Normal Series F1-3200PHU2-1GBNT cu Infineon. Din păcate, compatibilitatea chip-urilor ProMos cu platforma DFI a lăsat de dorit, motiv pentru care am premiat modelul de la G.Skill, mai slab dar mai compatibil.

Odată cu apariţia Socket AM2, memoriile DDR vor fi date uitării, locul lor urmând să fie luat de DDR2 - standardul care domină în prezent piaţa Intel. Totuşi, până atunci mai e vreme lungă, impunerea totală a lui DDR2 urmând să survină după mai mulţi ani. Aşadar, nu încercaţi să realizaţi un upgrade forţat doar de dragul de a folosi o tehnologie de viitor! Vă asigurăm că platforma DDR merită încă toată atenţia.

85

Page 88: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

5. Evaluarea plăcilor grafice

5.1. Introducere Se spune că pentru a juca ultimele apariţii în domeniu e nevoie de o placă grafică

de ultimă oră. În general, afirmaţia este falsă: preţul plătit pe această componentă nu trebuie să fie cât cel al unui întreg sistem pentru a se obţine performanţa dorită. Dacă banii nu reprezintă deloc o problemă, se găsesc plăci cu răcire cu apă la preţuri de ordinul a 1000 de euro, cu potenţial mare de overclocking şi, în jocurile obişnuite, cu circa 50% mai rapide decât o placă ce costă de cinci ori mai puţin. Iar acei 50% se traduc prin posibilitatea de a (nu) juca în rezoluţii mai mari şi/sau cu nivelul de detalii foarte ridicate. Nimic mai mult. În plus, trecerea este, de obicei, insesizabilă, ochiul uman se poate adapta foarte uşor la o calitate cu puţin mai scăzută, iar adevăraţii gameri nu se uită la detaliile graficii. Ei pur şi simplu joacă. Campionii shooter-elor se folosesc de rezoluţii mici (uneori 640x480) şi de un nivel minim de detalii, motivul fiind obţinerea numărului maxim de fps.

Desigur, majoritatea utilizatorilor au jocurile ca pasiune, fie ea mai mare sau mai mică şi, în consecinţă, vor opta pentru rezoluţii între 1024x768 şi 1280x1024, cu detaliile la (sau spre) maxim, dar fără nivele exagerate de anizotropie1 şi anti-aliasing. Cum plăcile de bază cu suport pentru bus-ul PCI Express sunt din ce în ce mai populare, achiziţionarea unei plăci grafice pe AGP nu este recomandată decât celor care ştiu că vor rămâne la actuala platformă cel puţin un an de acum înainte. Astfel, am studiat piaţa românească şi am ajuns la concluzia că plăcile grafice care satisfac cel mai mult nevoile unui jucător normal (nu ocazional sau profesionist, dar nici „maniac” al imaginilor de cristal) sunt cele bazate pe chip-ul GeForce 6600 GT.

Să vedem ce înseamnă GeForce 6600 GT. Seria GeForce 6 de la NVIDIA se compune din trei familii: GeForce 6800, 6600 şi 6200. Din punct de vedere al performanţei, diferenţele depind, în principal, de trei factori: frecvenţele (două - una pentru chip şi una pentru memorie), numărul de pipeline-uri (tot două - unul de pixel, celălalt de vertex) şi lărgimea bus-ului memoriei. GeForce 6600 GT deţine opt pipeline-uri de pixel (faţă de 8, 12 sau 16 la seria 6800, dar 4 la 6200) şi trei de vertex (4, 5 sau 6 la 6800 şi tot atâtea cât are 6200). Bus-ul memoriei este de 128 de biţi, la jumătate faţă de 6800, în timp ce, la unele modele de GeForce 6200, el este de 64 sau chiar 32 de biţi (dar, pe de altă parte, 6200 înzestrat cu tehnologia TurboCache care poate folosi memoria sistemului ca memorie video).

Cel mai interesant aspect este legat de frecvenţe. Versiunea GeForce 6600 „simplu” nu oferă decât 300 MHz pentru core, valoarea fiind apropiată de cea a suratelor pe 256 de biţi (GeForce 6800), însă 6600 GT deţine 500 MHz, mai mult decât orice model de 6800. Cauza stă în procesul de fabricaţie: 0.11 faţă de 0.13 microni, existând astfel posibilitatea atingerii de frecvenţe mai mari. Tactul memoriei este de 550 MHz la 6600 şi de 1000 MHz (sau 900 la versiunea pe AGP) în cazul lui 6600 GT. Şi tipul ei diferă: GDDR în prima situaţie, GDDR3 în cea de-a doua (practic, GDDR3 este un DDR2 optimizat pentru operaţii grafice, performanţa sa fiind similară cu cea a unui 1 Proprietate a unei substanţe de a prezenta caracteristici fizice variate în funcţie de direcţia de măsurare şi de observare (definiţie DEX).

86

Page 89: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 5: Evaluarea plăcilor grafice GDDR tactat la aceeaşi frecvenţă - însă GDDR-ul nu are nici o şansă de a atinge 1 GHz).

Trăgând linie, observăm câteva avantaje de partea lui 6600 GT în comparaţie cu seria 6800. Să luăm ca exemplu GeForce 6800 „simplu”, cel mai lent din serie (excluzând „neserioasa” variantă LE). Plăcile ce îl încorporează beneficiază de memorie tactată la 700 MHz, în timp ce chip-ul rulează la 325 MHz. Aşadar, cu 175 MHz mai puţin la core şi cu 300 MHz mai puţin la memorie. Dacă ţinem cont de faptul că lărgimea bus-ului memoriei este dublă la 6800, obţinem o lăţime de bandă echivalentă cu cea a unei frecvenţe de 1400 MHz pe 128 de biţi (256-bit @ 700 MHz <=> 128-bit @ 1400 MHz). Aşadar, avem şi un avantaj, şi un dezavantaj. Dar dacă adăugăm încă patru pipeline-uri de pixel, obţinem justificarea pentru care GeForce 6800 costă cu circa 50% mai mult decât un 6600 GT: performanţe cu 20÷50% mai mari, în funcţie de rezoluţie şi setări, dintre care un procent de 20÷25% este datorat exclusiv pipeline-urilor suplimentare.

Privind facilităţile, familia GeForce 6 oferă aceleaşi funcţii de bază, printre care se numără ceea ce NVIDIA numeşte CineFX 3.0 (Pixel şi Vertex Shader 3.0, faţă de 2.0 la generaţia a cincea a lui GeForce) şi IntelliSample 3.0 (Full-Scene Anti-Aliasing şi Anisotropic Filtering cu performanţe superioare celor întâlnite la IntelliSample 2.0, ce înzestra seria GeForce FX). Deşi relativ neinteresante, enumerăm şi alte funcţii prezente: accelerare hardware MPEG-2 (DVD, HDTV) şi Windows Media 9, şi două RAMDAC-uri integrate - ce rulează la 400 MHz şi oferă posibilitatea prezenţei a două ieşiri video, dintre care una de tip digital (DVI); rezoluţia maximă este de 2048x1536 la 85 Hz.

Toate plăcile din test au dispus de două ieşiri, dintre care cel puţin una de tip DVI (destinată anumitor modele de monitoare LCD). Unele plăci au oferit, prin intermediul unui chip extern (produs de Philips), două ieşiri digitale. Desigur, în cazurile în care ieşirea normală (D-Sub) era absentă, era livrat şi un adaptor pentru ca placa să poată fi folosită în combinaţie cu monitoarele clasice. De asemenea, intrările Video-In şi Composite-In au fost prezente la anumite produse, ele fiind declarate VIVO, dar şi preţul a crescut în consecinţă.

Un ultim aspect discutat aici este legat de dimensiunea memoriei. Unii producători nu realizează sau nu vor să realizeze faptul că 256 MB de memorie la un 6600 GT este „frecţie la picior de lemn”. Sporul de viteză este foarte redus, rare fiind cazurile în care performanţa creşte cu mai mult de 5% şi foarte multe cele în care ea nu creşte deloc. Cei 128 MB suplimentari nu ar fi o problemă dacă preţul nu ar fi urcat de acest aspect; cu alte cuvinte, pentru 5% de performanţă în 1% din cazuri se pot plăti în plus câteva zeci de dolari.

5.2. Frecvenţe şi latenţe

5.2.1. Frecvenţe NVIDIA specifică pentru chip-ul GeForce 6600 GT frecvenţe de 500 MHz

pentru nucleu şi de 1 GHz pentru memorie. Aceasta nu înseamnă că ele sunt „bătute în cuie”, diverşi producători vânzând plăci cu frecvenţele mărite. Se cheamă overclocking din punct de vedere al chip-ului, nu şi din punct de vedere al plăcii. Altfel spus, NVIDIA nu garantează funcţionarea în acei parametri, fabricantul însă da. Şi acesta din urmă este cel care acordă garanţia.

87

Page 90: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul Deseori, creşterea frecvenţelor este însoţită de creşterea preţului şi de ataşarea

unui sufix denumirii produsului. Astfel, Gainward şi-a denumit versiunea overclock-ată GLH (Goes Like Hell), iar Leadtek Extreme Edition. Uneori, ele reprezintă modele selecţionate, alteori doar plăci comune cu tactul crescut.

Frecvenţele pot fi ajustate în continuare de către utilizator prin intermediul aplicaţiilor specializate sau chiar din drivere, operaţiune descrisă în seminar. Sa preferat utilitarul RivaTuner2 şi am considerat ca frecvenţe maxime valorile la care nici ATITool3 (pe durata unui minut şi jumătate, după ce placa a fost încălzită în prealabil) şi nici jocurile/benchmark-urile rulate nu au generat artefacte4 vizibile. Prin aceasta înţelegem artefacte care pot fi detectate de o persoană experimentată, ce are privirea aţintită asupra monitorului pe toată durata testului.

Pentru început, s-a efectuat o filtrare preliminară cu ajutorul lui ATITool. După experimente repetate sa ajuns la concluzia că testul din jocul FarCry este extrem de solicitant pentru GPU, fiind prima aplicaţie care generează anomalii vizuale, chiar şi atunci când toate celelalte teste rulează fără probleme. Mai exact, apa din depărtare (unde Pixel Shader-ul „lucrează din plin”) prezintă unele dreptunghiuri în plus.

Frecvenţa maximă a memoriei video obţinută cu ATITool a fost întotdeauna cea corectă. Dacă ATITool nu generează artefacte, nici celelalte teste nu o vor face, sau sunt şanse foarte mici să o facă. Vă putem asigura că testele de overclocking au fost realizate în condiţiile precizate mai sus, testarea nefiind exhaustivă dar nici superficială. Temperatura ambiantă din timpul testelor a fost de aproximativ 25-28 de grade Celsius.

Pe lângă frecvenţe, un factor care influenţează în mai mică măsură viteza este reprezentat de latenţe. Să vedem ce înseamnă acestea.

5.2.2. Latenţe Memoria DRAM are nişte principii de funcţionare bine definite. Informaţia nu

este citită/scrisă pur şi simplu, ca şi cum un om ar citi o carte sau ar scrie un text pe o foaie de hârtie. Există anumiţi timpi de aşteptare între diversele operaţii pe care memoria va trebui să-i respecte, indiferent dacă etapa anterioară a fost sau nu completată. Să presupunem că pe tot traseul Bucureşti - Ploieşti - Braşov - Cluj-Napoca - Oradea se află câte o persoană care va porni către oraşul următor la ore prestabilite pentru a-i înmâna celeilalte o scrisoare, întocmai ca o ştafetă. Există, însă, o diferenţă importantă faţă de ştafeta clasică: indiferent când soseşte omul cu scrisoarea, cel care preia ştafeta va trebui să plece la ora indicată. Dacă omul din Ploieşti ajunge în Braşov la ora 8:01, iar indicaţiile spun că omul din Braşov trebuie să plece mai departe la 8 fix, atunci scrisoarea va fi pierdută şi întreg lanţul se va distruge. Invers, dacă omul din Ploieşti ajunge la Braşov la ora 7:59, minutul diferenţă este un „timp mort”, dar ştafeta este predată.

La fel funcţionează şi memoria. Dacă etapa X nu este îndeplinită în timpul predefinit (măsurabil în cicluri de tact), informaţia pe care etapa Y trebuie să o preia va fi distrusă. În cazul memoriei sistemului, un singur bit omis va compromite, cel mai probabil, stabilitatea sistemului, apărând ecrane albastre sau resetări. În cazul memoriei plăcii grafice, problema se va manifesta prin apariţia artefactelor. Cum ciclurile de tact 2 http://www.guru3d.com/index.php?page=rivatuner 3 http://www.techpowerup.com/downloads/Tweaking/ATITool 4 artefacte = Imagine falsă apărută în preparatele histologice produsă artificial sau datorită unor defecte de fixare ori de colorare. 2. (Cib.) Semnal parazit supus unei informaţii, în semnificaţia căreia joacă un rol nul sau negativ.

88

Page 91: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 5: Evaluarea plăcilor grafice sunt mai lungi la frecvenţe mai mici (frecvenţa însăşi reprezintă numărul de cicluri de tact ce au loc într-o secundă, deci 1 GHz înseamnă un miliard de cicluri pe secundă), este evident faptul că latenţe mai mari înseamnă şanse mai mari de preluare corectă a ştafetei, şi deci de o imagine clară, fără probleme.

Optimizarea latenţelor memoriei înseamnă reducerea la minim a acelor „timpi morţi”. În cazul ideal, exact în momentul în care operaţia X este completată, operaţia Y îşi începe activitatea. Practic, producătorii lasă o marjă de eroare, introducând aceşti timpi suplimentari tocmai pentru că plăcile diferă de la exemplar la exemplar şi este posibil ca o memorie să fie mai „sprintenă” decât alta din cauze de natură electrică; prin setarea aceloraşi latenţe, toate memoriile vor avea aceeaşi performanţă, indiferent de viteza lor internă. Însă prin intervenţia utilizatorului, latenţele pot fi reduse la minimul acceptabil, la fel cum frecvenţele pot fi crescute (prin overclocking) la maximul posibil.

Reglarea latenţelor unei plăci grafice nu este o operaţie atât de facilă ca în cazul setării memoriei sistemului. Aici nu există un BIOS Setup, în care se intră cu tasta Del şi se setează tot ce se poate seta. Aici avem doar mijloace rudimentare, precum editorul de BIOS NiBiTor şi utilitarul de setare a latenţelor nTimings. În lipsa unei documentaţii oficiale în acest

sens, programele de acest tip sunt realizate empiric de către amatori, având numeroase necunoscute. Totuşi, este foarte probabil să ne putem face treaba cu ele. Astfel, nTimings poate seta latenţele în timp real şi astfel putem evalua stabilitatea imediat, folosind funcţia de detecţie a artefactelor din ATITool. După ce am stabilit aceste latenţe, este bine să rulăm câteva jocuri sau teste 3D (precum 3DMark), pentru a verifica suplimentar stabilitatea memoriei, mai exact lipsa artefactelor. Rezultatul final? Performanţa va creşte cu câteva procente preţioase.

Dacă utilitarul RivaTuner este instalat în directorul C:Program Files&$92;RivaTuner (şi nu altundeva!), prin acţionarea butonului Show GPU registers vom vizualiza latenţele curente. Avem trei rubrici, fiecare conţinând opt numere. Pentru toate plăcile testate (şi dotate cu memorii GDDR Samsung de 1.6 sau 2 ns), latenţele implicite au fost 060F1B15 - 09010509 - 20250407. Pentru a nu intra în detalii, încercaţi mai întâi să reduceţi latenţa 6 din primul grup la 5 sau chiar 4 (contează mult la performanţă); 0F poate fi adus fără probleme la 00, iar ultimele două, 1B şi 15, ar putea fi reduse la 13 cu 10, eventual chiar mai puţin (toate cele trei setări afectează extrem de puţin performanţa). Din grupul al doilea, numărul 1 poate fi redus la 0, iar prima apariţie a lui 9 poate fi scăzută (cu mari riscuri de artefacte) la 8. Din ultima categorie, 202 poate fi transformat sigur în 000 (deşi latenţele sunt complet nedocumentate şi nu par să afecteze viteza în vreun fel), iar 5, 4 şi 7 ar putea fi aduse la 4, 3 şi respectiv 6 (cu menţiunea că acel 7 transformat în 6 afectează mult performanţa, dar setarea sa este dificilă). Încercaţi să editaţi cifrele direct pentru că programul este foarte primitiv şi deţine un bug la acţionarea butoanelor.

Latenţele ideale le puteţi descoperi singuri. Pentru alte plăci decât cele cu memorii de acest tip, este foarte probabil ca latenţele să fie altele şi placa să se comporte diferit la scăderea lor.

Dacă aţi obţinut o configuraţie a latenţelor, este necesară rescrierea BIOS-ului plăcii grafice pentru ca setările să devină permanente. Operaţia este lipsită de riscuri (durează 10-15 secunde şi, afară de cazul în care curentul se întrerupe în acel moment, nu aveţi de ce să vă temeţi). Va trebui să creaţi o dischetă de boot, împreună cu utilitarul

89

Page 92: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul nvflash5 (NVIDIA Firmware Update Utility), urmând a executa de pe dischetă comanda nvflash --save bios.rom, creându-se astfel un fişier care va conţine BIOS-ul original al plăcii. Copiaţi fişierul pe hard disk sau chiar pe un CD (o dischetă se poate defecta foarte uşor) - el este vital pentru revenirea la situaţia iniţială în caz de nevoie. Boot-aţi apoi în Windows şi deschideţi fişierul cu NiBiTor. În tab-ul Timings, veţi căuta latenţele originale (060F...), în cazul nostru fiind găsite la categoria Timingset 7. Reglaţi-le după cum doriţi, salvaţi fişierul (să zicem bios_nou.rom) înapoi pe dischetă şi boot-aţi de pe ea, urmând să rescrieţi BIOS-ul dând comanda nvflash bios_nou.rom. Dacă programul refuză scrierea, încercaţi comanda nvflash -4 -5 -6 bios_nou.rom.

Tot cu NiBiTor se poate regla frecvenţele de funcţionare. Ele pot fi setate şi din drivere sau din RivaTuner (cu aplicare directă la pornirea sistemului de operare), însă dacă le scrieţi în BIOS, ele devin permanente şi independente de software. Cum orice placă din generaţia GeForce FX sau GeForce 6 deţine două frecvenţe de funcţionare, una pentru modul 2D şi alta pentru cel 3D, valorile care interesează sunt ultimele, deci alegeţi opţiunea corectă.

Nu uitaţi, la frecvenţe mai mari se pot seta latenţe mai puţin mici, aşadar mai întâi stabiliţi frecvenţa maximă de overclocking şi abia apoi treceţi la capitolul latenţe. Dacă veţi considera că după overclocking placa este prea fierbinte, umblaţi doar la frecvenţe, pentru că reducerea latenţelor nu afectează în nici un fel temperatura plăcii.

Observaţie: anumite plăci deţin BIOS-uri incompatibile cu NiBiTor - cel puţin cu versiunea 2.1. Cauza este aceeaşi lipsă de documentaţie, utilitarul fiind creat prin metode empirice. Astfel, una dintre plăcile testate a avut înscrise frecvenţele de 65536 şi

255 MHz. Nu încercaţi să modificaţi aceste valori pentru că riscaţi să „defectaţi” BIOS-ul.

Rescrierea unui BIOS scris greşit se face simplu dacă aveţi o placă grafică PCI la îndemână: setaţi în BIOS-ul plăcii de bază ca pornirea să se facă utilizând placa PCI (opţiunea va fi Init Display First sau ceva asemănător). Apoi inseraţi în sistem ambele plăci (cea PCI Express şi cea PCI) şi boot-aţi de pe discheta cu utilitarul de scriere a BIOS-ului. Acum puteţi urma metoda clasică; programul nvflash va detecta faptul că în sistem se află şi o placă PCI Express (cu BIOS defect) şi îi va rescrie corect BIOS-ul.

Dacă aţi lucrat corect şi „curat”, nu veţi avea probleme. Înainte de a vinde sau a returna placa la magazin (în cazul defectării), este bine să-i rescrieţi BIOS-ul cu cel original. Cu toate acestea, XF nu poate fi făcut răspunzător pentru defectarea sau pierderea garanţiei unei componentei hardware cauzată de urmarea sfaturilor incluse în acest curs. Dacă nu aveţi cunoştinţele necesare efectuării acestor modificări sensibile, consideraţi această secţiune a cursului pur informativă.

Toate plăcile au fost testate atât în condiţii normale (frecvenţe şi latenţe implicite), cât şi după ce s-a crescut frecvenţele la maxim şi respectiv s-a scăzut latenţele la minim.

Sistemul de test a fost constituit dintr-un procesor Athlon 64 3200+ Winchester, o placă de bază Abit AN8 (nForce4), memoriile Corsair TwinX1024-4400C25PT fiind setate în CL2 2-2-5 1T; software folosit: Windows XP SP2, ForceWare 71.84.

5 http://www.xf.ro/downloads/nvflas.rar

90

Page 93: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

6. Evaluarea hard discurilor

6.1. Introducere Hard discul sau discul dur este un dispozitiv non-volatil pentru stocarea

datelor. Stocarea se face pe o suprafaţă magnetică dispusă sub forma unor platane. În general sunt utilizate ca suport de stocare extern principal pentru calculatoare personale, dar şi pentru anumite aparate electronice (DVD Playere, MP3 playere). Dacă la începuturi capacitatea unui hard disc nu depăşea 20 MO, astăzi, un hard disc obişnuit poate depăşi 500 GO.

Fig. 5.1: Hard Disc Seagate Barracuda ATA

Fig. 5.2: Secţiune transversală prin suprafaţa magnetică în lucru. În acest caz datele binare sunt

codate folosind modulaţia în frecvenţă.

6.2. Structură şi funcţionare Un hard disc este format din:

• o placă de control logic; • un număr de platane (de obicei 2 sau 3), împărţite în piste, cilindrii şi sectoare; • capete magnetice de o parte şi de alta a platanelor legate printr-un braţ metalic; • un sistem electro-mecanic de blocare a capetelor pe pista de stop (landing-zone); • un motor electric pas-cu-pas.

Fiecare platan (disc) are doua feţe şi este divizat într-un număr de piste, fiecare

pistă fiind divizată în sectoare. Platanele sunt astfel aranjate încât pista 0 de la platanul 1 91

Page 94: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul să fie exact deasupra pistei 0 de la platanul 2. Pentru a accesa o pistă oarecare pe unul din platane, braţul care susţine capetele va muta capetele spre acea pistă. Deoarece această metodă necesită doar un singur mecanism de poziţionare, simplifică design-ul şi coboară preţul. Totuşi, pentru aceasta trebuiesc mutate toate capetele pentru a accesa o singură pistă. Deci, pentru a citi date de pe pista 1 de pe platanul 1, apoi pista 50 pe platanul 3 si apoi iar pe pista 1 de pe primul platan, întregul braţ cu capete trebuie mutat de doua ori. Pentru a muta un braţ ca acesta trebuie un timp semnificativ comparativ cu timpul de transfer. Pentru a minimiza acest lucru, trebuie prevenit ca datele sa fie împrăştiate pe mai multe piste. O metodă de a optimiza timpul de acces este ca un grup de date care sunt accesate secvenţial să fie scrise pe o singură pistă. Dacă datele nu încap pe aceeasi pistă, atunci este optim să fie scrise pe aceeaşi pistă, dar pe un platan diferit. Prin această metodă, braţul nu mai trebuie să execute mişcări. Doar capul de citire şi scriere cel mai apropiat trebuie să fie selectat pentru a efectua operaţia de citire. Selectarea capetelor este mult mai rapidă decât mişcarea fizică a braţului care susţine capetele pentru a schimba pistele. Se mai foloseşte termenul de cilindru pentru a descrie multiplele platane suprapuse. Un cilindru se referă la toate pistele care au acelaşi număr de pistă, dar care sunt localizate pe diferite platane.

6.2.1. Transferul datelor la memorie Modalitatea în care datele sunt transferate în memorie determină viteza efectivă

a combinaţiei controler - hard disc. Sunt folosite patru metode: • Programmed I/O - Cu aceasta metodă, porturile controlerului au grijă atât de

comenzile drive-ului cât şi de transferul de date între controler şi memorie. Se folosesc comenzile IN şi OUT ale limbajului de asamblare. Aceasta înseamnă că fiecare octet este transferat prin intermediul procesorului. Aici, viteza datelor va fi limitată la cea a bus-ului PC şi la performanţa procesorului.

• Memory Mapped I/O - Procesorul poate procesa datele provenite dintr-un controler de disc mult mai repede dacă sunt stocate într-o regiune fixă de memorie. Segmentul localizat deasupra memoriei video RAM este folosit în general cu acest scop. Datele sunt transferate cu ajutorul instrucţiunii de transfer (mov în cazul arhitecturii x86). Este mai rapidă decât metoda precedentă.

• DMA - Folosind DMA (Direct Memeory Access), un dispozitiv poate transfera datele direct în memorie. Procesorul nu participă la acest transfer. Pentru a folosi DMA, un program trebuie să îi precizeze controlerului DMA mărimea în bytes a pachetului de date ce urmează a fi transferat dintr-o locaţie într-alta. Totuşi, controlerul DMA într-un PC este inflexibil şi lent. Controlerele DMA operează la 4 MHz, în concluzie sunt extrem de lente.

• Busmaster DMA - Folosind această metodă, controlerul hard-discului deconectează procesorul de la bus şi transferă datele în memorie singur.

6.2.2. Interfeţe şi controlere ESDIControlerul ESDI a fost dezvoltat după controlerul ST506, şi a fost unul din

primele controlere de hard discuri pe calculatoare x86. Acest tip de controler a fost folosit în modelele IBM PS/2. Pentru că separatorul de date şi controlerul lucrează în paralel, rata de transfer este aproximativ 10 megabiţi/secundă la modelele iniţiale, respectiv 15, 20 megabiţi la cele recente. Hard discurile ESDI stochează informaţii despre formatul fizic şi adresele sectoarelor defecte şi poate transmite aceste informaţii

92

Page 95: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 6: Evaluarea hard discurilor controlerului, pentru identificare şi corectare de erori. Nu mai este utilizat decât pe scară redusă.

SCSIControlerele SCSI (Small Computer System Interface) sunt folosite în special în

sistemele care au nevoie de performanţă şi stabilitate ridicată (servere, staţii de lucru performante).

ATA/PATA (IDE/EIDE)Controlerul IDE (Integrated Drive Electronics), cel mai folosit în calculatoarele

personale de astăzi foloseşte un singur cablu de 40 pini care combină funcţiile unui cablu de date şi al unuia de control care conectează discul IDE direct la magistrala (bus-ul) de sistem. Controlerele IDE au abilitatea de a emula orice format de disc. Din cauza consumului redus de energie, este una din soluţiile folosite pentru calculatoarele portabile. Controlerul IDE permite legarea pe acelaşi cablu a două hard discuri sau a unui hard disc şi al unei unităţi optice în sistem master/slave. Această arhitectură a dus la incompatibilităţi între unităţi în anii '90, care însă au fost rezolvate.

SATAControlerele SATA plaseaza fiecare disc pe propriul canal (cu un set propriu de

porturi intrare/ieşire). Astfel se elimină problemele cauzate de arhitectura PATA. USB/Firewire(IEEE 1394)

Există şi discuri portabile care folosesc interfaţa USB sau Firewire pentru a transmite datele. De obicei discurile acestea sunt ansambluri formate dintr-un disc IDE sau SCSI, un controler pentru acestea şi un controler USB/Firewire.

6.3. Caracteristici • Capacitatea (măsurată în gigaocteţi) - în general fabricanţii folosesc ca unitate de

măsură multiplii din SI ai octetului (putere de 10), pe când multe sisteme de operare (Windows, unele distribuţii de Linux, MacOS folosesc măsurătoarea în multiplii binari). Dacă primul hard disc avea 5 MO, astăzi capacităţile hard discurilor pot depăşi 500 GO.

• Dimensiunea fizică, măsurată în ţoli (inch). Astăzi hard discurile au fie 3.5" (pentru PC-uri), fie 2.5" (pentru laptopuri - mai mici, utilizând mai puţin curent electric dar mai scumpe şi mai încete). Există şi discuri de 1.8", pentru playere MP3 (precum Apple iPod), care pe lângă mărimea redusă, sunt mai rezistente la şocuri.

• Durabilitate (exprimată în timp mediu între erori - MTBF). Discurile SATA 1.0 au viteze de 10.000 rpm şi un MTBF de 1 milion de ore sub un ciclu de utilizare de opt ore. Alte discuri permit până la 1.4 milioane de ore sub un ciclu de 24 de ore.

• Număr de operaţii de intrare ieşire permise • Consum de curent • Nivel de zgomot • Timpi de transfer şi timpi de acces.

93

Page 96: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul 6.3.1. Optimizarea timpilor de căutare

Ordinea optimă de executare a comenzilor primite de hard disc pentru a reduce latenţele de căutare este ordinea care minimizează mişcarea mecanică.

O analogie destul de sugestivă ar fi un ascensor. Dacă toate opririle ar fi executate în ordinea în care s-au apăsat butoanele, liftul ar funcţiona într-o manieră foarte ineficientă şi ar pierde foarte mult timp pentru a circula între diferitele locaţii.

Oricât pare de incredibil, majoritatea hard discurilor existente pe piaţa de desktop-uri în ziua de astăzi funcţionează în acest mod ineficient. Ascensoarele au evoluat până la stadiul de a "înţelege" că reordonarea locaţiilor va avea ca efect un mod de funcţionare mai economic şi mai rapid.

Odată cu apariţia modului de transfer Serial ATA, nu numai că este posibilă reordonarea comenzilor dintr-un anumit punct de start, dar schema este dinamică.

Acest lucru se traduce prin faptul că la orice moment de timp pot fi adăugate la coada de aşteptare a comenzilor (queue) cerinţe de execuţie adiţionale. Acestea pot fi încorporate într-un thread în desfăşurare sau pot fi amânate pentru următoarea serie de execuţie a comenzilor.

Traducând aceste lucruri în tehnologie HDD, reducerea mişcării mecanice într-un drive poate fi realizată prin existenţa unei cozi de comenzi şi prin reordonarea acestora pentru a oferi datele cerute într-o manieră eficientă.

Cât timp drive-ul execută o comandă, o nouă comandă poate intra în această coadă de aşteptare, iar dacă ea va putea fi procesată cel mai eficient din punct de vedere mecanic, atunci va fi următoarea comandă care va fi executată.

Totuşi, simpla reordonare a comenzilor bazată pe locaţia de destinaţie a capului de citire/scriere deasupra platanului nu este cea mai eficientă soluţie. La fel ca în cazul liftului, care nu se va opri brusc atunci când o persoană apasă butonul unui etaj pe lângă care tocmai a trecut, HDD-urile vor folosi algoritmi complecşi pentru a determina cea mai bună comandă pe care să o execute în continuare.

6.3.2. Optimizarea latenţelor de rotaţie Timpul de rotaţie reprezintă durata necesară pentru ca blocul logic de început al

datelor cerute să se rotească până când ajunge sub capul de citire scriere, după ce, în prealabil, acesta s-a poziţionat pe pista corespunzătoare.

În cel mai rău caz posibil, platanul ar trebui să parcurgă o rotaţie completă până când aplicaţia ar putea accesa datele cerute. Acest timp depinde, bineînţeles, de viteza de rotaţie a hard discului.

O viteza de rotaţie a platanelor mai mare este o modalitate în care se pot reduce latenţele de rotaţie. Totuşi, creşterea acestei viteze implică un cost adiţional substanţial. Timpii de rotaţie pot fi minimizaţi, de asemenea, prin alte două moduri de abordare. Primul este reordonarea comenzilor într-un mod astfel încât latenţa de rotaţie să fie minimizată. Această optimizare este similară cu cea din cazul timpilor de căutare.

Al doilea mod de optimizare implică folosirea unei funcţii denumite "out-of-order data delivery". Aceasta presupune ca braţul să nu acceseze neapărat blocul logic de început al datelor cerute, ci să citească din orice poziţie aflată în interiorul zonei de date corespunzătoare.

Astfel, drive-ul începe să citească datele cerute imediat cum s-a poziţionat pe pista corespunzătoare şi adaugă datele lipsă (cele aflate între blocul logic de început şi cel de la care s-a început efectiv citirea) la sfârşitul aceleiaşi rotaţii.

94

Page 97: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 6: Evaluarea hard discurilor Folosind tehnologia "out-of-order data delivery", în cel mai rău caz, transferul

va fi complet în maxim o rotaţie a platanului. Fără implementarea acestei funcţii, cel mai rău "scenariu" implică un timp de o rotaţie, la care se adaugă durată de timp necesară pentru a citi blocurile logice de date cerute.

6.3.3. Tehnologia NCQ Native Command Queuing (NCQ) este o tehnologie realizată pentru a creşte

performanţele hard discurilor SATA. Ea a fost dezvoltată de Intel şi Seagate odată cu apariţia modului de transfer SATA pentru dispozitivele de stocare.

Bineînţeles, NCQ asigură performanţe mai bune şi eficienţă prin intermediul unei reordonări eficiente a comenzilor. În plus, există trei noi capabilităţi care sunt încorporate protocolului Serial ATA pentru a îmbunătăţi performanta NCQ:

• Race-Free Status Return Mechanism, • Interrupt Aggregation şi • First Party DMA. Nu vom intra în detalii despre modul în care hard discurile "echipate" cu

tehnologia NCQ realizează această mult dorită reordonare a comenzilor pentru a mari performanţele. Ideea de bază este că Native Command Queuing "se simte" atunci când mai multe comenzi sunt lansate către drive, acesta reordonându-le pentru a reduce atât timpul de căutare, cât şi pe cel de rotaţie.

Pentru ca NCQ să fie activat, trebuie să fie suportat şi activat de controllerul SATA şi de hard disc, bineînţeles. Metoda de activare variază în funcţie de controller. Pe unele plăci de bază cu chipset Intel, spre exemplu, această tehnologie necesită activarea opţiunii Advanced Host Controller Interface (AHCI) din BIOS şi instalarea aplicaţiei Intel Application Accelerator.

Pe piaţa hard discurilor ne putem aştepta în viitorul apropiat la o "afluenţă" a dispozitivelor înzestrate cu aceasta tehnologie. Acest lucru este subliniat şi de recentul anunţ de achiziţie a companiei Maxtor, unul dintre producătorii importanţi din domeniu, de către Seagate. Însă, Seagate nu este singurul care a început implementarea acestei tehnologii, ceilalţi producători nefiind mai prejos.

Beneficiile principale ale NCQ:

• Race-Free Status Return Mechanism - această funcţie permite ca starea oricărei comenzi să fie comunicată sistemului. Nu este nevoie de o compatibilitate specială cu sistemul gazdă pentru ca această comunicare să aibă loc.

• Interrupt Aggregation - în general, drive-ul lansează cereri de întrerupere (interrupt requests) de fiecare data când termină de efectuat o comandă. Cu cât sunt mai multe astfel de cereri de întrerupere, cu atât mai mare este sarcina de procesare a sistemului gazda. Tehnologia NCQ permite ca numărul mediu de cereri de întrerupere per comandă să fie mai mic decât 1. Dacă hard discul efectuează mai multe comenzi într-un interval scurt de timp (lucru des întâlnit în majoritatea computerelor), cererile de întrerupere individuale pot fi "combinate". În acest caz, controllerul sistemului gazdă procesează doar o cerere de întrerupere pentru mai multe comenzi.

95

Page 98: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul

• First Party DMA - Native Command Queuing are un mecanism care îi permite drive-ului să îşi configureze modul de operare DMA (Direct Memory Access) pentru a transfera datele fără o intervenţie software din partea sistemului gazdă. Acesta este mijlocul prin care drive-ul poate în mod efectiv să reordoneze comenzile, din moment ce poate selecta buffer-ul de transmisie la propria iniţiativă.

6.3.4. Hard discuri...puţin mai silenţioase Noile hard discuri Samsung SpinPoint

S166 7200 rpm sunt “ultra silenţioase şi de mare viteza,” pretinde compania, emiţând 24 dB îin stare idle şi 27.5 dB atunci când citesc/scriu date.

Aceste coordonate le fac “ideale pentru a fi încorporate în calculatoarele office, precum şi în electronicele destinate consumatorilor, precum DVR sau orice alt echipament ce are nevoie de stocare şi va fi utilizat într-un mediu silenţios.”

Primele două modele prezintă capacitate de 60 Gb şi 160 Gb, beneficiind atât de interfaţa 3.0 Gbps Sata cât şi PATA.

Alte specificaţii: include 8 Mb memorie cache, îmbunătăţirea capului de citire a datelor, o mai bună rezistenţă la şocuri şi un nou controller ce oferă viteze mai bune de transfer şi un consum redus de curent electric.

“Ultima tehnologie dezvoltată de Samsung în cadrul SpinPoint S166 Series adaugă un surplus de atractivitate unei audienţe mai largi, reducând şi mai mult nivelul acustic şi îmbunătăţind vitezele de transfer ale datelor,” a declarat TJ Lee, vice preşedinte în cadrul diviziei Samsung Electronics.

6.3.5. Criptare nativă pentru hard discuri Seagate Technologies a anunţat disponibilitatea primului hard disc destinat

laptop-urilor ce beneficiază de capabilităţi de criptare native, destinate protejării datelor în cazul în care dispozitivele sunt furate sau pierdute.

Seagate Momentus 5400 FDE.2, cu algoritmi de criptare AES pe 128 de biţi, poate fi totodată achiziţionat cu software-ul de management Wave Systems Embassy Trust Suite de la Wave Systems, ce permite administratorilor IT să controleze criptarea datelor şi parolele la nivel enterprise.

“Acesta este un drive standard ATA ce este criptat în permanenţă. Se comportă ca un hard disc obişnuit, nu ţi-ai da seama de vreo diferenţă,” a declarat Lark Allen, vice preşedinte executive în cadrul companiei Wave Systems.

Deşi există o mulţime de tehnologii de criptare bazate pe software, drive-ul Seagate Momentus este primul care include o soluţie de criptare firmware, mult mai ieftină decât software-ul de criptare şi fără să consume din ciclurile procesorului, a declarat Melissa Johnson, seful departamentului de marketing în cadrul Seagate.

Hard discul are 5400 RPM şi poate fi achiziţionat în 3 versiuni diferite, în funcţie de capacitate: 80 GB, 120 GB şi 160 GB. Facilitatea de criptare va spori preţul acestui cu aproximativ 25% faţă de costul unui hard disc standard.

ASI Computer Technologies a anunţat ca va distribui primul laptop care va conţine noul hard disc Seagate. Compania a declarat ca a ales propriul notebook

96

Page 99: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cap 6: Evaluarea hard discurilor Centrino de 15 inci pentru a găzdui hard discul, deoarece acesta este livrat deja cu opţiuni speciale de securitate precum un cititor de amprente.

6.3.6. Hard discuri liliputane Toshiba a anunţat că a fabricat un hard disc

de 1,8 inci cu o capacitate de stocare de 100 de GB, cea mai mare din aceasta clasă de hard discuri.

Noul dispozitiv, MK1011GAH utilizează tehnologie PMR (perpendicular magnetic recording) şi un cod de erori îmbunătăţit pentru a asigura cea mai mare densitate virtuală dintre toate hard discurile de pe piaţă: 240,8 MB pe milimetru pătrat. Toshiba va începe producţia de masă pentru acest hard disc din ianuarie 2007.

Împachetarea capacităţilor uriaşe în hard discuri din ce în ce mai mici este o cerinţă obligatorie pentru a ţine pasul cu tehnologiile avansate din piaţa PC-urilor şi pentru a întâmpina cu succes cererile pentru medii digitale ce suportă capacităţi de stocare din ce în ce mai mari.

Lansarea acestei bijuterii vine să suporte dezvoltarea viitoarelor generaţii de calculatoare mobile, oferindu-le utilizatorilor funcţionalităţi îmbunătăţite. Totodată, Toshiba a îmbunătăţit consumul de curent la 0.003W/GB, asigurând astfel un mediu de lucru mult mai prietenos. De asemenea, noul dispozitiv respectă directiva europeană RoHS din iulie 2006.

97

Page 100: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 1

1 Metodologia de evaluare pentru plăci de bază

1.1 Obiective: Cunoaşterea metodologiei pentru testarea şi evaluarea plăcilor de bază ale

computerelor.

1.2 Introducere Metodologia de testare este destul de complicată, astfel încât se va încerca

descrierea pe scurt a procesului de evaluare. După cum probabil ştiţi există câteva segmente de piaţă, un anumit produs

adresându-se numai unuia dintre aceste segmente. S-a împărţit piaţa în patru categorii. De obicei majoritatea companiilor media şi de cercetare împart piaţa în doar trei segmente, dar noi am ales un model pe patru nivele (ca cel TCP/IP) deoarece este mai uşor de testat în aceste condiţii.

Cele patru segmente sunt: • segmentul inferior de piaţă. Perifericele şi componentele hardware pentru

computere care costa mai puţin de 600$. De obicei cel mai important aspect pe această piaţă este preţul, dar trebuie luaţi în considerare toţi ceilalţi factori.

• segmentul de piaţă mediu. Perifericele şi componentele hardware pentru computere care costă între 600$ şi 1500$. Majoritatea utilizatorilor cumpără computere în acest segment de piaţă.

• segmentul superior de piaţă. Hardware şi periferice pentru computere care costa mai mult de 1500$. Majoritatea firmelor mici utilizează servere şi echipament de reţea din acest segment de piaţă. Cel mai bun exemplu: plăcile de baza dual procesor care au preţul destul de ridicat şi oferă o performanţă la fel;

• Professional computer hardware - preţul nu contează, ci numai performanţa. Din cadrul acestei categorii fac parte un număr limitat de produse, standarde de firmă, servere pentru reţele de mare performanţă, etc. Acest segment de piaţă nu va fi descris în acest seminar. Cel mai bun exemplu: Majoritatea serverelor rack mountable. Chiar dacă acestea nu sunt foarte scumpe se adresează utilizatorilor profesionişti. Am hotărât să utilizam sisteme de testare diferite pentru fiecare segment de

piaţă. Vom discuta despre specificaţii mai târziu, acestea nu sunt foarte importante, amintiţi-vă doar că ceea ce este astăzi nou s-ar putea ca luna viitoare să fie depăşit. Mult mai importantă este metodologia, aşa că acesta este subiectul principal al acestui seminar. Sistemele de testare vor fi depăşite în câteva luni, dar acest lucru nu contează atâta timp cât păstrăm metodologia de testare.

Am reuşit să definim 5 paşi în cadrul metodologiei de testare. Există şi un al şaselea pas, dar acesta reprezintă părerea echipei de testare.

Procesul de testare al unei plăci de bază este cel mai complex şi există produse care pot sări peste anumite secţiuni din metodologie. Paşii care fac parte din metodologia de testare se aplică în cazul fiecărui segment de piaţă fără diferenţă. Există produse la care se aplică numai anumiţi paşi datorită unor motive logice, dar există şi anumiţi paşi obligatorii într-o sesiune de testare obiectivă.

98

Page 101: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 1

1.3 Cei cinci paşi în evaluarea obiectivă În cele ce urmează va vom prezenta cei cinci pali din metodologia de evaluare.

Fiecare pas este alcătuit din mai multe părţi şi majoritatea acestor paşi se aplica tuturor produselor (marcat cu obligatoriu). 1. Identificarea produsului.

• Identificarea produsului - Producătorul, modelul, versiunea, firmware, data lansării pe piaţă, lotul. Este posibil să nu fie toate disponibile pentru toate produsele. Obligatoriu

• Situaţia pe piaţă, identificarea pieţei. - segmentul ţintă, momentul în care produsul a fost / va fi prezentat pe piaţă, oferta concurenţilor. Obligatoriu

• Prezentarea produsului. - Acest pas include verificarea ambalajului şi comentarii despre campania de publicitate realizată de către compania producătoare.

• Documentaţia. - Unul din paşii principali. Vom analiza documentaţia din punctul de vedere al unui amator şi din perspectiva unui inginer. De exemplu manualele multor plăci de bază descriu instalarea în detaliu, dar nu descriu bine setările din BIOS. Obligatoriu

• Layout-ul produsului. - Privim produsul cu atenţie şi descriem design-ul / layout-ul. Acest pas este foarte important deoarece în majoritatea cazurilor layout-ul influenţează paşii următori. Obligatoriu

• Calitatea componentelor. - Multe produse hardware sunt bine prezentate, dar calitatea componentelor este mediocră. O atenţie deosebită trebuie acordată părţii electronice / mecanice.

2. Instalarea produsului / compatibilitatea

• Instalarea normală a unui produs. - Instalam produsul în aceleaşi condiţii ca un utilizator final. Cercetăm problemele care ar putea apărea în timpul instalării. Orice acţiune atipică la instalarea produsului va fi raportată. De asemenea în această secţiune vom discuta despre drivere. Obligatoiru

• Compatibilitatea produsului cu platformele software. Unele produse nu sunt compatibile cu anumite platforme. De exemplu un Winmodem nu ar trebui să meargă sub Linux cu toate că pe net există drivere scrise de terţi care asigură funcţionarea. Noi testăm produsul numai cu sistemele de operare (de exemplu) suportate de produs. Dacă există produse similare pe piaţă care suportă o gamă mai largă de platforme atunci vom nota acest lucru. Obligatoriu

• Compatibilitatea produsului cu alte dispozitive hardware. Este imposibil să testezi compatibilitatea cu toate dispozitivele hardware din lume. Majoritatea laboratoarelor care testează şi aprobă hardware utilizează numai "cele mai populare dispozitive". Din punctul nostru de vedere aceasta va fi secţiunea cea mai dificilă şi care va lua cel mai mult timp. De exemplu vom testa o placă de bază cu câteva dispozitive USB, module de memorie, procesoare, placi video, de sunet, SCSI şi plăci de reţea. Obligatoriu

3. Caracteristicile produsului

• Caracteristicile promovate de marketing / Caracteristicile reale. Verificăm caracteristicile promise ale produsului. Bineînţeles că majoritatea

99

Page 102: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 1 caracteristicilor sunt deja cunoscute utilizatorilor. Verificam funcţionalitatea caracteristicilor promise şi a celor reale. Obligatoriu

• Caracteristicile unice ale produsului. Există producători care oferă clienţilor caracteristici unice pe piaţă. De exemplu Abit SoftMenu nu mai este o caracteristica unică, ci o caracteristică promovată de departamentul de marketing, din momentul ce există şi alţi producători care oferă caracteristici comparabile. Obligatoriu

• Utilitatea caracteristicilor oferite. În decursul timpului am văzut o mulţime de funcţii inutile la unele produse hardware ale unor producători cunoscuţi. De exemplu funcţia numita "Voice Diagnostic" care este disponibilă la multe plăci de bază şi care în acest moment este o funcţie absolut stupidă. Testând o mulţime de plăci de bază cu această funcţie veţi constată că nu veţi înţelege nici măcar un singur cuvânt din ce spunea vocea suava care anunţă o problema.

• Discutam despre îmbunătăţiri. Comparam cu caracteristicile oferite de către concurenţă, poate există caracteristici a căror prezenţă ar fi de dorit, dar care nu există la versiunea testată. Discutam despre ce ne-ar place să vedem la versiunile viitoare ale produsului. Obligatoriu

• Capacitatea produsului de a se adapta la schimbări / Durata de viaţă. În general MTBF-ul majorităţii produselor este mai mult decât suficient. Determinăm intervalul de timp în care poţi utiliza produsul fără să apară schimbări arhitecturale. Amintiţi-vă numai că plăcile de bază Slot nu mai pot fi utilizate în acest moment. Este greu să prezici aceste schimbări, dar putem afla care sunt planurile producătorilor. Obligatoriu

4. Încrederea într-un produs

• Cât de demn de încredere este un produs în condiţii normale de exploatare. În cazul unei plăci de bază aceasta poartă numele de stabilitate. Obligatoriu

• Cât de demn de încredere este un produs în condiţii extreme (teste care depăşesc specificaţiile). Majoritatea plăcilor de bază oferă funcţii de overclock-are, dar acestea nu sunt nici recomandate, nici suportate de către producători. Plăcile de bază care îşi dovedesc stabilitatea în condiţii de overclock-are sunt şi mai stabile în condiţii normale.

• 100 ore de teste burn-in. Orice produs sau orice componentă electronică se poate strica în primele ore de funcţionare. Cazurile în care produsele nu mai funcţionează după câteva săptămâni nu sunt foarte frecvente.

• Suportul oferit de compania producătoare: drivere, update-uri, website şi suportul online, garanţia. Este foarte important cât de rapid poate o companie să ofere suport pentru clienţii săi. Garanţia este de asemenea importantă deoarece există produse la care o perioadă de garanţie mai îndelungată este bine-venită. Suportul nu este totul, update-uri la software sunt vitale în menţinerea sistemului la zi şi fara bug-uri. Obligatoriu

5. Performanţa

• Performanţa testată cu benchmark-urile care folosesc aplicaţii. Testele cu benchmark-uri ca Ziff Davis Content Creation Winstone 2001, Bapco SysMark 2001. Obligatoriu

• Performanţa testată cu ajutorul benchmark-urilor sintetice. Unul dintre cele mai respectate teste din aceasta categorie este SiSoft Sandra.

100

Page 103: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 1 • Performanţa în aplicaţii. Aceste teste se bazează pe aplicaţii des folosite. De

obicei se măsoară timpul de care are nevoie un produs pentru a finaliza o serie de comenzi.

• Comparaţia cu alte produse. Se compară produsul cu alte produse de pe piaţă şi se determină poziţia acestuia pe piaţă. Obligatoriu

6. Părerea evaluatorului

• Opţiunile existente pe piaţă. Discutam şi comparăm respectiva placă de bază cu alte plăci de bază de pe piaţă.

• Sfaturi care privesc achiziţionarea. Ce părere au specialiştii de IT despre achiziţionarea unei astfel de plăci.

• Nota finală. Nota finală se bazează pe paşii anteriori. Este extrem de importantă şi trebuie să discutam despre acest subiect în detaliu.

1.4 Consideraţii finale / Nota finală Trebuie să ne reamintim mereu ca nu suntem în căutarea produsului perfect.

Produsul perfect nu există, dar există produse aproape perfecte, iar noi verificăm cât de aproape de perfecţiune este un produs. Punctăm comportamentul produsului în fiecare secţiune cu unul până la cinci puncte. Un produs poate "pica" în cadrul unei secţiuni (ex: încrederea în produs); aceasta înseamnă că produsul are probleme serioase. Când un anumit produs a trecut de o secţiune primeşte un punctaj. Să vedem care sunt aceste punctaje:

• mai puţin de două puncte - Are probleme serioase în această secţiune. Acest produs este jalnic şi nu este recomandat.

• între două şi trei puncte - Am avut câteva probleme cu acest produs. Dacă are punctaje bune în celelalte secţiuni, poate fi o soluţie.

• Între trei şi patru puncte - Un produs mediu care s-a comportat după cum era de aşteptat.

• Peste patru puncte - Calitate deosebită, una dintre cele mai bune alegeri de pe piaţă

Există de asemenea o notă finală care, în principiu, este suma punctajelor

obţinute în cadrul fiecărei secţiuni, cu câteva excepţii: 1. Dacă un produs obţine mai puţin de trei puncte într-o secţiune nu va obţine

sub nici o forma mai mult de 18 puncte, chiar dacă obţine 5 în toate celelalte secţiuni! Puţin posibil.

2. Putem aduna/scădea două puncte din suma totală în funcţie de impresia noastră generală.

Interpretarea notei finale: • mai puţin de 15 puncte - un produs mizerabil. Nici să nu vă treacă prin cap să-l

cumpăraţi! • între 15 - 18 puncte - Un produs mediu, îl puteţi cumpăra, dar există soluţii mai

bune pe piaţă. Trebuie luat în considerare şi preţul. • între 18 - 22 puncte - O alegere bună, merită investiţia • mai mult de 22 puncte - unul dintre cele mai bune de pe piaţă, cumpăraţi-l şi nu

veţi regreta.

101

Page 104: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 2

2 Evaluarea plăcilor de bază dual core

2.1 Obiective: Seminarul îşi propune evaluarea şi compararea mai multor plăci de bază ce

suportă procesoare Intel Pentium din familia D.

Suntem deja mai mult decât familiarizaţi cu procesoarele dual core pe care marii

producători de astfel de componente le-au lansat şi pe piaţa autohtona. Performanţa de care aceste procesoare dau dovadă este de necontestat, mai mult decât atât, posibilitatea de a avea multi procesor pe acelaşi cip integrat este o soluţie la care mulţi dintre noi se gândeau să apeleze. Marele avantaj al acestei tehnologii este acela că în situaţiile în care sunt rulate pe sistemul de operare mai multe aplicaţii odată, sarcinile sunt împărţite între cele două nuclee ale procesorului.

2.2 Consideraţii tehnice Realizarea unui upgrate care să presupună ca platformă noile procesoare dual

core de la Intel presupune cunoaşterea câtorva detalii, care vor fi prezentate în continuare.

Odată cu lansarea seriei Pentium D au fost necesare şi câteva modificări în ceea ce priveşte chipset-ul care are în grija procesorul dual core. La momentul actual sunt doar trei chipset-uri la care se poate opta în cazul platformelor cu CPU Intel Pentium D: 945P, 945G şi mai noul 955X. Facilităţile pe care acestea le oferă se extind până la interfeţe S-ATA mai performante, plăci audio cu opt canale sau dual LAN pe bandă Gigabit şi interfaţa PCI Express.

Unul dintre dezavantajele acestor platforme, în privinţa gamerilor, este faptul că acestea nu suportă conectarea în mod SLI a două plăci nVIDIA (cazul chipset-urilor Intel). Însă, dacă luăm în calcul faptul că procesoarele dual core sunt destinate rulării mai multor aplicaţii în acelaşi timp, în privinţa jocurilor nu aveţi nevoie de o astfel de platformă.

Cu toate acestea, apariţia noilor chipset-uri de la nVIDIA - 7800GTX, respectiv ATI - 1800, credem că opţiunea multi GPU rămîne o alternativa foarte scumpă. În

102

Page 105: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 2 privinţa memoriilor compatibile, acestea pot fi doar DDR II la frecvenţe de până la 800 MHz (valabil pentru chipset-urile 955X).

Pe lângă acestea, posibilitatea de a alege noile suporturi Serial ATA II reprezintă un avantaj fantastic atât pentru soluţiile server, cât şi pentru aşa- numiţii power users, cei în căutare de un computer foarte performant. La acestea se adaugă suportul RAID de la matrice în configuraţie 0 până la 5 cu un transfer mediu de aproximativ 3 Gb/s. Apropierea de conceptul digital home este realizată de integrarea unor plăci de sunet cu opt canale, alternativă ce va permite să conectaţi un sistem de boxe 7,1 sau 5,1.

2.3 Procedura de testare S-a plecat de la ideea că dincolo de jocuri,

aceste platforme sunt destinate, în primul rând, aplicaţiilor office, grafic workstation sau server. De aceea, s-a ales în testele efectuate mai mult programe care reflectă performanţele computerului în aplicaţii cum ar fi: arhivare de fişiere, codare video sau interoperabilitate placa de baza - procesor.

PCPU: Intel Pentium 4 D 3 GHz

latforma de test:

RAM Kingmax 533 MHz R3

C Mark 2005: zvoltat de cei de la Futuremark destinat evaluării întregului

sistem

inRAR 3.50: arhivarea de fişiere reprezintă un lucru destul de important la

ora act

ame mp3 Encoder: ea ce priveşte codarea în format mp3, din cauza în primul

rând ab

D Mark 2005: eo ale platformei au fost testată cu popularul 3D Mark 2005,

test ce a rulat pentru setările default: rezoluţie 1024x768@ 32bit, 4x Anisotropic filter şi fără Full Scene Anti-Alasing.

Memorie: 2x1024MB DDR II SDPlaca Video: Gigabyte Radeon X800 XL PCIe 256MB GDDHard disc: Western Digital JB 200 GB, 8 MB cache ATA100 Sursa de putere: Zalman 400 W PNoul software dea ajutat foarte mult în aprecierea performantelor per ansamblu a platformei de

test. Setările cu care am pornit benchmark-ul au fost cele default, numărul de subteste fiind maxim.

WS-a considerat căuală, luând în considerare faptul că noi toţi suntem în căutare de un transfer cât

mai rapid al fişierelor: fie pe mail, fie pe reţea sau inscripţionare pe CD/DVD. Arhiva s-a constituit dintr-un folder iniţial cu dimensiunea de 100 MB şi un număr de 3.600 de fişiere.

LNu foarte popular în cesenţei unei interfeţe prietenoase, Lame mp3 encoder a fost utilizat în mod default

pentru un fişier de test cu o dimensiune de 100 MB. 3Performanţele vid

103

Page 106: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 2 SISoft Sandra 2005: Test de referinţă în materie de performanţă a componentelor, SiSoft Sandra a

rulat doar pentru testul CPU Multimedia Benchmark. Programul ne oferă scoruri pentru Testul egi) şi Floating point (calcule în virgulă mobilă).

ec video Xvid 1.0.3, Audio AC3. Fişierul de test a fost un fragment de DVD (.vob) cu dimens e a fost setat la dimensiunea de 100MB

ci de bază testate BIT AW8-MAX

Echipată cu ultimul chipset destinat procesoarelor dual core, AW8-MAX este o nţe peste linia mediană a topului realizat. Scorurile mari

înregistrate în teste au convins atât în privinţa performanţei per ansamblu - şi când ne referim

drul seminarului nostru, P5WD2 Premium, s-a dovedit a fi o platformă completă - atât din punct de vedere al performanţei, cât şi în privinţa ai ridicat în testul 3D Mark05 duce imediat cu gândul

platformă care se doreşte a fi un suport pentru performanţe extreme. Bus-ul memoriei de 888 MHz, ajutat de supo MHz, au reuşit să ofere rezultate mai mult decât satisfăc

in acest test s-au comportat exemplar în aplicaţiile rulate, mai ales da luăm în calcul că sunt cu un pas în urma plăcilor care beneficiază de mai noile chipset-uri 955X. Cu toate acestea, specificaţiile tehnice nu sunt cu mult inferioare: acelaşi

de numere Integer (într Auto Gordian Knot (Xvid 1.0.3 encoder): Testul de codare video a fost făcut cu Auto Gordian Knot pentru cod

iunea iniţială de 200 MB. Fişierul de ieşir.

2.4 PlăA

placă ce se clasează ca performa

la asta ne referim în primul rând la PC Mark 05, cât ţi la capitolul manipulare a fişierelor. La fel ca şi celelalte concurente, FSB-ul de care beneficiază acest produs atinge limita de 1066 MHz, frecvenţa maximă pentru memoriile compatibile pe această platformă fiind de 800 MHz. Caracteristic chipset-ului 955X de la Intel, facilităţile adiţionale cum ar fi a doua placă de reţea sau controlerul audio cu opt canale sunt lucruri cu care ne-am obişnuit deja.

ASUS P5WD2 Premium Câştigătorul testului din ca

dotărilor sale. Scorul cel mla faptul că placa de bază se adresează în primul rând împătimiţilor jocurilor şi

apoi celorlalte categorii de cumpărători. Sub capota aceluiaşi chipset 955X de la Intel, care dă dovadă de o fiabilitate bună şi, în acelaşi timp, şi de inovaţii în direcţii precum storage (SATA II) sau audio (compatibilitate cu sisteme audio 7,1).

Gigabyte GA-9I955X Royal Principalul rival al câştigătorului, GA-8I955X Royal este o

rtul DDR II şi FSB-ul la 1066ătoare în testele rulate. În privinţa dotărilor suplimentare lucrurile stau la fel ca

la celelalte plăci de bază cu chipset-uri 955X: suport RAID 0,1,5, placă audio cu opt canale şi Gigabit LAN.

MSI Neo 945P şi Platinum 954P Gemenele MSI dcă

FSB 1066 MHz ca la concurente, suport pentru memorii DDR II şi compatibilitate S-ATA II. Absenţa conectorilor FireWire nu reprezintă un dezavantaj major dacă luăm în calcul performanţele actuale ale porturilor USB ver2.0.

104

Page 107: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 2 MSI 955X Platinum Candidatul MSI la categoria chipset 955X versiunea Platinum beneficiază de

caracte stici întâlnite la aproximativ toate celelalte concurente, însă scorurile pe care aceasta cursul testării au demonstrat că produsul se vrea a fi în primul

ia, placa audio şi placa video.

cu siguranţă modelul 955X7AA de la Foxconn ar fi urcat vertiginos pe prima poziţie. Cu toat ntru placă este de doar 667 MHz, performanţele de care a dat dov

a fi (probabil) o placă middle-range, dar putem spune că după rezultatele pe care aceasta le-a înregistrat în teste, c rează ţine să se apropie de cea de vârf. Opţional, la acest produs

ă în primul rând împătimiţilor jocurilor, P5ND2 Sli este o placă de bază ce se axează pe performanţa sistemului în aplicaţii multimedia. Chipset-ul care echipea unul nForce 4 Sli, capabil să ofere un FSB de 1066 MHz, suport

ă modul Scalable Link Interface (SLI) s-a comportat ceva mai bine la capitolul benchmark-uri sintetice, scorurile obţinute fiind ceva m delul SLI venit de la ASUS. Chiar dacă posibilitatea de extinde

ABIT nu au reuşit să impresioneze cu modelul AL8, acesta înregistrând scoruri

ri le-a înregistrat pe parrând unul care să impresioneze prin performanţă. Timpul destul de scurt înregistrat pentru codarea unui fişier video la standard

Xvid/AC3 arată faptul că interconectarea între componentele de bază este foarte bine coordonată, testul implicând atât procesorul, cât şi memor

Foxconn 955X7AA Dacă punctarea la acest test ar fi fost dată doar de rezultatele în benchmark-uri,

e că bus-ul maxim peadă platforma ne fac să credem că la urmă materia primă - în speţă chipset-ul -

nu reprezintă totul. Cel mai mare scor în PC Mark 2005 şi, de asemenea, cel mai scăzut timp la arhivarea datelor vă pot face să vă orientaţi pentru o astfel de placă de bază dacă sunteţi o persoană care nu se gândeşte în primul rând la jocuri.

ASUS P5LD2 Deluxe Echipată cu un chipset 945P, P5LD2 Deluxe se vrea

ategoria în care se integputeţi achiziţiona în interiorul pachetului şi o placă WiFi-TV, soluţie aleasă de

producător pentru a atrage şi o parte dintre clienţii în căutare de sisteme digital home. Platforma nu beneficiază decât de o singură placă de reţea gigabit şi doar un slot adiţional PCX.

ASUS P5ND2 Sli Destinat

ză platforma este DDR II 667, RAID 0,1,5 sau ieşire audio pe opt canale. Rezultatele în

benchmark-urile sintetice categorisesc în mod clar segmentul în care acest produs se integrează, şi anume în cel al gamerilor.

Gigabyte GA-8N-Sli Cea de-a doua placă ce suport

ai ridicate decât la more la cea de-a doua placă grafică pe care aceste platforme o oferă este una

profitabilă din punct de vedere al performanţei, credem totuşi că sunt puţini cumpărători de pe piaţa noastră care ar opta pentru o astfel de soluţie. Remarcabile rămân performanţele plăcii de bază în ciuda suprasolicitării sale cu mai mult de o placa video.

ABIT AL8 Cunoscuţi mai ales datorită capacităţilor fantastice de overclocking, cei de la

105

Page 108: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 2 îngrijor te la mai toate testele pe care le-a rulat. Dotată cu un chipset 945P, potenţi

oaşteţi atât de bine brand-ul ASRock, însă dincolo de perform nţele precare pe care această placă a reuşit să le ofere, posibilitatea de a monta la aleg unul Intel pe această platformă, este de admirat. (Proces

hiar dacă "era" procesoarelor dual core abia a început, producătorii de plăci de bază nu au întârziat să-şi facă simţită prezenţa în toate segmentele de cumpărători.

în acest seminar au dat dovadă de performanţe ridicate, diferenţele dintre a

ător de scăzualii cumpărători se pot bucura de suportul DDR II, FSB 1066 MHz, placă audio

cu opt canale şi interfeţe S-ATA. ASRock 775Dual-880Pro Nu ştiu câţi dintre voi cuna

ere un procesor AMD sauorul AMD se motează cu ajutorul unei placi special concepute ce se conectează

lângă slotul PCIe x16.) Am rămas plăcut impresionat să observ că în anumite teste 775Dual-880Pro a reuşit să bată competitori cu un nume mai puternic.

2.5 Concluzii C

Produsele prezentatecestea nefiind extraordinar de mari.

106

Page 109: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 3

3 Realizarea overclock-ingului la plăcile grafice

3.1 Generalităţi despre overclocking-ul la plăcile grafice Ca şi în cazul procesoarelor, plăcile grafice pot

fi supuse operaţiunii de overclocking, adică creşterea frecvenţelor pentru obţinerea de performanţe superioare celor implicite. Ce gamer nu-şi doreşte performanţe mai mari decât cele oferite de sistemul său dacă realizează că nu poate juca jocul preferat la framerate-ul dorit, la rezoluţia sau setările de calitate preferate? Din păcate, şi aici apar riscuri legate de temperaturi ridicate, deci este necesară o răcire corespunzătoare, nu neapărat suplimentară. O răcire inadecvată poate duce la arderea GPU-ului, caz extrem de rar fiindcă mai toate plăcile recente beneficiază de răcire activă şi/sau există un minim de airflow în carcasă. Fără a mai vorbi de protecţie la supraîncălzire. O frecvenţă prea mare duce de cele mai multe ori la blocaje sau un comportament necorespunzător prin apariţia de artefacte, astfel că un utilizator neiniţiat, care „s-a jucat cu nişte setări”, poate contribui la umplerea departamentelor de service ale firmelor de calculatoare pentru probleme inexistente, singurul lucru care trebuie făcut fiind reducerea frecvenţelor.

Atât chip-ul cât şi memoria plăcii pot fi supratactate deoarece fiecare dintre ele beneficiază de o anumită frecvenţă de funcţionare (ca şi în cazul procesoarelor sau a modulelor de memorie) care influenţează în mod direct - dar nu exclusiv - performanţa. Overclocking-ul este util în momentul în care deţineţi o placă „uşor overclock-abilă”. De multe ori, producătorii reduc artificial frecvenţa celor două componente pentru a nu afecta vânzările modelelor mai scumpe, sau pur şi simplu pentru că chipul respectiv nu a rezistat la frecvenţele fratelui său mai mare dar poate rezista unei frecvenţe superioare celei la care este marcat. Să luăm ca exemplu chip-ul GeForce3 Ti200, cel mai lent chip din seria GeForce3. Frecvenţa GPU-ului este de 175 MHz faţă de 240 pentru modelul superior bazat pe aceeaşi arhitectură şi produs în aceeaşi perioadă, GeForce3 Ti500. Practica a demonstrat că în majoritatea cazurilor ambele chipuri suportă o frecvenţă maximă de circa 250-260 MHz din simplul fapt că procedeul de fabricaţie este identic; însă sunt cunoscute situaţii în care un Ti200 nu a suportat nici măcar frecvenţa lui Ti500, adică 240 MHz, fapt ce explică marcarea sa ca Ti200. Dar poate că el rulează perfect la 235 MHz, şi din start putem spune că „s-au pierdut” 60 MHz, ce se traduc poate prin 30-40% în performanţa reală.

Frecvenţa maximă a chip-ului depinde în mare măsură de sistemul de răcire. Acesta este compus de obicei dintr-un radiator şi un ventilator, ultimul putând lipsi. Contactul dintre radiator şi chip este realizat în cazul ideal prin pasta termoconductoare, însă mulţi producători ignoră avantajul acesteia şi folosesc un adeziv oarecare, slab conductor termic. În cazul memoriei, problema stă cu totul altfel: fiecare producător îşi dotează placa în funcţie de model sau chiar de stocul de memorii disponibil la acel moment (acest ultim caz întâlnindu-se îndeosebi la producători „de categoria a doua”). Astfel, dacă un Radeon 9550 beneficiază din start de memorii ce rulează la 400 MHz, frecvenţa maximă ce poate fi atinsă poate varia de la model la model sau de la exemplar la exemplar, diferenţele putând fi foarte mari.

107

Page 110: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 3 Şi comportamentul la overclocking diferă faţă de GPU. Dacă în cazul acestuia

din urmă, o frecvenţă prea mare duce de obicei la blocaje, o memorie va trece de regulă mai întâi prin stadiul de a prezenta artefacte vizuale, vizibile atât în 2D cât mai ales în 3D, care culminează, într-adevăr, cu blocaje. Însă putem considera că un singur bit scris incorect în memoria plăcii, ce generează astfel un pixel de o culoare incorectă, reprezintă o malfuncţionalitate. Utilitarul Artifact Tester1 este destinat detectării acestor artefacte, însă are dezavantajul de a rula în mod 2D, deci nu utilizează nici funcţiile 3D ale chip-ului grafic, nici întreaga memorie video. În schimb, ATITool2 oferă informaţii mult mai precise legate de prezenţa artefactelor, testul inclus fiind unul foarte riguros şi relevant.

Un set de radiatoare lipite pe memorii poate duce la scăderea temperaturii şi, cel puţin teoretic, la un potenţial de overclocking mai ridicat. Pe lângă acest factor, dacă aveţi în minte overclocking-ul la achiziţionarea unei plăci, ar fi bine să vă interesaţi asupra timpului de acces al memoriei folosite, informaţie ce ar trebui să apară în ofertă sau în specificaţiile produsului. Chiar şi fără această informaţie, în cazul în care memoriile nu sunt acoperite, de obicei aveţi posibilitatea să descifraţi timpul de acces. În imaginea de alături este reprezentat un astfel chip de memorie, iar din caracterele înscrise pe el se poate citi la urmă valoarea de 3.6 ns, ce corespunde unei frecvenţe de aproximativ 275 MHz (550 MHz DDR). Formula de calcul este simplă: 1000/timp de acces=frecvenţă, eventual înmulţită 2 pentru că a afla valoarea efectivă, nu reală. Aşadar, un GeForce FX5500 sau un Radeon 9500 ar corespunde cel mai bine frecvenţei, însă dacă această memorie este prezentă pe un Radeon 9550 (cu frecvenţa implicită de 400 MHz), rezultă un produs cu un potenţial de overclocking ridicat. Există şi situaţia contrarie, când o placă este dotată cu memorii mai slabe decât ar trebui, fiind întâlnite de exemplu plăci GeForce4 MX440 cu memorii de 6 (333 MHz) sau chiar 7 ns (286 MHz) în locul celor de 5 ns (400 MHz), rezultând frecvenţe inferioare specificaţiilor. Inutil de menţionat că plăcile respective nu respectă specificaţiile NVIDIA şi performanţa lor este mult redusă.

Nu trebuie uitat un aspect important: latenţele memoriilor. Ca şi în cazul modulelor obişnuite de memorie, nu doar frecvenţa contează ci şi timing-urile. Avem o serie întreagă de posibilităţi, ce includ atât setările clasice (CAS Latency, TRP, TRCD, TRAS) cât şi altele mai puţin obişnuite. Utilitarele ATITool (pentru ATI), RaBiT3 (pentru ATI) şi NiBiTor4 (pentru NVIDIA) permit ajustarea acestora în mod real-time, ultimele două chiar şi permanent, prin rescrierea BIOS-ului plăcii. Pot exista cazuri în care o frecvenţe redusă combinată cu nişte latenţe mai mari oferă mai multă performanţă decât situaţia contrarie. Cine are timp şi răbdare, poate testa combinaţia optimă pentru placa sa. Trebuie ţinut cont că rescrierea BIOS-ului plăcii poate anula garanţia acesteia, pe lângă riscurile de rigoare (de multe ori, nici scrierea unui BIOS editat „ca la carte” nu garantează funcţionarea ulterioară a plăcii cu acel BIOS).

O situaţie mai rar întâlnită dar mult mai spectaculoasă o reprezintă setarea de către producătorul plăcii a unor frecvenţe peste cele recomandate de producătorul chipului. De exemplu, în loc de 250 MHz core şi 400 MHz memoria, Abit a setat frecvenţele lui Radeon R9550 XTurbo-Guru la 300/500 MHz, oferind astfel un 1 http://www.xf.ro/downloads/ArtifactTester2.zip 2 http://www.techpowerup.com/atitool/ 3 http://downloads.guru3d.com/download.php?det=872 4 http://www.mvktech.net/component/option,com_remository/Itemid,26/func,selectfolder/cat,92/

108

Page 111: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 3 overclocking din start. Dar şi un produs standard poate atinge aceste frecvenţe, astfel că se poate pune întrebarea: “Ce rost are să dau mai mulţi bani pe o placă overclock-ată din fabrică dacă pot face acelaşi lucru şi singur?”. Răspunsul constă atât în garantarea de către producător a frecvenţelor respective, cât şi înzestrarea plăcii (uneori) cu o răcire mai bună şi/sau cu memorii mai rapide. În exemplul nostru, placa atinge frecvenţe de peste 450 MHz pentru chip şi de peste 700 MHz în cazul memoriei, cele mai multe plăci din aceeaşi familie eşuând.

De asemenea, unii fabricanţi reproiectează arhitectura plăcii folosind un design propriu sau unul împrumutat de la alte modele. De exemplu, plăcile Albatron GeForce4 Ti4200 din seria „Turbo” sunt construite pe baza design-ului plăcilor Ti4400 şi Ti4600, pe 8 straturi faţă de 6, oferind cel puţin în teorie un potenţial de overclocking mai ridicat.

3.2 Ce îmi trebuie pentru overclocking? „Simplu!” ar spune unii. „Setez din programul de overclocking frecvenţele

maxime la care totul merge ok şi cu asta basta.” Lucrurile nu stau chiar aşa... Dacă avem un sistem de răcire precar, nu avem nici o şansă în overclocking.

Elementele esenţiale pentru o răcire bună sunt, în ordine: • eficienţa radiatorului, • eficienţa ventilatorului, • prezenţa radiatoarelor pe memorii şi , • contactul dintre radiator/radiatoare şi chip/chip-uri.

Acesta din urmă trebuie să fie realizat cu ajutorul unei paste termoconductoare; dacă doriţi să aflaţi dacă producătorul v-a răsfăţat cu o substanţă de contact de calitate, trebuie să desfaceţi sistemul de răcire al chip-ului, riscând astfel să pierdeţi garanţia. Mai mult, GPU-urile moderne deţin o pastilă similară procesoarelor Athlon XP, ea riscând să se ciobească. Trebuie, aşadar, avută foarte multă grijă, o pastilă ciobită înseamnă de foarte multe ori o placă grafică defectă.

Totuşi, dacă aţi desfăcut sistemul de răcire şi nu sunteţi mulţumit de el, curăţaţi cu grijă urmele vechiului adeziv şi aplicaţi cu grijă pasta de bună calitate (de exemplu Arctic Silver 5), nici prea multă dar nici prea puţină, având grijă ca ea să acopere întreaga pastilă sau întregul chip în caz că nu avem de-a face cu o pastilă. Clemele de prindere trebuie să exercite o presiune mare (dar nu exagerată) asupra chip-ului, mai ales dacă suntem în cazul pastilei. Aşadar, dacă ele slăbesc peste măsură datorită manipulării neglijente, există şanse chiar să ardeţi placa! În cazul memoriilor, dacă ele sunt dotate cu radiatoare, problema este mai complicată. Ele nu au, de obicei, un sistem de prindere bazat pe şuruburi şi în lipsa acestuia au nevoie de un adeziv puternic pentru a rămâne lipite pentru o bună perioadă de timp. În plus, importanţa răcirii memoriilor este mai redusă, deci puteţi să le lăsaţi liniştit în pace. În schimb, dacă doriţi ataşarea unor radiatoare, trebuie aplicată o substanţă termoadezivă, care joacă atât rol de pastă termoconductoare cât şi de adeziv.

Ventilatorul poate fi sau poate deveni, după o perioadă de uzură, zgomotos şi ineficient. Înlocuirea lui nu este deosebit de dificilă, trebuie doar să găsiţi unul care să se potrivească din punct de vedere al dimensiunilor. Puteţi merge mai departe şi să schimbaţi întreg sistemul de răcire cu unul pasiv, un exemplu fiind produsele Thermaltake, dar în acest caz va trebui să renunţaţi cel puţin parţial la overclocking.

109

Page 112: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 3 3.3 Procedura de realizare a overclocking-ului

Este necesar cel puţin un utilitar care ori să activeze opţiunile existente în drivere cu privire la acest aspect (dar ascunse din motive lesne de imaginat), ori să realizeze el însuşi overclocking-ul. Pentru plăcile NVIDIA, ultimele drivere ForceWare ne vin în ajutor, ele deţinând (după deblocarea opţiunii în cauză, de exemplu prin intermediul lui NVTweak5) o funcţie de overclocking automat. Alte utilitare bune sunt PowerStrip6 (ce are avantajul recunoaşterii unui număr foarte mare de plăci), RivaTuner7, iar pentru plăcile ATI s-au impus RadLinker şi ATITool. O funcţie deosebită a acestuia din urmă este posibilitatea testării apariţiei artefactelor în mod 3D, pe lângă prezenţa funcţiei de overclocking automat. De asemenea, ATITool permite setarea timing-urilor memoriei.

După ce ne-am hotărât asupra soft-ului, urmează să creştem cele două frecvenţe

progresiv, cu câte 5, 10 MHz sau chiar mai mult, după bunul plac. De remarcat că memoriile plăcilor din ziua de azi sunt de obicei DDR, deci avem două frecvenţe, cea reală şi cea efectivă - de două ori mai mare. La plăcile cu chip-uri NVIDIA, referirea se face de obicei prin cea efectivă, la plăcile Radeon invers. Unele soft-uri de overclocking nu permit decât o plajă de frecvenţe bine determinată. Uneori, ele pot fi păcălite pentru a afişa mai mult, alteori nu, fiind vorba până la urmă de o protecţie - după cum bine spunea cineva - „anti-prost”. Însă tendinţa este de a se elimina aceste limitări; de exemplu, RadLinker nu manifestă deloc problema, singura limitare fiind cea hardware, dar ea este de obicei de ordinul miilor de MHz, de departe imposibil de atins în practică.

Impedimente posibile: În primul rând, unele plăci ATI sunt protejate la overclocking. Mai exact, plăcile

cu chip-uri precum Radeon 9000, 9200, 9500, 9550, 9600 sau 9700 nu permit realizarea overclocking-ului, driverele blocând această practică. Motivele sunt evidente: chip-urile enumerate au un potenţial de overclocking foarte ridicat, fiind variantele cele mai lente din serie şi producătorul canadian s-a temut că acest lucru ar putea afecta vânzările suratelor mai rapide (de obicei marcate cu sufixul Pro).

Soluţii există din plin. Cea mai „hardcore” este rescrierea BIOS-ului cu unul modificat special în acest sens. Cea mai normală dar mai sigură este folosirea unor drivere modificate (precum sunt cele Omega sau cele soft-modded8, care nu diferă de cele originale decât prin absenţa protecţiei sus-amintite). De asemenea, sunt disponibile patch-uri anti-protecţie, precum cel livrat de RivaTuner sau cel inclus în ATITool. RivaTuner permite două metode, una presupunând modificarea driverelor (ceea ce presupune recunoaşterea de către utilitar a driverului - cele mai noi versiuni de Catalyst 5 http://downloads.guru3d.com/download.php?det=911 6 http://www.entechtaiwan.net/util/ps.shtm 7 http://www.guru3d.com/index.php?page=rivatuner 8 http://www.techpowerup.com/softmod/downloads.php

110

Page 113: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 3 s-ar putea să nu fie recunoscute), iar cealaltă modificând o locaţie de memorie în care este stocată informaţia despre protecţie. ATITool deţine şi el o funcţie în acest sens, aşa cum se poate vedea în imagine.

111

Page 114: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 3 3.4 Când şi cum apar artefactele?

În domeniul overclocking-ului, totul trebuie în primul rând gândit. E drept, nu totul este logic (cel puţin conform standardelor noastre ale logicii), de aceea pe lângă a gândi trebuie să existe şi a experimenta. Pe cât posibil fără acţiuni ireversibile, care să ne golească buzunarele sau să ne pună în valoare talentul de convingere a vânzătorului că „nu eu sunt de vină!!!”.

Artefactele sunt elemente parazite de imagine, care o deteriorează progresiv odată cu creşterea frecvenţei sau (în mai mică măsură) a temperaturii. Practic, este vorba de „rateuri” ale unor operaţii, similare celor petrecute în cazul procesorului sau a memoriei sistemului. Dacă în cazul memoriei de sistem un bit greşit transformă (de cele mai multe ori) o instrucţiune în alta, urmând o avalanşă de rezultate false care culminează rapid cu blocări, memoria video nu reţine instrucţiuni ci informaţii grafice (de exemplu culorile pixelilor).

Memoria grafică este scrisă atunci când este nevoie. În caz contrar, ea păstrează informaţiile scrise anterior în aceasta. E drept că memoria, ca orice memorie de tip DRAM, trebuie reîmprospătată periodic, dar practica a demonstrat că o operaţie de scriere de informaţii noi într-o memorie care nu funcţionează corect produce mult mai multe erori decât o operaţie de reîmprospătare a informaţiilor deja existente.

În imagine de mai jos avem o placă grafică a cărei memorie tocmai a fost supusă unui overclocking dur, ea rulând în mod implicit la 200 MHz şi oferind un potenţial de overclocking de 250 MHz. Ei bine, am setat 350 MHz, drept pentru care am fost întâmpinaţi de efectele care să văd. Fereastra utilitarului ATITool am mişcat-o puternic, memoria plăcii necesitând o rescriere repetată. Cu cât mişcam mai mult fereastra, cu atât artefactele creşteau - e normal, o imagine coruptă e coruptă din nou şi din nou... Cealaltă fereastră nu a fost clintită din loc, artefactele fiind astfel mult mai puţine. Concluzia care trebuie trasă este că o primă verificare a rezultatului unui overclocking este mişcarea puternică a unei ferestre.

O rezoluţie de 1024x768 de pixeli cu adâncimea de culoare de 32 de biţi ocupă 3 MB de memorie video, aceasta pentru că fiecare pixel al imaginii pe care o aveţi acum în faţă trebuie stocat în memoria plăcii grafice. Cum avem 1024x768, adică 786432 de pixeli, înmulţim această valoare cu numărul de bytes necesari pentru memorarea unui pixel, adică 32/8=4 bytes, rezultând exact 3 MB. Acum, apelând la aceeaşi logică intuitivă, putem să ne dăm seama că nu toată memoria unei plăci este la fel de rezistentă la overclocking. Anumite chip-uri care o alcătuiesc pot fi mai sensibile sau numai anumiţi tranzistori dintr-un chip pot ceda. De aceea, este clar că cei 3 MB pe care îi privim în mod obişnuit nu pot garanta funcţionarea corectă a memoriei la o anumită frecvenţă, oricât de mult am agita ferestrele. Aşadar, este cazul să creştem rezoluţia. Cea mai mare valoare ce poată fi atinsă cu monitoarele obişnuite este de 2048x1536, acum

112

Page 115: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 3 având ocupaţi 12 MB. Total insuficienţi, dar nu strică o încercare înainte de a trece la pasul următor.

Atât Artifact Tester cât mai ales ATITool pot detecta erorile ce apar datorită

overclocking-ului. Însă nici un soft nu poate înlocui testele de ore sau zile petrecute în compania jocurilor preferate, mai ales că respectivele utilitare folosesc o zonă mică de memorie pe care o testează. Pentru a afla cât mai exact frecvenţa maximă de funcţionare, trebuie să facem în aşa fel încât toată memoria, sau cea mai mare parte din ea, să fie ocupată. Vom seta atât o rezoluţie mare cât şi o setare cât mai înaltă de FSAA. Dacă placa este suficient de lentă pentru a nu putea randa jocuri sau teste noi, vom folosi teste/jocuri mai vechi, mergând până la a rula 3DMark 2000 sau Quake3 în 1600x1200 cu FSAA maxim sau, dacă se poate, 2048x1536. De asemenea, nivelul de detalii al texturilor reglabil din joc are un rol esenţial în ocuparea unei cantităţi mai mari de memorie video. Nu ne rămâne decât să petrecem ceva timp în jocuri sau, dacă avem răbdare, cu ochii zgâiţi în

113

Page 116: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 3 3DMark şi să căutăm artefacte. De cele mai multe ori, dacă după 10 minute de teste nu am găsit nimic, este destul de probabil să nu găsim niciodată.

Încă un aspect important: deseori, la plăcile mai fierbinţi, dacă alegem o frecvenţă mare la care avem probleme, după care o coborâm, e posibil să avem în acest caz false probleme datorate inerţiei termice. Aşadar, va trebui să lăsăm placa la frecvenţe mici pentru a se răci, eventual vom face o pauză de cafea şi ne vom uita la telenovela preferată în timp ce calculatorul stă închis. Lucru valabil şi pentru overclocking-ul GPU-ului. De asemenea, sunt cazuri în care un overclocking prea dur la memorie duce la persistenţa artefactelor până la următorul restart, eventual până la următoarea închidere/deschidere a sistemului. În cazuri extreme, apar şi blocaje.

Nu trebuie reacţionat nici în sens invers: o frecvenţă prea redusă (setată temporar pentru răcire sau pentru că pur şi simplu nu avem nevoie de 3D şi ne dorim o placă rece) poate genera artefacte, blocaje sau alte probleme. În general, o valoare minimă sigură este cea de 150 MHz (300 MHz DDR), sub care pot apărea (în caz că stabilitatea se menţine) scăderi de performanţă în lucrul 2D!

Să exemplificăm. Iată nişte artefacte uşoare (câţiva pixeli de pe cer coloraţi eronat) obţinute cu aceeaşi memorie ca în testul anterior (200 MHz implicit, 250 MHz maxim), setate la 310 MHz.

Odată cu creşterea rezoluţiei şi cu setarea FSAA, artefactele au crescut în

intensitate, rezultând această imagine

114

Page 117: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 3

în care doar partea de sus a fost randată corect. Probabil nişte biţi „cheie” (în

funcţie de care se decidea randarea completă a scenei) au fost distruşi, rezultând aberaţia în cauză. De subliniat că aceste imagini sunt nişte instantanee, următorul cadru fiind afişat corect sau cu alte erori de imagine, memoria video refiind umplută cu informaţie şi alţi biţi fiind înregistraţi greşit. Mergând până la capăt (prin setarea frecvenţei de 350 MHz), am obţinut un talmeş-balmeş total.

115

Page 118: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 3 Nu trebuie omis faptul că anumite drivere cauzează în unele jocuri fenomene

asemănătoare cu artefactele, de cele mai multe ori fiind vorba de texturi ce par să lipsească din locul în care ar trebui să se afle sau de iluminări incorecte. Uneori problemele ţin de joc şi nu de driverul plăcii grafice, alteori chiar şi driverele plăcii de bază joacă un rol. Iată cum arată textura podelei din Unreal Tournament pe unele plăci ATI cu ultimele drivere Catalyst dacă jocul este setat să ruleze prin OpenGL.

Din alte unghiuri, ea este văzută corect, fără acele pete. Motivul este

incompatibilitatea dintre ultimele drivere şi un joc apărut cu mulţi ani în urmă, ce foloseşte experimental modul OpenGL.

După cum am mai spus, atât GPU-ul cât şi memoria pot genera artefacte, aşadar cum ne dăm seama cine e de vină? O primă regulă, la fel de empirică precum toate din acest capitol, spune că în 99% din situaţii artefactele apar de la memorie, GPU-ul generând în primul rând blocaje. Graţie lui VPU Recover, plăcile ATI beneficiază de posibilitatea ca în momentul apariţiei unei erori să fie repuse frecvenţele implicite, neexistând nici un blocaj complet. Aceasta în teorie. Şi în cazul plăcilor NVIDIA, de multe ori apăsarea Ctrl+Alt+Del „dezgheaţă” core-ul plăcii, dând o şansă recuperării sesiunii curente de Windows. Iată, totuşi, nişte artefacte generate de GPU.

116

Page 119: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 3

Observăm cei doi „munţi” triunghiulari care nu au ce căuta în scenă. Spre

deosebire de artefactele de memorie, ei nu au fost nişte instantanee ci au rămas în scenă până când au ieşit din cadru, fiind trataţi ca nişte obiecte reale ale scenei. Chip-ul grafic i-a „inventat” din cauza unei erori cauzate de frecvenţele prea ridicate.

Un test foarte stresant pentru GPU este Wings of Fury din 3DMark03. Deşi bazat doar pe DirectX 7, el solicită la maxim chip-ul grafic, fiind primul test de stabilitate care trebuie luat în seamă (pe lângă, poate testul de scanare a artefactelor oferit de ATITool, dar care funcţionează doar pe anumite plăci). După toate setările efectuate, nu strică lăsat o noapte întreagă un test precum 3DMark în modul loop. Dacă dimineaţă găsiţi demo-ul rulând fără probleme, se poate spune că overclocking-ul a reuşit.

117

Page 120: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 4

4 Evaluarea display-urilor

4.1 Generalităţi În plină eră a dezvoltării tehnologiei informaţiei, persoana care doreşte să "ţină

pasul" cu vremurile trebuie să se "echipeze" cu cel puţin un televizor, daca nu chiar un computer şi o legătura la Internet.

Pe de altă parte, se spune că o imagine face cât o mie de cuvinte. Nimic mai adevărat. Este dovedit faptul că informaţia se reţine cel mai bine atunci când o receptăm vizual. Vom aborda în acest seminar noile tehnologii şi tendinţe ce se manifestă în privinţa display-urilor, în domeniul tehnologiei informaţiei.

Nu ne vom referi la toate dispozitivele de afişare a informaţiilor existente peste tot în jurul nostru, chiar dacă ştim sau nu să interpretăm ceea ce ne "spun" (afişajele electro-mecanice de la autobuze care indică linia, display-urile încorporate în aparatura medicală etc.).

Ne vom limita la categoria ecranelor de tip "flat panel", care vor revoluţiona în viitorul deloc îndepărtat viaţa oamenilor.

Este destul de greu să oferim o definiţie riguroasă pentru display-urile de tip "flat panel", dar nu cred că există vreo persoană care să nu fi văzut măcar o dată în viaţă un astfel de ecran. Iniţial, acestea au fost proiectate pentru utilizarea în cadrul laptopurilor, dar caracteristicile şi avantajele lor le-au propulsat în faţa ecranelor clasice cu tub catodic (CRT - Cathode Ray Tube).

Ecranele de tip "flat panel" cuprind o varietate largă de tipuri constructive şi tehnologice. Clasificându-le după tipul de refresh pe care îl necesită, avem:

Display-uri cu refresh continuu: • LCD (Liquid Crystal Display) • Plasma • DLP (Digital Light Processing) • LCOS (Liquid Crystal On Silicon) • OLED (Organic Light-Emitting Diode) • ED (Surface-conduction Electron-emitter Display) • FED (Field Emission Display) • NED (Nano-Emissive Display)

Display-uri bistabile (hârtie electronică):

• e-ink • Gyricon • Magink

Dintre toate tipurile de display-uri "flat-panel" enumerate sunt disponibile

comercial doar ecranele cu plasmă, LCD, DLP, LCOS şi OLED. În 2006 se aştepta lansarea pe piaţă a display-urilor SED.

Ecranele FED şi NED sunt doar în faza de prototip, începând cu luna noiembrie 2005.

Vom trece în continuare în revistă câteva detalii despre fiecare dintre aceste tehnologii..

118

Page 121: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 4 PLASMA Un display cu plasmă este un ecran flat-panel în care lumina este creată de

particule fosforescente care sunt excitate de o descărcare de plasmă între două suprafeţe plate de sticlă. Descărcarea gazoasă conţine un amestec total inofensiv de neon şi xenon.

Totuşi, ce reprezintă aceasta "plasmă"? Elementul central dintr-o lumină fluorescentă este plasma, un gaz alcătuit din ioni şi electroni care "plutesc" liber. În condiţii normale, gazul este alcătuit în principal din particule neîncărcate cu vreo sarcină. Dacă se aplică un curent electric prin această plasmă, particulele încărcate negativ sunt atrase de partea încărcată pozitiv a plasmei şi invers. În această învălmăşeală, particulele se ciocnesc în mod constant unele de altele, fapt ce determină excitarea atomilor de gaz din plasmă. Astfel, se eliberează fotoni de energie în spaţiu, luând naştere lumina fluorescentă.

Display-urile de acest tip au fost lansate pe piaţă pentru prima data în 1997 de compania Pioneer şi au ajuns să fie preferate în momentul de faţă în cadrul televiziunii de înaltă definiţie (HDTV).

Trebuie spus ca un display cu plasmă consumă la fel de mult curent electric ca şi unul cu tub catodic, raportat la aceeaşi suprafaţă a ecranului. Deocamdată, însă, preţul este destul de restrictiv, dar aşa cum se întâmplă în industria IT, progresul tehnologic aduce cu sine şi reducerea preţurilor, astfel că este foarte posibil ca display-urile cu plasmă să înlocuiască vechile ecrane cu tuburi catodice.

Oled Un display OLED funcţionează pe baza principiului electroluminiscenţei.

Elementul de bază al unui afişaj OLED este luminoforul organic, care determină aproape toţi parametrii pixelului de pe ecran. Nu vom intra în amănunte constructive. Pe piaţa din România, ecranele OLED se întâlnesc în cazul unor MP3-playere (ex.: Apple iPod, Philips) şi a unor modele de telefoane mobile (ex.: Samsung).

Dlp Digital Light Processing este o tehnologie dezvoltată de compania Texas

Instruments, acesta fiind în continuare singurul producător al acestor ecrane. Un display DLP se compune, în principal, dintr-o sursă de lumina albă, un cip DMD, o lentilă de proiecţie şi ecranul propriu-zis.

Imaginea este creată de mici oglinzi microscopice dispuse într-o matrice pe un cip din material semiconductor, cunoscut şi sub numele de Digital Micromirror Device (DMD). Fiecare oglindă reprezintă un pixel din imaginea reconstituită. Oglinzile se pot poziţiona în două feluri: atunci când sunt "oprite", ele sunt aliniate la orizontală şi determină apariţia pixelilor negri pe ecran. Însă, când cineva porneşte sistemul, oglinzile încep să se mişte înainte şi înapoi de câteva mii de ori pe secundă. Ele reflectă lumina printr-o lentilă de proiecţie direct pe ecran. Cu cât o oglindă este mai mult pe poziţia de "pornit", cu atât pixelul va fi mai luminos. Acesta este mecanismul de creare a nuanţelor de gri.

Culoarea este adăugată prin intermediul unei "roti de culoare" (color wheel), care este de fapt o roată transparentă cu segmente roşii, verzi şi albastre (RGB) care se învârteşte. Lumina care trece prin fiecare secţiune îşi schimbă culoarea în mod corespunzător. Procesorul sistemului sincronizează roata de culoare cu oglinzile. Fiecare pixel de lumină de pe ecran este roşu, verde sau albastru la orice moment de timp. Tehnologia se bazează pe capabilitatea ochiului uman de a amesteca culorile pixelilor pentru a forma culoarea corespunzătoare imaginii. De exemplu, pentru un

119

Page 122: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 4 galben, DMD va reflecta lumina de la segmentele roşii şi cele verzi ale roţii de culoare, ignorând segmentul albastru. Astfel, un display DLP este capabil sa "creeze" 16 milioane de culori.

O bilă neagră pentru aceasta tehnologie este efectul de curcubeu, care apare tocmai datorită mecanismului vizual de amestecare a culorilor. Desigur, intensitatea acestuia variază de la om la om, pentru eliminarea lui folosindu-se roţi de culoare care se rotesc cu viteze mai mari şi cu mai multe segmente colorate. Trebuie spus că exista şi display-uri DLP care folosesc trei surse de lumină, colorate fiecare în cate una dintre culorile de baza: R (rosu), G (verde) şi B (albastru). Se elimină astfel roata de culori şi efectul de curcubeu şi se creste calitatea imaginii.

LCOS Liquid Crystal on Silicon este o tehnologie "micro-display" aplicată în general în

cazul televizoarelor cu proiecţie. Este asemănătoare cu tehnologia reflectivă folosita în cazul DLP şi foloseşte cristale lichide în locul oglinzilor individuale. Mişcarea oglinzilor este înlocuită în acest caz cu starea de polarizare a cristalelor lichide. Acestea îşi schimbă orientarea la aplicarea unui curent electric, permiţând reflectarea luminii sau blocând-o.

Un microdispozitiv LCOS este alcătuit din mai multe straturi, dintre care unul reflectiv şi, deasupra, un strat de cristale lichide.

Funcţionare: pe scurt, lumina albă emisă de sursă este trecută printr-o lentilă de condensare care o focalizează şi o direcţionează spre un separator, care transformă raza de lumină albă în trei raze corespunzătoare celor trei culori principale: roşu, verde şi albastru. Apoi, aceste raze vin în contact cu cele trei microdispozitive LCOS. Lumina reflectată de acestea este trecută printr-o prismă care combină cele trei culori, aceasta direcţionând şi raza printr-o lentilă de proiecţie, care măreşte imaginea şi o afişează pe ecran.

Câteva dintre dezavantajele acestor sisteme includ: - lipsa capabilităţii de producere a culorii negre, ceea ce duce automat la un contrast scăzut, precum şi - dimensiunile destul de mari în comparaţie cu ecranele LCD sau cele cu plasmă. Totuşi, problema efectului de curcubeu din cazul DLP a fost rezolvată la display-urile LCOS. Pe plan local, acest tip de display a început să pătrundă timid, producătorul reprezentat în România cel mai bine fiind Canon.

SED Surface-conduction Electron-emitter Display este o tehnologie de afişare "flat

panel" care foloseşte emiţători de electroni de conducţie superficială pentru fiecare pixel. Aceştia emit electroni care excită un strat de fosfor de pe panoul de afişaj, acelaşi principiu de bază prezent şi în cazul ecranelor cu tuburi catodice. Aceasta presupune că display-urile SED vor combina aspectul şi dimensiunile ecranelor LCD cu ratele mari de contrast, refresh-ul şi calitatea superioară a imaginii întâlnite la CRT-uri.

Toshiba şi Canon au anunţat un acord de colaborare având ca scop producţia în scop comercial a display-urilor SED până la sfârşitul anului 2005, dar se pare că primele ecrane SED vor fi disponibile totuşi din 2006.

FED Field Emission Display este un tip de display "flat panel" care foloseşte straturi

de fosfor ca medii de emisie. Inventatorul acestei tehnologii este indianul Harjinder Kamboja. Foarte similare cu CRT-urile, FED-urile au însă doar câţiva milimetri grosime, iar în locul folosirii unui singur tun de electroni, ele utilizează o reţea de

120

Page 123: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 4 vârfuri metalice fine, denumite şi nanotuburi de carbon, care sunt cele mai eficiente emiţătoare de electroni cunoscute vreodată).

NED Nano-Emissive Display are la bază tot principiul tubului catodic. Prototipul

testat public de Motorola în 2005 este un tub catodic subţire şi plat cu mii de tunuri de electroni la fiecare pixel. Prototipul poate reda toate culorile spectrului, are o luminozitate puternică şi se încadrează cu uniformitatea şi puritatea culorilor în standardele unui produs comercial.

Punctul cheie este abilitatea celor de la Motorola de a "produce" nanotuburi de carbon direct pe substratul de sticlă al ecranului. În trecut, aceste nanotuburi erau lipite sau imprimate pe o suprafaţă, dar calitatea afişajului era dezamăgitoare.

Hârtia electronică Fără îndoială, aceasta este cea mai spectaculoasă tehnologie care a apărut în

ultimii ani şi care este, în momentul de faţă, disponibilă pe piaţă. Cine s-ar fi gândit acum mulţi ani că vom putea folosi hârtia ca un ecran?

Ei bine, prima încercare datează încă din anii '70 şi a fost realizată de specialiştii de la centrul de cercetare Xerox din Palo Alto. În anii '90 şi alte companii au îmbrăţişat aceasta tehnologie, dezvoltând-o pentru scopurile proprii. Sony a anunţat de curând disponibilitatea pe piaţa a modelului Sony Reader, un succesor al lui LIBRIe, care foloseşte tehnologie de hârtie electronică dezvoltată de Philips.

Cerneala electronică (cunoscută şi sub denumirea de e-ink, hârtie electronică sau e-paper) este o tehnologie de afişare proiectată să "imite" cerneala obişnuita pe hârtie. Spre deosebire de ecranele "flat panel" care folosesc o sursă de lumină pentru a ilumina pixelii, hârtia electronică reflectă lumina ca o hârtie obişnuita şi este capabilă să stocheze text şi imagini un timp indefinit fără să consume electricitate sau să folosească putere de procesare. Acestea sunt necesare doar pentru a schimba sau a şterge imaginea.

Hârtia electronică este, de asemenea, mai uşoară, mai durabilă şi mult mai flexibilă decât alte tehnologii de afişare. Şi datorită faptului că reflectă lumina, ea poate fi citită din orice unghi.

Aplicaţiile în care se va dovedi cu siguranţă utilă includ cărţile electronice, capabile să stocheze versiuni digitale ale multor opere, cu o singură carte afişată pe pagini la un moment dat. Posterele electronice şi materialele publicitare în magazine şi pe drumuri au fost deja demonstrate.

Avantajele ecranelor flat-panel fata de cele cu tub catodic: • dimensiuni mai mici; • luminozitate mai bună; • forma plată a ecranului ce elimină distorsiunile (deşi există şi ecrane CRT plate); • consum redus de energie.

Avantajele şi dezavantajele display-urilor OLED AVANTAJE:

• straturile organice şi de plastic ale unui OLED sunt mai subţiri, mai uşoare şi mai flexibile decât straturile cristaline dintr-un LED sau LCD;

• substratul unui dispozitiv OLED poate fi flexibil; • display-urile OLED sunt mai luminoase decât cele LCD datorită faptului că

suportul de sticlă necesar acestora din urmă absoarbe o oarecare cantitate de lumină;

121

Page 124: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 4

• nu este necesară o iluminare din spate a ecranului, elementele OLED generând ele însele lumina;

• fabricarea ecranelor OLED este mai uşoară, chiar şi în mărimi mari; • unghiuri de vizualizare foarte bune, de aproximativ 170 de grade.

DEZAVANTAJE:

• durata de viata a elementelor albastre OLED este în acest moment de numai 1.000 de ore, ceea ce este mult prea puţin pentru cerinţele actuale;

• procesul de fabricaţie este încă destul de costisitor; • apa constituie un pericol pentru ecranele OLED, pentru că le afectează

funcţionalitatea.

Avantajele şi dezavantajele ecranelor DLP AVANTAJE:

• imagini clare, lipsite de jitter (interferenţe); • adâncime a culorii bună; • grosime mai mică decât a ecranelor CRT; • sursa de lumină poate fi schimbată, fapt ce duce la o durată de viaţă mai mare

decât în cazul CRT sau a Plasmelor. DEZAVANTAJE:

• efectul de curcubeu; • grosime mai mare decât în cazul LCD sau a ecranelor cu plasmă; • zgomotul ventilatorului de răcire.

4.2 Testarea Diplay-urilor TFT LCD Ecranele cu cristale lichide normale, precum cele întâlnite în cazul

calculatoarelor de buzunar, conţin elemente de imagine separate - se poate aplica o tensiune peste un segment fără a interfera cu celelalte segmente ale ecranului. Această soluţie nu este practică pentru un display de dimensiuni mari (cu mulţi pixeli), pentru că necesită milioane de conexiuni - câte două pentru fiecare culoare primară (roşu, verde şi albastru) a fiecărui pixel

Pentru a rezolva această problemă, pixelii sunt adresaţi pe linii şi coloane, fapt ce reduce numărul de conexiuni până la ordinul miilor.

Dacă pe toţi pixelii de pe un rând este aplicată o tensiune pozitivă şi dacă pe toţi pixelii de pe o coloană este aplicată o tensiune negativă, atunci pixelul de la intersecţia liniei cu coloana are cea mai mare tensiune aplicată şi este activat. Însă şi aici există o problemă - toţi pixelii de pe aceeaşi coloana şi de pe aceeaşi linie sunt 'excitaţi" cu o fracţiune din tensiunea aplicată, astfel încât nu sunt activaşi complet li tind sp fie mai puţin luminoşi.

S-a ajuns astfel la soluţia aplicării unui tranzistor fiecărui pixel, care permite controlul individual. Fiecare pixel este un mic condensator cu un strat transparent de oxid în faţă, un strat transparent în spate şi un strat izolator de cristale lichide între acestea.

Layout-ul circuitului este foarte similar aceluia folosit în cazul memoriei DRAM, dar toată structura este realizată pe sticlă.

122

Page 125: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 4 Datorită costului imens al fabricilor TFT, numărul producătorilor de astfel de

ecrane nu este prea mare. Toate tipurile de monitoare TFT moderne sunt "lăudate" cu parametri foarte

buni, însă metodele de măsurare permit producătorilor să-şi prezinte produsul în cea mai bună lumină. Numeroasele convenţii şi simplificări introduse în procesul de evaluare au un rol crucial de multe ori.

După cum vom observa, concluzia testelor este clară - nu există un monitor LCD "all-purpose" (care poate fi folosit cu succes în orice împrejurare).

În timp ce monitoarele CRT de înaltă calitate pot fi utilizate pentru jocuri, aplicaţii office şi procesare de imagini, display-urile LCD sunt de obicei specializate pe câte una dintre aplicaţiile enumerate.

4.2.1 Procedura de testare a monitoarelor LCD Testul de monitoare LCD se desfăşoară după o metodologie în care se urmăreşte

testarea efectivă a aspectelor cele mai importante funcţionale ale unui astfel de dispozitiv.

Per ansamblu, s-au punctat trei lucruri: • testul propriu propriu-zis de calitate a imaginii (60%), • caracteristicile tehnice (30%) şi, • ergonomia (10%), Din adunarea acestor note (cu ponderile corespunzătoare) obţinându-se scorul

final. Astfel, orice persoană care şi-a stabilit priorităţile cu privire la un monitor LCD (aspectele care contează mai mult) se poate ghida după acestea, aprecierea din această lucrare fiind una globală. De exemplu, dacă pe cineva nu-l interesează capitolul ergonomie, poate să verifice scorurile de la primele doua categorii şi să decidă modelul pe care eventual doreşte să-l achiziţioneze.

Calitatea imaginii a fost apreciată folosind programele Nokia Monitor Test 2.0 şi Monitor Test 2.2, dar şi un trailer al unui film cunoscut, pentru a putea vedea comportarea monitoarelor în cazul secvenţelor video foarte dinamice şi claritatea acestora.

Aspectele punctate au fost: • existenţa şi intensitatea efectului de Moire (apariţia unor interferenţe supărătoare

în cazul dungilor foarte subţiri sau a caroiajelor foarte fine) la aplicarea din program a unor modele cu dungi subţiri verticale şi orizontale;

• existenţa unor defecte de convergenţă a ecranului atunci când se aplică diverse mire de verificare;

• persistenta pixelilor - se poate aprecia aproximativ timpul de reacţie al monitorului la mişcarea unor pătrate albe pe fond negru cu diferite viteze;

• claritatea imaginii - un monitor TFT ar trebui să ofere o imagine foarte clară în aproape orice condiţii;

• existenţa efectului de zooming - semnifică mişcarea spre margine a unui cadru alb pe fond negru la aplicarea unui fond alb în interiorul cadrului;

• interferenţele care apar şi intensitatea lor - acestea sunt cauzate de sensibilitatea monitorului la radiaţiile electromagnetice din exterior.

123

Page 126: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 4 Caracteristicile tehnice punctate au fost:

• timpul de răspuns al monitorului, care este definit ca fiind timpul de aprindere şi de stingere al unui pixel de la negru la alb şi înapoi la negru. Acest timp este foarte important, el determinând în mare măsura comportarea monitorului în diverse aplicaţii;

• rata de contrast a monitorului - exprimă în ce măsură un obiect poate fi distins faţă de un alt obiect din fundal; cu cât contrastul este mai mare, cu atât imaginea va fi mai clară

• luminozitatea fiecărui model de monitor - exprimă nivelul de lumină emis de monitor şi influenţează, de asemenea, calitatea imaginii;

• unghiul de vizualizare - cu cât se apropie de valoarea de 180 de grade, cu atât este mai asemănător, din acest punct de vedere, cu monitoarele clasice CRT;

• certificarea internaţională - exprimă ce standarde de protecţie împotriva radiaţiilor respectă fiecare monitor; s-au luat în calcul doar standardele TCO;

• conectivitatea - în ziua de astăzi, un simplu conector VGA analog (D-Sub) nu este de ajuns pentru a profita din plin de capabilităţile de procesare a plăcii video şi de calitatea imaginii ce poate fi afişată de monitor. ERGONOMIA În fine, acesta este un capitol din ce în ce mai important pentru unii utilizatori.

Notarea aspectelor care ţin de ergonomie s-a făcut după: • posibilitatea ajustării ecranului în înălţime; • posibilitatea pivotării ecranului (rotire la 90 de grade sau chiar mai mult); • posibilitatea rotirii suportului, pentru a creşte gradul de confort al utilizatorului; • dimensiuni şi greutate.

4.2.2 Cum să alegem un monitor Dacă v-aţi hotărât să achiziţionaţi un monitor, ar trebui să vă gândiţi înainte cu

ce tip de aplicaţii îl veţi folosi. Doriţi să vă uitaţi mai mult la filme? Sau vreţi să încercaţi ultimele jocuri lansate? Lucraţi mai mult la birou în aplicaţii office?

În funcţie de răspunsurile la aceste întrebări veţi putea alege monitorul LCD potrivit pentru nevoile dv. Iată în continuare un mic "îndrumar".

Dacă filmele sunt preferatele casei şi doriţi să le vizionaţi în cel mai bun mod posibil, trebuie să vă orientaţi după monitoare LCD cu:

• diagonala mare - cel puţin 19 inci (aproximativ 48 cm); • timp de răspuns acceptabil - cel mult 12 ms; • rata de contrast mare - cel puţin 600:1; • luminozitate mare - cel puţin 330 cd/m2; • eventual modul de tuner TV încorporat - pentru a putea viziona şi filmele

transmise de posturile de televiziune; • conectivitate cât mai variată, pentru a putea conecta eventual şi camere foto

digitale, camere video etc.; • ergonomie bună - pentru a vă fixa monitorul în poziţia cea mai bună pentru dv.

Ar trebui să se poată ajusta înălţimea şi să se rotească suportul.

124

Page 127: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 4 Pasionaţii de jocuri PC ar trebui să se uite în primul rând la monitoarele care au,

orientativ, următoarele caracteristici: • timp de răspuns mic - cel mult 8 ms; • rata de contrast mare - cel puţin 600:1; • luminozitate mare - cel puţin 330 cd/m2; • certificare internaţională cât mai bună - TCO 03.

În fine, pentru cei care lucrează mai mult cu aplicaţii office şi navighează pe

Internet, recomandăm monitoarele TFT cu: • certificare internaţională cât mai bună - TCO 03; • porturi USB încorporate (eventual), pentru un acces mai comod şi mai rapid la

diversele echipamente ce se pot conecta prin intermediul acestor porturi (camere foto, video, telefoane mobile, stick-uri de memorie etc.;

• ergonomie bună - pivotarea la 90 de grade este foarte utilă mai ales în cazul editoarelor de texte. Bineînţeles, este de la sine înţeles că toate aceste caracteristici trebuie să fie

însoţite de o calitate cât mai bună a imaginii, aşa ca atunci când îl cumpăraţi este bine să aruncaţi o privire comparativă asupra monitoarelor expuse în stand, dacă acest lucru este posibil. Dacă nu, măcar o privire individuală asupra modelului la care v-aţi hotărât.

125

Page 128: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 5

5 Metodologia de realizare a overclocking-ului la procesoarele Intel

5.1 Introducere Overclockingul reprezintă procedeul prin care o componentă hardware este

forţată să funcţioneze peste parametrii daţi de producător, de exemplu creşterea frecvenţei de tact procesorului fără ca acest lucru să ducă la instabilitatea sistemului.

Ca o paranteză se poate spune că odată cu dezvoltarea tehnicii în domeniul semiconductorilor, producătorii de procesoare blochează posibilităţile utilizatorilor de a obţine frecvenţe mai mari decât cele înscrise pe procesoare, motivele sunt multe dar se pare că cel mai important dintre ele ar fi diferenţa de preţ care trebuie să se justifice prin calităţile procesorului în special prin frecvenţa la care rulează acesta.

Noţiunea de overclock apare de fapt încă din procesul de producţie al procesoarelor, prima treapta în fabricarea unui procesor este wafer-ul (un disc subţire din siliciu) pe care se aplică structurile care determina configuraţia viitoarelor procesoare, astfel că pe un asemenea wafer se delimitează mai multe chipuri a căror frecvenţă nu se cunoaşte până în momentul în care sunt separate, asamblate şi testate. După cum vă imaginaţi pe un wafer se află procesoare care în ciudata faptului că au aceeaşi structură pot rula la frecvenţe diferite fără să duca la instabilitatea sistemului. În momentul în care acestea sunt testate se stabileşte frecvenţa de lucru a fiecărui procesor astfel încât acesta să ruleze corect chiar şi în condiţii în care nu se asigură o răcire corespunzătoare ori tensiunea de alimentare nu este stabilă.

Un asemenea procesor trebuie sa ruleze fără probleme minim 10 ani, din acest motiv producătorii marchează frecventa la care chipul a funcţionat bine în condiţiile date mai sus. În aceste condiţii concluzia este clară, chipurile nu sunt marcate cu frecvenţa maximă la care pot funcţiona fără probleme, se lasă un spaţiu de siguranţă pentru ca acestea să funcţioneze corect şi în condiţii extreme.

În ultima vreme, overclock-ul este o practică tot mai des întâlnită, unii zic că

deja a devenit un sport naţional, şi personal chiar cred acest lucru. Datorită acestui fapt, mulţi utilizatori doresc să-şi overclockeze procesorul dar nu au suficiente cunoştinţe în acest domeniu şi din acest motiv apar foarte des topic-uri de genul "Overclock, little help?".

ATENŢIE : Autorul acestui seminar nu se face responsabil pentru orice

pagubă, pierdere de date sau orice alte inconveniente produse sistemului dvs. folosind tehnicile prezentate aici. Vă mulţumesc pentru înţelegere.

5.2 FSB la Intel Spre deosebire de Athlon64, Intel a păstrat controllerul de memorie în cipset, nu

în procesor, deci pentru cei obişnuiţi cu vechea magistrala FSB am o veste bună: Intel a păstrat-o. Aceasta este o magistrală care conectează procesorul de memorii prin intermediul northbridge-ului (în care se află controllerul de memorie). Pentru a face un overclock bun la Intel, trebuie să înţelegem cum este generată frecvenţa procesorului. Ea este obţinută prin înmulţirea frecvenţei FSB-ului cu multiplicatorul procesorului. Frecventa FSB-ului este de 100Mhz la primele pentium4, apoi 133 la Northwood

126

Page 129: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 5 (următoarea generaţie de p4) şi la unele Prescott-uri (în special Celeroan), de 200 la Prescott şi la Core 2 Duo 4300 şi de 266 la Core 2 Duo.

Acum poate o să vă întrebaţi un lucru: Cum are Core 2 duo numai 266 că eu ştiu că are 1066, şi la fel şi Prescott are 800Mhz?. Frecvenţa asta mică este frecvenţa reală a FSB-ului, care este quad-pumped adică trimite date de 4 ori într-un ciclu de ceas şi de aici frecvenţa efectivă este de 4 ori mai mare: 400 pentru fsb real de 100; 800 pentru fsb real de 200 şi aşa mai departe. La generarea frecvenţei procesorului se înmulţeşte frecvenţa reală a FSB-ului nu cea efectivă.

De ex: un Prescott la 3000Mhz are fsb real de 200Mhz şi multiplicatorul de 15, astfel că 200*15=3000. Overclock-ul la Intel se face de cele mai multe ori prin ridicarea frecvenţei FSB-ului, deoarece multiplicatorul este aproape întotdeauna blocat din fabrică. Practic tehnica de overclock la Intel este destul de simplă, paşii care trebuie urmaţi fiind uşori. În primul rând, dacă aveţi procesor Core 2 Duo dezactivaţi toate opţiunile de la CPU, mai puţin Execute Disable Bit. Frecvenţa FSB-ului se incrementează în paşi mici (din 5 în 5 Mhz e bine) şi de fiecare dată când aţi urcat câte o treaptă, salvaţi setarea, şi testaţi stabilitatea sistemului cu programe speciale de benchmark, de ex: Prime95, StressPrime2004, Orthos, SuperPI, S&M. Din frecvenţa FSB-ului derivă şi celelalte frecvenţe ale sistemului, cum ar fi cea a memoriilor (tratata mai jos), cea PCI, AGP, şi PCI-Express.

Dacă placa de bază permite, frecvenţele acestea trebuie blocate la valorile lor stock, altfel veţi fi puternic limitat în overclock de ele. Valorile stock sunt urmatoarele: 33Mhz pt PCI, 66Mhz pt AGP, 100Mhz pt PCI-Express şi tot 100Mhz şi pt porturile SATA.

5.3 Frecventa memoriilor, coşmarul divizorilor şi al latentelor Aşa cum am menţionat mai sus, în momentul ridicării frecvenţei FSB-ului va

creşte şi frecvenţa memoriilor. Diferenţa majoră dintre Intel şi AMD64 este că la AMD64 frecvenţa procesorului se împărţea cu un anumit divizor pentru a obţine frecventa memoriilor, dar la Intel frecvenţa procesorului nu are nimic de-a face direct cu frecvenţa memoriilor, ci frecventa FSB este cea care determină frecvenţa memoriilor şi divizorii (de fapt sunt nişte raporturi) se aplica la FSB. De ex să luăm un procesor cu FSB de 1066Mhz. Nu se lucrează cu 1066 ci cu frecvenţa reală adică 1066/4~266Mhz.

Dacă se foloseţte un raport de FSB:RAM=1:1 atunci ramii, fiind double-pumped vor rula ~533Mhz. Dacă setam un raport de 4:3 atunci folosind puţina matematică RAM=FSB*3/4 care ne dă RAM~200Mhz, deci 400Mhz frecvenţa efectivă. În funcţie de ce memorii dispuneţi şi de cât de mult suportă ele frecvenţa peste stock, faceţi un calcul şi setaţi divizorii potriviţi pentru ca memoriile să ruleze la frecvenţe stabile.

Desigur placa de baza nu permite să setaţi chiar orice valoare la divizori deci din acest punct de vedere avem un dezavantaj, dar spre deosebire de AMD, permite rularea memoriilor mai rapid decât FSB-ul prin setarea unui raport supraunitar, dar acest lucru nu aduce mai nimic în plus la performanţă.

De fapt la Intel, spre deosebire de AMD64, în general, memoriile mai rapide nu aduc un spor foarte mare de performanţă, deoarece, dacă dispunem de nişte memorii foarte rapide se va mari lăţimea de bandă între memorii şi northbridge dar acest lucru nu ajută prea mult deoarece între procesor şi northbridge tot mică rămâne.

127

Page 130: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 5 Ca să înţelegeţi cum să umblaţi cu latentele trebuie întâi să înţelegeţi ce sunt ele

de fapt. Pentru aceasta, haideţi să facem o analogie cu un concurs de atletism. Gândiţi-vă la cursa cu ştafetă, acolo fiecare atlet trebuie să alerge o distanţă şi apoi să predea ştafeta. Fiecare atlet aleargă distanţa într-un timp anume. Dacă unul aleargă într-un timp mai lung decât de obicei, nu-i nici o problemă, ceilalţi aşteaptă după el, iar ştafeta ajunge la destinaţie. În schimb dacă unui atlet i se impune să alerge distanţa mai repede decât poate atunci el nu ajunge la succesorul său, acesta pleacă fără ştafetă şi tot procesul se duce de râpă. Astfel se întâmplă şi la memorii, ele au nişte laţente stock. Dacă setam unele mai mari, scade performanţa dar stabilitatea rămâne. Dacă setam unele mai mici atunci s-ar putea să le suporte dacă sunt memorii bune, iar dacă nu le suportă atunci se compromite stabilitatea şi sistemul fie dă Blue Screen, fie nu bootează deloc. Sunt patru latenţe mai cunoscute, deci mai importante. Memoria este structurată ca o matrice. Latenţele sunt:

• CAS (cL): această latenţă se referă la timpul necesar din momentul cererii unei operaţii de citire şi până în momentul în care sunt trimise datele ;

• RAS-to-CAS (tRCD): această latenţă se referă la timpul care trece din momentul în care un rând este activat şi până când este executată prima operaţie de citire sau scriere ;

• RAS precharge (tRP): este timpul din momentul trimiterii unei comenzi precharge pentru a închide un rând şi până în momentul în care următoarea comandă activă poate fi executată;

• Active-to-precharge delay (tRAS): Această latenţă se întinde peste câţiva paşi în activitatea memoriei. Aceasta se referă la numărul minim de cicluri de ceas care trebuie să treacă de la o comandă activă până la una precharge. Mai este şi Command Rate-ul. Acesta este timpul din momentul în care un chip

este selectat şi până în momentul în care se poate executa prima comanda activă. Cred că este clar, că cu cât sunt latentele mai mici cu atât performanţa memoriei

este mai mare. La memoriile DDR latenţele obişnuite întâlnite la cele mai multe module de memorii sunt 2.5-3-3-6 sau 2.5-3-3-8 şi command rate de 2. Cifrele sunt în ordinea aceasta: CAS, RAS-to-CAS, RAS precharge, Active-to-precharge. Ele nu reprezintă unităţi de timp (nanosecunde sau ceva de genul) ci cicluri de ceas. Memoriile cele mai de calitate de tip DDR pot funcţiona chiar şi la 2-2-2-5 şi command rate de 1. Memoriile DDR2 au latenţe mai mari de genul 5-5-5-12; 4-4-4-10 etc.

Setări uzuale ale latenţelor memoriilor

Nr. crt. Tip memorie CAS

(cL) RAS-to-CAS

(tRCD)

RAS precharge

(tRP)

Active-to-precharge delay

(tRAS)

Command Rate

1 DDR normale 2,5 3 3 6 2 2 DDR normale 2,5 3 3 8 2 3 DDR best 2 2 2 5 1 4 DDR2 5 5 5 12 5 DDR2 4 4 4 10

Să vedem acuma ce legătură au latenţele cu overclock-ul. În momentul în care

ridicăm frecvenţa memoriilor peste cea stock şi ele devin instabile sunt 2 metode de a le mări stabilitatea. Una este prin supravoltare şi este tratată pe larg mai jos, iar cealaltă

128

Page 131: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 5 este prin modificarea latenţelor. Ele trebuiesc mărite pentru a stabiliza memoriile la frecvenţe mărite. Ideal este să avem frecvenţa cât de mare la memorii şi latente cât de mici, aici intervin memoriile de calitate, făcute pentru overclock (ele de altfel "overclockează" şi portofelul, deoarece îi determină o viteză de golire mult peste cea stock laughing care suportă frecvenţe mari cu latenţe mici.

5.4 Voltajele În primul rând, dacă aveţi de gând să supravoltaţi, nu lăsaţi voltajele pe auto

deoarece placa de bază creşte prea mult voltajul la procesor în funcţie de FSB-ul setat, şi acest lucru va duce la o uzură prea mare a procesorului. Povestea cu voltajele este similară ca şi la AMD. Singura diferenţă este că dacă overclock-aţi un Pentium Prescott, el se vă încălzi foarte tare la ridicarea voltajelor şi îi va creşte mult consumul de curent. Dacă aveţi un Northwood atunci fiţi foarte atent la SNDS. SNDS înseamnă de fapt "Sudden Northwood Death Sindrome" şi apare atunci când voltajul este ridicat peste 1.75V. El constă în moartea foarte prematură a procesorului spre deosebire de alte procesoare supravoltate. Practic procesorul va deveni din ce în ce mai instabil, până când într-o zi brusc nu va mai funcţiona. Explicaţia acestui "sindrom" este în fenomenul fizic de migraţie a electronilor care degradează în timp traseele electronice din nucleul procesorului. Acest fenomen este amplificat şi de temperaturi ridicate (De-aia nu-i bine să se încingă prea tare procesorul), şi este prezent la toate procesoarele dar la Northwood se pare că este mai accentuat.

În primul rând când se supravoltează o componentă, este recomandat să nu se depăşească cu 10% voltajul stock.

Să luăm de ex procesorul Intel Pentium D805 care are frecvenţa stock de 2,66Ghz, FSB de 533Mhz (133 real) şi multiplicator de 20x. Iniţial vom urca în paşi mici cu FSB-ul până la 160Mhz (640 efectivi) obţinând o frecventa de 3200Mhz. Până aici este stabil la voltaj stock (1.24V conform cpu-z).

Dacă îi dăm pana la 1.30V urcă până la 3800Mhz, iară dacă suntem duri şi ăi băgăm în el 1.4V trece de 4Ghz dar cu un coolerul box nu prea stă mult la frecvenţa asta şi imediat intră în Throttling şi pierde stabilitatea pentru că temperatura ajunge la 80 de grade în full load. Pentru cei care nu ştiu Throttling-ul este tehnologia de protecţie a procesoarelor Intel împotriva supraîncălzirii. La început ea începe să introducă cicluri IDLE printre ciclurile de ceas ale procesorului, acest lucru urmărind să-i scadă temperatura. Dacă ciclurile idle nu scad temperatura suficient, throtlingul ia măsuri mai drastice şi îi scade multiplicatorul scăzând-ui astfel frecvenţa de lucru şi astfel scăzând şi mai mult temperatura până când aceasta coboară sub limită. Cred că este evident că odată intrat în Throttling procesorul va avea penalizări de performanţă. La procesorul dat ca exemplu, observam că câştigăm destul de mulţi mhz, în plus prin supravoltare dar acesta este doar un procesor, altele se comporta diferit la supravoltare, unele s-ar putea să nu urce mai mult de vreo 200mhz oricât voltaj i s-ar da, de fapt două procesoare identice nu se overclockează la fel.

Supravoltarea uzează mai puternic procesorul decât simpla supratactare astfel că trebuie folosită cu grijă, şi să urmăriţi tot timpul să folosiţi voltajul minim necesar pentru stabilitate. De ex dacă îi daţi 1.4V, dar el este stabil şi la 1.3V atunci lăsaţi-l la 1.3V.

Tot timpul când supravoltati FITI CU OCHII PE TEMPERATURI. La Pentium 4 şi la Pentium D să nu depăşească 50° în idle şi 60° în full, iar la core 2 duo să nu

129

Page 132: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 5 treacă de 55° cel mult în full şi să stea în jur de 40÷42° în idle. Dacă ele depăşesc aceste limite va trebui fie să vă cumpăraţi un cooler mai performant, fie să îmbunătăţiţi ventilaţia în carcasa dacă aceasta lasă de dorit (ideal este un ventilator jos în faţă care bagă aer şi unu sus în spate care scoate. Se mai pot pune ventilatoare şi pe capacul lateral sau în partea de sus a carcasei-"blow-hole").

La memorii se aplică cam acelaşi principiu, dar şi acolo unele s-ar putea să urce mult dacă le mărim voltajul şi altele s-ar putea să nu urce aproape de loc mai mult chiar dacă le îndopăm cu voltaj.

Dacă aţi făcut overclock şi sistemul nu este stabil, dar din anumite motive ştiţi că memoriile şi procesorul ar putea mai mult (de ex dacă le testaţi cu o altă placă de baza şi cu aia merg mai mult) limitarea vine din placa de bază, mai exact din cipset. Multe plăci de bază oferă opţiunea de a mari şi voltajul pe cipset, şi din nou se aplică cam acelaşi principiu ca şi la procesor.

5.5 Strap-ul la northbridge Asemenea unui procesor, northbridge-ul are frecvenţa internă proprie şi latenţele

proprii care influenţează performanţa sistemului (lucru valabil de la i865 încoace). Ne vom referi la frecvenţa lui prin NBCC (North Bridge Core Clock). Acest NBCC afectează direct performanţa şi stabilitatea memoriilor, deoarece cum am spus mai sus, la Intel frecvenţa memoriilor se obţine din FSB şi nu din frecvenţa procesorului.

Acest NBCC variază în funcţie de FSB-ul sistemului şi de multiplicator. Puteţi descoperi NBCC-ul împărţind multiplicatorul curent al procesorului cu multiplicatorul lui stock, şi câtul îl înmulţiţi cu valoarea FSB-ului (valoarea reală, nu cea quad-pumped).

Să luam un exemplu: luam un Conroe E6600 şi îi coboram multiplicatorul (nu toate plăcile de baza permit acest lucru, iar nici un procesor Intel în afară de cele extreme edition nu permit urcarea multiplicatorului) de la 9 la 7 şi îi dăm FSB de 500Mhz. Obţinem următorul lucru aplicând formula:

(9/7) * 500=642Mhz ăsta-i NBCC-ul. Observăm un lucru interesant. Coborând multiplicatorul sistemului, ar trebui să-i

mărim stabilitatea, dar aici dacă îl coboram, NBCC-ul va creşte şi NorthBridge-ul se va overclocka şi deci va deveni mai instabil.

Am vorbit despre frecventa NB-ului. Să vedem şi ce-i cu latenţele lui. Aceste

latenţe cresc în momentul când NBCC-ul atinge valori specifice, mărind astfel stabilitatea dar scăzând performanţa. Seria de latenţe care este setată la o valoare specifică a NBCC-ului se numeşte strap. Este un strap la 1066Mhz, unul la 1333Mhz şi aşa mai departe. Producătorii de placi de bază totuşi, schimbă valorile la care anumite strap-uri se setează. NBCC-ul declanşator pentru fiecare strap diferă de la placă de bază la placă de bază. Puteţi testa diverse valori ale NBCC-ului folosind SuperPI sau orice alt program de măsurat lăţime de bandă pentru a vedea când se schimba latenţele.

Revenim puţin asupra măsurilor de recăpătare a stabilităţii. Acestea erau: supravoltarea procesorului, a memoriei şi a NB-ului. Supravoltarea NB-ului se face când acesta provoacă instabilitatea. Acest lucru se întâmplă pe capăt de strap. De ex dacă suntem în strap-ul de 800Mhz, avem latenţa mai mare specifica strap-ului şi deci

130

Page 133: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 5 stabilitate. Când urcăm FSB-ul, va urca şi NBCC-ul dar latenţa va rămâne la fel, devenind la un moment dat prea mică, iar NBCC-ul fiind mare, va rezulta instabilitate.

Sunt 2 moduri de a rezolva această problemă. Fie mărim FSB-ul până ajungem să declanşăm următorul strap (strap-ul de 1066) şi astfel se va mări latenţa şi NB-ul se va stabiliza, sau dacă procesorul nu duce FSB-ul mărit atunci vom supravolta NB-ul pentru a-l stabiliza. Ziceam mai sus că mărind FSB-ul de la 800 în sus la un moment dat ieşim din strap-ul de 800 şi intram în strap-ul de 1066Mhz. Intrarea în strap-ul de 1066 nu înseamnă că suntem cu FSB-ul la 1066Mhz, ci mai jos. De-aia ziceam mai sus ca diferă NBCC-urile la care se schimbă strap-ul în funcţie de placa de bază.

Să luam un exemplu concret că e mai uşor aşa (valorile sunt luate la întâmplare, deci nu ştiu la ce placă de bază sunt valabile(poate la nici una)).

Pornim de la 800Mhz FSB deci ne aflam în strap-ul de 800Mhz. Să zicem că în momentul când trecem de 950 de Mhz NB-ul trece în strap-ul de 1066 (cum ziceam mai sus, valoarea declanşatoare este mai mică). Asta înseamnă că valoarea de 949Mhz este încă în strap-ul de 800Mhz deci este mai instabilă decât 950Mhz care este deja în strap-ul de 1066Mhz. Asta se întâmplă deoarece 949 este o valoare mare pentru latenţa strap-ului de 800Mhz, însă latenţa strap-ului de 1066 este bună pentru valoarea de 950 şi deci NB-ul este mai stabil.

Mai trebuie ştiut că fiecare strap vine cu raporturile lui pentru frecvenţa memoriei. Adică:

• pentru strapul 800 avem următoarele frecvenţe pentru memorie cu raporturile corespondente fiecăreia: 400=1:1, 533=3:4, 667=3:5, 800=1:2

• pentru strapul de 1066 avem aceleaşi valori de 400, 533, 667 şi 800 dar rapoartele sunt altele: 400=4:3, 533=1:1, 667=4:5, 800=4:6

• strapul 1333 are aceleaşi frecvenţe la ram dar alte rapoarte: 400=5:3, 533=5:4, 667=1:1, 800=5:6 La unele plăci putem găsi opţiunea pentru de ex 889 la memorie. Acest lucru se

face prin modificarea forţată a strap-ului în care ne aflăm.

131

Page 134: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 6

6 Metodologia de realizare a overclocking-ului la procesoarele AMD

6.1 Introducere Pentru început, este nevoie de:

• un procesor overclockabil; • o placă de bază bună, care să permită modificarea unui număr mare de setări în

BIOS (FSB, HT multiplier, latenţe/frecvenţe RAM, voltaje pentru procesor, memorii şi chipset, etc.);

• răcire bună pe procesor şi preferabil un airflow decent în carcasă; • o sursă bună, cu destui amperi şi care să nu aibă fluctuaţii de curent;

Soft-uri care ar trebui folosite pentru. monitorizare şi testarea stabilităţii:

• CPU-z1, pentru informaţii despre procesor şi memorie; • Everest2 /Speedfan3 /SmartGuardian, pentru monitorizarea temperaturilor; • Prim95 / Orthos SP 2004, pentru testarea stabilităţii procesorului şi memoriei; • Memtest de Windows, pentru testarea memoriei; • SuperPI, un test rapid de performanţă, dar rezultatele sunt puternic influenţate de

tweak-uri; • 3D Mark 2001, un test care evaluează cele mai importante componente ale

calculatorului: procesorul, placa video şi memoria; • RivaTuner/ATi Tool, pentru monitorizarea temperaturii core-ului plăcii video;

6.2 Procedura de realizare a overclocking-ului 1) În primul rând din BIOS, se schimbă setările pentru RAM, de pe Auto/SPD

pe Manual şi se schimbă frecvenţa, pentru a nu exista o limitare din partea memoriei. Cum se face asta depinde de BIOS: la unele arată frecvenţa, la altele divizorul (CPU/9, CPU/14, etc.). Ideea este că frecvenţa memoriei trebuie scăzută de la 400 MHz la 333 MHz sau chiar 266 MHz (în cazul sk. 754/939) şi de la 667 MHz la 533 sau chiar 400 MHz pt. platforma sk. AM2.

2) Tot în BIOS există opţiunea HT Multiplier. Trebuie modificată pe Manual şi scăzută valoarea multiplicatorului de la 5x la 4x sau chiar 3x. Din înmulţirea HT Multiplier cu HTT se obţine frecvenţa HT, care nu trebuie să depăşească 1000 MHz (pt. a fi sigur că stabilitatea nu este afectată de aici).

3) Urmează setările pt. procesor, care, din nou, trebuie puse pe Manual pentru a permite modificarea voltajului şi a HTT-ului. Pentru început este recomandată creşterea HTT-ului în paşi de 5 MHz pentru a putea testa cât mai corect şi sigur dacă este sau nu stabil.

1 http://www.roclockers.net/monitorizare/cpu-z-1.40.html 2 http://www.roclockers.net/monitorizare/everest-ultimate-edition-4.00.html 3 http://www.roclockers.net/monitorizare/speedfan-4.32.html

132

Page 135: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 6 4) Se salvează setările, se reporneşte sistemul şi se rulează un test din cele de

mai sus, de preferat 3D Mark 2001 şi/sau un joc pretenţios. Ce s-ar putea întâmpla dacă ceva nu e bine sau când s-a ajuns prea departe:

• sistemul nu POSTează, adică nici nu bootează. În cazul ăsta probabil a crescut prea mult frecvenţa. Soluţia este resetarea BIOS-ulului cu jumper-ul de clear CMOS de pe placa de bază. Toate setările din BIOS vor reveni la default. Sau se poate ţine apăsată tasta "1" în timp ce se apasă butonul de reset al PC-ului. În acest caz BIOS-ul va reveni la setările de fabrică. Nu ştiu dacă la toate plăcile de bază este valabilă această procedură, cel puţin pe o placă ABIT A8N-32X, la fel şi pe un DFI NF4 ;

• calculatorul porneşte, dar nu intră în sistemul de operare. Aici iarăşi înseamnă că s-a mers prea departe, dar se poate intra în BIOS pentru a efectua modificări.

• dacă porneşte sistemul de operare, dar se resetează sau apare un BSOD (ecran albastru) iarăşi nu e bine şi trebuie modificate valorile prin BIOS. 5) Testele:

• Prime95: se lasă cel puţin o oră să ruleze testul "Blend". Recomandat: peste 4 ore.

• Memtest de Windows: cel puţin 100% cu maximul de capacitate. Recomandat: peste 1000%.

• SuperPI: măcar 16M. Recomandat: două rulări ale testului 32M. • 3D Mark 2001: un singur loop e OK. Recomandat: câteva ore de loop-uri

continue. Pentru fiecare dintre teste se vor monitoriza temperaturile, inclusiv pe cele ale

plăcii video în caz că se rulează un test 3D. Temperatura memoriilor se măsoară "degetometric". Dacă sunt calde/călduţe e OK. Dacă ard/frig încercaţi să le asiguraţi o răcire, eventual cu un ventilator de 8 cm poziţionat deasupra.

Când se ajunge la limite ar mai fi următoarele variante:

• creşterea voltajului furnizat procesorului, tot din BIOS. Limitele pt. folosirea zilnică ar fi + 0,15V cu răcirea stock şi poate ajunge până la 0,3V în funcţie de răcire. Asta pe aer, pentru că răcirea pe apă e mai versatilă şi prefer să nu mă pronunţ.

• o altă limitare ar putea fi memoria. Pentru ca să fim siguri că limitarea nu apare de aici trebuie ca frecvenţa memoriei să fie la 400 MHz sau mai jos (sk. 754/939) sau în funcţie de frecvenţa nominală a memoriei, 667 MHz, 533 MHz, etc. (sk. AM2).

• acelaşi lucru este valabil şi pentru HT, care nu trebuie să depăşească 1000MHz. Nu afectează cu nimic performanţa dacă frecvenţa HT este mai mică de 1000 MHz, aşa că poate fi folosit direct multiplicatorul 3x.

• este recomandată şi creşterea voltajului de la chipset-ul plăcii de bază.

133

Page 136: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Seminar Evaluarea performanţelor sistemelor de calcul Seminar 6 6.3 FSB la Athlon64

Poate că mulţi dintre voi ştiţi că un overclock se face ridicând fsb-ul. La Athlon64 este puţin diferit pentru că odată cu integrarea controlerului de memorie în procesor nu mai avem FSB ci avem 2 magistrale. Este un memory bus care conectează memoriile de procesor şi un HyperTransport Bus care conectează procesorul de cipset prin intermediul căreia se trimit comenzi la diverse componente ale sistemului.

Pentru a putea face un overclock bun la Athlon64 trebuie să înţelegem cum este generată frecvenţa la aceste procesoare. Ele folosesc o frecvenţă de bază care este de multe ori greşit numita ca FSB. Aceasta este de fapt frecvenţa HyperTransport sau i se mai spune HT sau HTT. Ea este întotdeauna 200Mhz. Înmulţind această frecvenţă cu multiplicatorul procesorului se obţine frecvenţa de lucru.

De exemplu un Athlon64 X2 5000+ merge la 2600Mhz. Ele are frecventa HT de 200Mhz şi multiplicatorul de 13. Deci pentru a overclocka un Athlon64 trebuie ridicată frecventa HT (se poate face overclock şi din multiplicator dar acesta este de cele mai multe ori blocat). Dar, şi celelalte frecvenţe de pe placa de bază derivă tot din frecvenţa HTT. Frecvenţa efectivă a HyperTransport-ului este frecvenţa de baza multiplicată cu multiplicatorul HTT. Multiplicatorul HTT este de regula 5x adică 5*200=1000Mhz (sau 2000Mhz sau 4GB/s). Modelele mai vechi de Athlon64 au htt-ul la 800Mhz deci cu multiplicator de 4x. În momentul în care urcaţi frecventa de bază trebuie să aveţi grijă că aceasta multiplicată cu multiplicatorul HTT să nu depăşească maximul permis. De ex dacă urcaţi la 250mhz de la 200Mhz şi multiplicatorul HTT rămâne 5x va rezulta o frecvenţă efectivă a HyperTransportului de 1250 deci peste maxim. Astfel că trebuie coborât multiplicatorul HTT-ului ca să coboare şi frecvenţa sub limită. În cazul de faţă setând un multplicator de 4x va rezulta 1000Mhz deci perfect. Nu este nici o problema dacă merge şi sub 1000Mhz că nu are un impact vizibil asupra performanţei.

O altă frecvenţă care derivă din HTT este şi frecvenţa PCI-express sau AGP după caz, şi cea PCI. Frecvenţa PCI-express trebuie să fie 100Mhz cea AGP 66Mhz şi cea PCI 33Mhz. De asemenea porturile SATA necesita frecvenţa tot de 100Mhz. De obicei plăcile de bază pentru overclock folosesc un clock-generator separat pentru aceste frecvenţe şi au opţiunea de a le bloca la valoarea lor standard.

Orice overclock depinde de placa de bază şi de opţiunile pe care aceasta le oferă. Vom încerca să prezentăm cât mai generalizat:

• blocaţi toate componentele la frecvenţa standard în afară de procesor bineînţeles dacă vă permite placa de bază

• puneţi frecvenţa de baza pe Manual de pe Auto dacă este cazul • incrementaţi frecvenţa de bază în paşi mici (din 5 în 5 Mhz e ok) verificând

stabilitatea sistemului de fiecare dată (puteţi folosi programe specializate pentru acest lucru cum ar fi: Prime95, Orthos, Stress Prime2004, SuperPI, S&M)

• setaţi multiplicatorul HTT la 4x odată ce aţi trecut de 220Mhz • setaţi multiplicatorul HTT la 3x odată ce aţi trecut de 250Mhz

Frecvenţa efectivă HTT trebuie să stea sub 1000 sau sub 800, depinde de

procesor şi de placa de bază.

134

Page 137: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Bibliografie

1. http://www.memtest.org/ 2. http://www.mersenne.org/freesoft.htm 3. http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2322 4. http://www.xf.ro/content-62-page1.html 5. http://en.wikipedia.org/wiki/Wire_frame_model 6. http://www.realstorm.com/ 7. http://www.memtest.org/ 8. http://hcidesign.com/memtest/download.html 9. http://brain-power.net/menus.php?name=Company&c_lang=english 10. http://www.xf.ro/article135.html 11. http://www.guru3d.com/index.php?page=rivatuner 12. http://www.techpowerup.com/downloads/Tweaking/ATITool 13. http://www.techpowerup.com/atitool/ 14. http://downloads.guru3d.com/download.php?det=872 15. http://www.mvktech.net/component/option,com_remository/Itemid,26/func,sele

ctfolder/cat,92/ 16. http://www.entechtaiwan.net/util/ps.shtm 17. http://www.roclockers.net/monitorizare/cpu-z-1.40.html 18. http://www.roclockers.net/monitorizare/everest-ultimate-edition-4.00.html 19. http://www.roclockers.net/monitorizare/speedfan-4.32.html

135

Page 138: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cuprins CUVÂNT ÎNAINTE Partea a I-a : Curs 1. NOŢIUNI DE BAZĂ PRIVIND EVALUAREA PERFORMANŢELOR.....................................5

1.1. BENCHMARK-UL ORGANIZAŢIILOR.............................................................................................5 1.1.1. Avantajele benchmarking-ului ..................................................................................................5 1.1.2. Procedura de realizare a benchmark-ului ................................................................................5 1.1.3. Costul benchmarking-ului.........................................................................................................6

1.2. BENCHMARKING-ULUI ÎN COMPUTERE .......................................................................................6 1.2.1. Scopul benchmarking-ului ........................................................................................................7 1.2.2. Provocări ..................................................................................................................................7 1.2.3. Tipuri de benchmark .................................................................................................................8

1.3. ARHITECTURA CALCULATOARELOR ...........................................................................................9 1.3.1. Scopurile proiectării ...............................................................................................................10

2. EVALUAREA PERFORMANŢELOR PLĂCILOR DE BAZĂ .................................................12

2.1. PLĂCILE DE BAZĂ: FUNCŢIONARE, ISTORIE...............................................................................12 2.1.1. Definiţii de bază: chipset-ul....................................................................................................12 2.1.2. Memoria, tipuri de memorie ...................................................................................................15 2.1.3. Interfeţele interne: ISA, VLB, PCI, AGP etc ...........................................................................18 2.1.4. Interfeţele externe: serial, paralel, USB etc............................................................................20 2.1.5. Interfeţele pentru dispozitive de stocare .................................................................................21

2.2. TESTAREA PLĂCILOR DE BAZĂ SOCKET 939.............................................................................23 2.2.1. Introducere..............................................................................................................................23 2.2.2. Modul de testare .....................................................................................................................24 2.2.3. Testarea efectivă .....................................................................................................................26 2.2.4. Abit AN8 Fatal1ty (nForce4 Ultra).........................................................................................26 2.2.5. Abit AN8 (nForce4).................................................................................................................29 2.2.6. DFI LANParty UT nF4 Ultra-D (nForce4 Ultra)...................................................................30 2.2.7. Gigabyte GA-K8NXP-SLI (nForce4 SLI)................................................................................33 2.2.8. Gigabyte GA-K8NF-9 (nForce4-4X) ......................................................................................35 2.2.9. Rezultate comparative.............................................................................................................36 2.2.10. Concluzii ...............................................................................................................................37

3. EVALUAREA PERFORMANŢELOR PROCESOARELOR ....................................................38

3.1. ARHITECTURA LUI PENTIUM 4 PRESCOTT ................................................................................38 3.1.1. Introducere..............................................................................................................................38 3.1.2. Gestionarea memoriei principale şi secundare ......................................................................39 3.1.3. Latenţa ....................................................................................................................................41 3.1.4. Conductele ..............................................................................................................................42 3.1.5. Calculul matematic .................................................................................................................45 3.1.6. Tensiunile................................................................................................................................45 3.1.7. Ambalarea...............................................................................................................................45 3.1.8. Versiuni de Prescott-uri ..........................................................................................................46 3.1.9. Alte procesoare din familia P4 ...............................................................................................47 3.1.10. Concluzii ...............................................................................................................................48 3.1.11. Anexă: Chipset-uri pentru Pentium 4 ...................................................................................49

3.2. ARHITECTURA PROCESOARELOR AMD64................................................................................49 3.3. TRECUT ŞI PREZENT..................................................................................................................49

3.3.1. Cei 64 de biţii..........................................................................................................................50 3.3.2. Memoria gestionată direct din procesor.................................................................................51

136

Page 139: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Cuprins 3.3.3. HyperTransport.......................................................................................................................52 3.3.4. Cache-ul..................................................................................................................................53 3.3.5. Conductele şi predicţia ...........................................................................................................54 3.3.6. Moştentirea de la Intel ............................................................................................................54 3.3.7. Modele de K8, tehnologii de fabricaţie şi platforme...............................................................55 3.3.8. Concluzii .................................................................................................................................56

3.4. PROCESOARE DUAL-CORE .......................................................................................................58 3.4.1. Tehnologia Intel dual-core Intel .............................................................................................59 3.4.2. Tehnologia Dual-Core AMD ..................................................................................................60

3.5. TEST DE PROCESOARE ..............................................................................................................61 3.5.1. Testarea propriu-zisă..............................................................................................................64 3.5.2. Procesoare testate: .................................................................................................................66

3.5.2.1. Socket 939.................................................................................................................66 3.5.2.2. Socket AM2 ..............................................................................................................66 3.5.2.3. Socket T (LGA775) ..................................................................................................67

4. EVALUAREA MEMORIILOR .....................................................................................................70 4.1. INTRODUCERE ..........................................................................................................................70 4.2. STANDARDE, HTT, FRECVENŢE, LĂŢIMI DE BANDĂ .................................................................71

4.2.1. Latenţe ....................................................................................................................................72 4.2.2. Concluzii .................................................................................................................................78

4.3. MODUL DE TESTARE.................................................................................................................78 4.4. CHIP-URI DE MEMORIE .............................................................................................................80

4.4.1. A-Data Vitesta DDR500..........................................................................................................81 4.4.2. Corsair TWINX1024-3200C2PT rev 4.2.................................................................................82 4.4.3. Corsair TWINX1024-3200C2PT rev 5.2.................................................................................83 4.4.4. Corsair TWINX1024-3200XLPT rev 1.2.................................................................................83 4.4.5. Corsair TWINX1024-3200C2PRO rev 4.1..............................................................................84 4.4.6. Corsair TWINX1024-4400C25PT rev 1.1...............................................................................84

4.5. CONCLUZII ...............................................................................................................................85

5. EVALUAREA PLĂCILOR GRAFICE.........................................................................................86 5.1. INTRODUCERE ..........................................................................................................................86 5.2. FRECVENŢE ŞI LATENŢE ...........................................................................................................87

5.2.1. Frecvenţe ................................................................................................................................87 5.2.2. Latenţe ....................................................................................................................................88

6. EVALUAREA HARD DISCURILOR ...........................................................................................91

6.1. INTRODUCERE ..........................................................................................................................91 6.2. STRUCTURĂ ŞI FUNCŢIONARE...................................................................................................91

6.2.1. Transferul datelor la memorie ................................................................................................92 6.2.2. Interfeţe şi controlere..............................................................................................................92

6.3. CARACTERISTICI ......................................................................................................................93 6.3.1. Optimizarea timpilor de căutare.............................................................................................94 6.3.2. Optimizarea latenţelor de rotaţie............................................................................................94 6.3.3. Tehnologia NCQ .....................................................................................................................95 6.3.4. Hard discuri...puţin mai silenţioase........................................................................................96 6.3.5. Criptare nativă pentru hard discuri........................................................................................96 6.3.6. Hard discuri liliputane............................................................................................................97

137

Page 140: PC Evaluarea Per for Mantel Or Sistemelor de Calcul Pe Componente Inclusiv Over Clocking

Evaluarea performanţelor sistemelor de calcul Partea a II-a : Seminarii 1 METODOLOGIA DE EVALUARE PENTRU PLĂCI DE BAZĂ .............................................98

1.1 OBIECTIVE: ..............................................................................................................................98 1.2 INTRODUCERE ..........................................................................................................................98 1.3 CEI CINCI PAŞI ÎN EVALUAREA OBIECTIVĂ................................................................................99 1.4 CONSIDERAŢII FINALE / NOTA FINALĂ ...................................................................................101

2 EVALUAREA PLĂCILOR DE BAZĂ DUAL CORE...............................................................102

2.1 OBIECTIVE: ............................................................................................................................102 2.2 CONSIDERAŢII TEHNICE..........................................................................................................102 2.3 PROCEDURA DE TESTARE .......................................................................................................103 2.4 PLĂCI DE BAZĂ TESTATE ........................................................................................................104 2.5 CONCLUZII .............................................................................................................................106

3 REALIZAREA OVERCLOCK-INGULUI LA PLĂCILE GRAFICE.....................................107

3.1 GENERALITĂŢI DESPRE OVERCLOCKING-UL LA PLĂCILE GRAFICE..........................................107 3.2 CE ÎMI TREBUIE PENTRU OVERCLOCKING? .............................................................................109 3.3 PROCEDURA DE REALIZARE A OVERCLOCKING-ULUI..............................................................110 3.4 CÂND ŞI CUM APAR ARTEFACTELE? .......................................................................................112

4 EVALUAREA DISPLAY-URILOR.............................................................................................118

4.1 GENERALITĂŢI .......................................................................................................................118 4.2 TESTAREA DIPLAY-URILOR TFT LCD ...................................................................................122

4.2.1 Procedura de testare a monitoarelor LCD.......................................................................123 4.2.2 Cum să alegem un monitor ...............................................................................................124

5 METODOLOGIA DE REALIZARE A OVERCLOCKING-ULUI LA PROCESOARELE INTEL .....................................................................................................................................................126

5.1 INTRODUCERE ........................................................................................................................126 5.2 FSB LA INTEL ........................................................................................................................126 5.3 FRECVENTA MEMORIILOR, COŞMARUL DIVIZORILOR ŞI AL LATENTELOR................................127 5.4 VOLTAJELE ............................................................................................................................129 5.5 STRAP-UL LA NORTHBRIDGE ..................................................................................................130

6 METODOLOGIA DE REALIZARE A OVERCLOCKING-ULUI LA PROCESOARELE AMD EROARE! MARCAJ ÎN DOCUMENT NEDEFINIT.

6.1 INTRODUCERE ........................................................................................................................132 6.2 PROCEDURA DE REALIZARE A OVERCLOCKING-ULUI..............................................................132 6.3 FSB LA ATHLON64 ................................................................................................................134

7 BIBLIOGRAFIE............................................................................................................................135 8 CUPRINS........................................................................................................................................136

138