Vsekakor bo najnovejši računalnik z močnim štirijedrnim procesorjem prav hudo prekašal star in zastarel računalnik z enojnim ali tudi dvojnim jedrom, tudi če oba tečeta pri istem taktu. Pri čemer niti ni upoštevano število jeder. Tako se prava razlika v hitrosti pokaže šele pri opravljanju več opravil hkrati oziroma pri uporabi programov, ki znajo izkoristiti prav vsa jedra procesorja. Potem je v računalniku še kopica naprav, ki vplivajo na hitrost: vse od hitrosti in kapacitete pomnilnika, hitrosti trdih diskov, zmogljivosti grafične kartice za zahtevno 3D-grafiko in seveda tega, kako zmore matična plošča vse skupaj povezati v celoto. Pri sestavi računalnika pa je treba zadeve seveda uravnotežiti. Če bo procesor prepočasen, ne bomo imeli prave koristi od zelo zmogljive grafične kartice in obratno.
KAJ JE BENCHMARK
V določeni točki razvoja računalnikov se je pojavila potreba po smiselni primerjavi hitrosti med različnimi računalniki. Za dobro primerjavo seveda potrebujemo standard oziroma standardno enoto, ki bo omogočila primerjavo. Enega prvih programov za primerjalne teste (benchmark) so razvili leta 1972 pod imenom Whetstone. Opravljal je serije matematičnih operacij in meril hitrost izvajanja. Rezultat je bil podan v številu opravljenih operacij v sekundi. Whetstone je lahko prikazal tudi razliko v hitrosti različnih generacij računalnikov. Tako vemo, da je IBM 360/30 opravil 10.550 operacij v sekundi, medtem ko moderen računalnik s procesorjem i7-860 opravi približno 2.8 milijarde operacij v sekundi. Nekaj razlike pa že je. Takšno merjenje hitrosti je bilo nekoč dovolj, da so se lahko uporabniki v poslovnem svetu odločali, kdaj nadgraditi računalniški sistem, saj je bil podatek jasen in pregleden. Takoj so lahko videli, kakšna bo razlika, in lahko so izračunali korist glede na ceno novega sistema.
Programi za primerjalne teste, pa niso namenjeni samo za poslovno, ampak tudi za domačo rabo. Tudi doma se je treba odločiti, kdaj je pravi trenutek za menjavo računalnika ali nadgradnjo določenih komponent in kako zmogljiv računalnik v resnici potrebujete. Hitrost je koristno preveriti tudi, ko že nadgradite določene komponente, saj lahko ugotovite kakšna, če sploh, je korist po nadgradnji. Če je ni ali je zanemarljiva, je smiselno zadevo v trgovini zamenjati za komponento, ki bo bolj vplivala na zmogljivost računalnika.
Programi kot je bil Whetstone, pa imajo svoje omejitve. Ko je ta program nastal je bila simulacija matematičnih izračunov smiselna, saj so poslovni računalniki dejansko v glavnem počeli prav to. Kljub temu pa je bila to samo simulacija, ki se je delno razlikovala od realnih nalog in je v resnici dajala le rezultat, kako hitro računalnik poganja Whetstone. Tako je tak način preverjanja dobil ime »synthetic benchmark« oziroma umeten test, ki obremeni računalnik na določen, prav poseben način.
Če bi poskusili pripraviti test operacij, ki se izvedejo s programom Microsoft Excel, in bi merili čas izvajanja, bi bili rezultati odvisni tudi od tega, kateri vtičniki (plug-in) so nameščeni ali koliko pomnilnika je bilo prostega ob začetku testa. Tako bi bili lahko rezultati zelo različni med dvema popolnoma enakima računalnikoma ali celo v istem računalniku v različnem času.
Sintetični testi, se pravi posebej in skrbno pripravljeni programi s svojim delovanjem odpravijo takšne naključne razlike. Testi, kot je bil Whetstone, ki meri odziv procesorja, tudi niso več dovolj. Dobro, saj so obstajali, že davno, tudi programi za testiranje drugih komponent računalnika, kot so pomnilnik, trdi disk, grafična kartica, kljub vsemu pa dandanes potrebujemo teste, ki bodo »realno«, kolikor je to sploh mogoče, obremenili računalnik in merili odzive posameznih komponent. Tako dobimo kopico rezultatov, ki nazorno prikažejo zmogljivost komponent, iz tega pa program izračuna skupen učinek. Pri tem je pomembno, da na meritve ne vplivajo naključne zadeve. Tako ne sme biti pomembno, kateri operacijski sistem je nameščen, koliko in katere programe imate še nameščene in podobno. Dober program mora odpraviti vse te vplive in prikazati kolikor toliko realen rezultat, za nameček pa mora meriti tudi različne vrste operacij oziroma nalog (tudi več različnih hkrati), ki jih dandanes opravljajo računalniki. Tako bi bilo prav. Toda takšni rezultati bi bili na neki način sterilni in bi pokazali, kaj bi lahko zmogel naš računalnik, ne pokažejo pa, kaj dejansko zmore z vsemi programi in »nesnago«, ki se je nabrala v računalniku. Seveda je dobro vedeti tudi, kaj bi računalnik lahko zmogel, saj lahko ugotavljamo tudi, kakšen je razkorak med »teorijo in prakso«.
REALNI TESTI
Za rezultat, ki je kolikor toliko realen, je treba meriti hitrost delovanja računalnika pri opravljanju resničnih nalog. Takšnih, kot jih opravljate sami. To je seveda nemogoče, lahko pa se programi za realno testiranje, kolikor je mogoče, približajo temu, kar počnejo povprečni uporabniki s svojimi računalniki za domačo rabo. Pri tem si snovalci pomagajo s statistikami in z izkušnjami.
Če želimo dobiti realne rezultate, je treba uporabiti programe, kot so Microsoft Office, Adobe Photoshop, različne kodirnike filmskih in drugih datotek, pa tudi računalniške igre in še kaj, in pri tem meriti hitrost opravljanja nalog. Trdi disk je recimo treba testirati med zapisovanjem in branjem dolgih datotek. Seveda je treba potem vse diske testirati z isto datoteko, da dobimo primerljive rezultate, po možnosti uporabite takšno datoteko, kot jih boste tudi v resnici shranjevali na disk. Ker na hitrost vplivajo vsi dejavniki, na primer operacijski sistem, kateri programi tečejo v ozadju in še kaj, je treba test seveda ponavljati pri natančno enakih razmerah. To ni težava, če recimo pripravljate članek in testirate kopico trdih diskov ali drugih računalniških komponent. Na daljši čas pa je zadeva malce problematična.
Imajo pa tudi takšni realni testi svoje omejitve. Tudi niso popolnoma »realni«, ampak vsebujejo tudi sintetični del testov. Deli testov so lahko še tako podobni resničnemu delu z računalnikom, a kaj ko niti dva računalnika na svetu ne izvajata popolnoma enakih nalog. Vsak uporabnik računalnika ima svoje potrebe in počne z računalnikom, kar pač počne. Poglejmo recimo uporabnika, ki se v glavnem igra s 3D-igrami, in drugega, ki pretežno uporablja pisarniške programe. S testnim programom, ki v glavnem izvaja teste, namenjene pisarniškemu delu, bo zadovoljen le eden od omenjenih uporabnikov. Tudi če bi program enako pozornost namenil obema opraviloma, test ne bi bil popolnoma zadovoljiv za oba uporabnika. Testi so nerealni tudi zato, ker uporabnik ne dela nenehno, ampak prihaja do krajših in daljših obdobij, ko uporabnik razmišlja, v tem času pa se določene komponente razbremenijo in začasni pomnilnik izprazni. Testi pa takšnih pavz ne upoštevajo in je med testi obremenitev nenehna. Pri takšnih testih tudi pridejo bolj do izraza tako imenovani ozka grla. To so komponente, ki so manj zmogljive kot druge. Če ima računalnik zmogljiv procesor in malo pomnilnika, potem je rezultat precej klavrn, čeprav morda z računalnikom v resnici ne počnete nič takšnega, kar bi zahtevalo več kot toliko pomnilnika. Realistični test bi nas lahko obvestil, da ima naš računalnik premalo zmogljiv procesor. Sintetični test bi seveda kaj hitro pokazal, da temu ni tako. Se pravi, potrebujemo nekakšno mešanico realnih in sintetičnih testov, če hočemo zaokrožene in kolikor toliko pregledne in realne rezultate.
Moj mikro, november 2011 | Slavko Meško |