Overclock.pl » Testy i recenzje » Optymalna konfiguracja BIOS-u

Optymalna konfiguracja BIOS-u2007-04-11 23:03:34 |  Tomasz Węc (twec)

Wydajność posiadanego komputera bywa rzeczą ważną, choć przeważnie, na co dzień, nie odczuwamy jej bezpośrednio. Problem pojawia się wtedy, kiedy chcemy zagrać w najnowszą grę, lub też mamy film do skompresowania. Warto więc spróbować wydobyć z posiadanego sprzętu maksimum wydajności.

Zanim zaczniemy

Wydajność posiadanego komputera bywa rzeczą ważną, choć przeważnie, na co dzień, nie odczuwamy jej bezpośrednio. Problem pojawia się wtedy, kiedy chcemy zagrać w najnowszą grę, lub też mamy film do skompresowania. Warto więc spróbować wydobyć z posiadanego sprzętu maksimum wydajności.

Standardowe konfiguracje komputerów są zwykle bardzo odległe od osiągalnego dla nich maksimum. Wynika to przede wszystkim z faktu, iż producenci sprzętu jako podstawowe ustawienia wszystkich parametrów stosują te, które zapewniają maksymalną stabilność, a także maksymalną tolerancję parametrów poszczególnych elementów, czy też podsystemów. Tak przygotowany komputer pracuje wprawdzie stabilnie, jednak jego możliwości pozostają niewykorzystane. Zmieniając samodzielnie ustawienia parametrów Setupu, możemy w rezultacie uzyskać zwiększenie wydajności komputera, porównywalne z zastosowaniem procesora szybszego nawet o dwa modele! Oczywiście straci na tym stabilność, jeżeli jednak tuning wykonamy prawidłowo, to ryzyko załamań systemu będzie niewielkie. Dalszą drogę do zwiększania wydajności stanowi overclocking, czyli zwiększanie częstotliwości taktowania poszczególnych podzespołów powyżej ich nominalnych częstotliwości pracy. Warto zauważyć, że o ile rozsądnie prowadzone próby i eksperymenty z tuningiem nie mogą spowodować żadnego trwałego uszkodzenia, to overclocking niesie ze sobą pewien poziom ryzyka.

Większość tuningowych zmian w komputerze wykonywana jest drogą zmian ustawień tzw. Setupu. Zanim rozpoczniemy jakiekolwiek eksperymenty z tymi zmianami, upewnijmy się, że konstrukcja płyty pozwala na przywrócenie ustawień fabrycznych w przypadku, gdy w trakcie wprowadzania zmian popełnimy błąd lub ustawimy parametry tak, że komputer wręcz nie będzie miał prawa działać poprawnie. Większość płyt wyposażona jest w zworkę, której przełączenie powoduje reset ustawień zapisanych przez Setup w jego pamięci. Jeśli nie potrafimy jej odnaleźć (zwykle wtedy, kiedy najzwyczajniej jej nie ma), przeczytajmy uważnie instrukcję płyty głównej. Niektóre BIOS-y pozwalają w takiej sytuacji zrobić reset ustawień przez włączenie zasilania przy naciśniętym którymś z klawiszy, najczęściej Insert. Jeśli uda się znaleźć taką opcję warto jeszcze upewnić się, że działa ona w posiadanej konfiguracji, przykładowo w przypadku klawiatury dołączanej przez USB szanse na poprawne działanie tej funkcji są bardzo bliskie zeru. Oczywiście po takiej próbie czeka nas pracowite przywracanie pierwotnych ustawień (warto je przedtem zanotować), ale lepsze to niż nieodwracalna utrata kontaktu z płytą główną. Dopiero wtedy, gdy zyskamy pewność, że jesteśmy w stanie poradzić sobie po nieprawidłowym ustawieniu czegokolwiek, możemy przystąpić do dalszych prac. Nie od rzeczy będzie również sprawdzenie co właściwie posiadamy, czyli jakie są nominalne parametry pamięci, procesora i innych elementów. Znajomość tych danych może nam czasami oszczędzić niepotrzebnych prób i związanych z nimi strat jakże cennego dzisiaj czasu.

Tuning parametrów

Przed przystąpieniem do tuningu i zabiegów overclockerskich warto poddać komputer testom, by móc później ocenić skuteczność wprowadzonych zmian. Również podczas wykonywania kolejnych operacji przyda nam się możliwość oceny ich wpływu na osiągi komputera. Bardzo wygodnym i użytecznym narzędziem jest (wchodzący w skład benchmarku ScienceMark) MemTest, mierzący szybkość transmisji danych pomiędzy systemową pamięcią RAM i procesorem oraz opóźnienia przesłań danych. Trzeba pamiętać o tym, że oba parametry wpływają na wydajność systemu w co najmniej takim samym stopniu, jak przyspieszanie zegara procesora. Możemy również w tym samym celu posłużyć się programem CacheMEM, który dostarcza bardziej szczegółowych informacji. MemTest lub CacheMEM pozwolą nam na ocenę bezpośredniego wpływu wprowadzonych zmian na szybkość transmisji i opóźnienia przesłań. Dodatkowo warto jeszcze zaopatrzyć się w benchmark pozwalający oszacować ogólną wydajność komputera. Dobrym i niekłopotliwym testem tego typu może być demo z Quake III Arena, uruchamiane w najniższej rozdzielczości. Po przeprowadzeniu testów początkowych oraz zanotowaniu wyników, możemy przystąpić do właściwego tuningu. Bardzo istotną dla wydajności grupą ustawień Setupu są parametry pamięci operacyjnej. W typowej konfiguracji komputera są one ustawiane automatycznie, zgodnie z informacjami przekazywanymi sterownikowi pamięci w chipsecie poprzez moduł pamięci. Dane te są przekazywane przez protokół SPD (Serial Presence Detect) z modułu pamięci do chipsetu, podczas inicjalizacji podsystemu pamięci, bezpośrednio po włączeniu komputera. Przypomnijmy, że producenci z reguły definiują parametry pod kątem maksymalnej pewności i stabilności, stawiając wydajność na najodleglejszym planie, zatem pierwszym krokiem w naszych próbach tuningu będzie odnalezienie i zastąpienie pierwotnej opcji SPD, opcją Manual. Mając dostęp do wszystkich parametrów taktowania pamięci zaczynamy od ustawienia optymalnego przeplotu banków pamięci. Zwykle jeden moduł DIMM zawiera dwa banki, ustawiamy więc parametr Bank Interleave zależnie od liczby zainstalowanych w komputerze modułów. Setup podaje wszystkie dostępne w danej konfiguracji opcje, spośród których wybieramy wyższą liczbę. Im intensywniejszy przeplot, tym wyższa efektywna przepływowośc pamięci. Kolejnym niemniej ważnym parametrem jest CAS Latency, czyli minimalne opóźnienie sygnału wybrania kolumny w matrycy pamięci. Większość modułów SDRAM posiada w SPD wpisane CL=2,5, jednak moduły nawet średniej klasy z reguły pracują poprawnie również przy CL=2. Ustawiamy więc taką opcję, a wraz z nią zmniejszamy kolejny parametr: CAS To RAS Delay. Po wprowadzeniu takich zmian zapisujemy je i uruchamiamy komputer ponownie. Jeżeli ten wystartował prawidłowo, sprawdzamy uzyskane efekty. Zmiana CL z 2,5 na 2 i odpowiednia zmiana opóźnienia CAS To RAS powinny przynieść skrócenie maksymalnego opóźnienia transmisji o około 10% oraz zwiększenie przepływowości odczyt/zapis o kilka procent. Jeśli teraz uruchomimy Quake'a III Arena z wybranym poprzednio demo, będziemy mogli równocześnie nie tylko ocenić uzyskany wzrost wydajności, ale i również przeprowadzić podstawowy test stabilności systemu z nowymi ustawieniami. Po doprowadzeniu do optimum parametrów podsystemu pamięci w procesie tuningu komputera na poziomie Setupu, pozostaje niewiele do zrobienia. Warto włączyć tryb Fast Writes w obsłudze AGP. Pewien nieznaczny wzrost wydajności w bardzo bogatych grach, oraz w programach rozrzutnie używających pamięci operacyjnej, ale w ograniczonym stopniu korzystających z grafiki, można uzyskać dopasowując do ich wymagań parametr AGP Aperture Size. Określa on obszar systemowej pamięci RAM, który jest dostępny w transmisji poprzez AGP w trybie bezpośrednim. Standardowe ustawienie 64 MB stanowi dla przeciętnego użytkownika optimum, jeśli jednak zamierzamy grać w najnowsze produkcje, to ze względu na bogactwo tekstur, które są przesyłane przez AGP, powinniśmy ten parametr zwiększyć. Jeżeli jednak głównym zadaniem naszego komputera mają być na przykład obliczenia wytrzymałościowe konstrukcji, wykonywane metodą elementów skończonych, to ustawienie AGP Aperture Size na minimalną wartość przyniesie nam skrócenie kilkugodzinnych obliczeń o przynajmniej kilkadziesiąt sekund.

Końcowy test stabilności

Jak już wcześniej zostało wspomniane, po każdym etapie zmian należy przeprowadzić podstawowy test stabilności systemu, polegający na uruchomieniu dość wymagającej aplikacji. Po całkowitym zakończeniu tuningu powinniśmy jednak przeprowadzić poważniejszy test stabilności, trwający przynajmniej kilka godzin. Pozytywny wynik takiego testu da nam podstawę do wiary w to, iż nasz komputer nie będzie płatał niemiłych figli. Co zatem można uznać za miarodajny test?! Podstawowym może być "nieśmiertelny" Quake III Arena. Nieprzerwane, kilkugodzinne działanie demo Quake'a jest poważnym wyzwaniem dla stabilności maszyny. Można również użyć programu CPU Stability Test v6.0, angażującego całość zasobów komputera. Kiedy już będziemy w pełni przekonani o tym, że komputer działa prawidłowo, miło będzie powtórzyć te same testy, które wykonaliśmy na początku po to, aby móc cieszyć się uzyskanymi wynikami... Uzyskanymi za darmo, jedynie kosztem niewielkiego nakładu pracy.

Ocena portalu Overclock.pl

0

Plusy i minusy

.

.

  • Zotac
  • Enermax
  • Chieftec
  • Cenowarka.pl
  • BenQ
  • Cooler Master
  • Aquatuning.pl
  • Asus
  • XFX
  • Seagate
  • Intel Corporation
  • Gigabyte