Seagate Barracuda 7200.11 640 GByte

Published by Marc Büchel on 06.10.08
Page:
« 1 2 (3) 4 5 6 »

Wie testen wir?

Testumgebung

Lesern, die sich nicht intensiv mit Aufbau und Überlegungen bezüglich Testverfahren auseinander setzen möchten, empfehlen wir die folgenden zwei Seiten zu überspringen und direkt zu den Testresultaten zu springen.

Testresultate


ModellSeagate Barracuda 720011 ST3640323AS640 GByte
MainboardGigabyte X38-DQ6 
ChipsatzIntel X381066 MHz
CPUIntel Xeon 30602.4 GHz
SpeicherCorsair Dominator 9136 DDR22 GByte
GrafikkarteGigabyte GeForce 7200 
Storage (System)Maxtor160 GByte
BetriebssystemeUbuntu 8.04.1 Hardy
Microsoft Windows XP
Kernel 2.6.24-19-server
SP3
DateisystemXFS 

Wer kennt das nicht? Man kauft sich eine Festplatte, die gemäss Spezifikationen 115 MB/s lesen soll, in den Reviews ca. 100 MB/s effektiv liefert und, sobald eingebaut, viel langsamer wirkt, als alle behauptet haben. Führt man selbst einen Test durch und kommt zu der Stelle, an der 4 KByte-Blöcke zufällig geschrieben werden, sinkt die Datenrate nicht selten auf 2 - 3 MB/s.

Wir haben uns daher entschieden, nicht die üblichen Screenshots von Testprogrammen zu liefern, sondern die Tests so durchzuführen, dass sie

  • reproduzierbar,
  • akkurat,
  • aussagekräftig und
  • vielseitig

sind.

Getestet wird grundsätzlich mit Verwendung von Caches und NCQ (diese sind im täglichen Gebrauch auch aktiviert). Die zu schreibenden Datenmengen übersteigen aber immer den im System vorhandenen Arbeitsspeicher um mindestens das Doppelte.

Aufgefallen ist, dass sich der Messfehler konstant bei etwa ±2% bewegt, bei allen Tests. Deshalb wird dieser auch nicht überall angegeben. Bei den angegebenen Testwerten handelt es sich um Durchschnittswerte.

Wir werten nach dem Test zusätzlich die S.M.A.R.T. Daten aus, um festzustellen, ob bereits Fehler gemeldet wurden und welche Informationen überhaupt gesammelt werden.

Folgende Tabelle fasst zusammen, vorauf wir bei den Tests unser Augenmerk legen:

TestBeobachtungen
  
Sequential Read/Write Tests
  • Werden die angegebenen Werte (Spezifikationen) wirklich erreicht?
  • Welchen Einfluss hat die Blockgrösse?
  • Welchen Einfluss hat die Blockgrösse des Dateisystems?
Random Read/Write Tests
  • Wie stark ist der Einfluss auf die tdeoretisch mögliche (sequentielle) Datenrate?
  • Welchen Einfluss hat die Blockgrösse?
  • Welchen Einfluss hat die Blockgrösse des Dateisystems?
Datenbank-Tests
  • Wieviele Transaktionen pro Sekunde (TPS) kann die Datenbank liefern?
  • Bleibt die Geschwindigkeit (TPS) konstant, wenn sehr viele Anfragen gleichzeitig an die Datenbank gestellt werden?
  • Wie stark wird die CPU belastet?


Linux, XFS, wieso?

Es gibt verschiedene Gründe, warum für den Test ein Betriebssystem mit Linux-Kernel verwendet wird, statt des klassischen, frisch installierten Windows XP mit allen Service Packs:

  • Das Dateisystem (XFS) lässt sich wesentlich flexibler konfigurieren als das proprietäre NTFS.
  • Das verwendete Testprogramm iozone läuft unter Linux nativ und es lassen sich vielfältigere Arten des Zugriffs auf das Drive einsetzen.
  • Der Test zielt unter anderem auf die Verwendung im Server-Bereich ab.
  • Das gewählte Testprogramm liefert Daten auf statistischer Basis (Fehler, Varianz, etc.)

Das Dateisystem wurde folgendermassen erstellt:

mkfs.xfs -f /dev/sdb
Gemountet wurde mit den Optionen:
mount -o rw,noatime,logbufs=8 /dev/sdb /mnt/sea

Wieso werden verschiedene Blockgrössen getestet?

Es ist wichtig, die alltagsnahen Szenarien bei einem Test zu reproduzieren. Gewisse Parameter müssen während der Tests variabel sein, damit eine Aussage über das Produkt gemacht werden kann. In unserem Test ist dies die Blockgrösse. Sie bestimmt die Grösse in KB an Daten, die pro Transaktion auf das Drive geschrieben oder davon gelesen werden.

Damit kann man das Lesen und Schreiben von kleinen und grossen Dateien testen. Kleinere Files als 16 KB kommen im Desktop-Bereich eher selten vor. Mailserver und Datenbankserver haben aber einen viel grösseren Anteil an kleinen Dateien. Somit ist besonders bei Datenbanken ist ein Test mit kleinen Blockgrössen interessant, da die Datenbank nach jeder beendeten Transaktion die Daten sofort auf die Platte speichert (damit garantiert ist, dass alles wie beabsichtigt gespeichert wurde — auch nach einem Stromausfall.)

Bei grösseren RAID-Verbünden ist der Festplatten-Cache normalerweise deaktiviert. Stattdessen übernehmen die RAID-Controller die Caching-Arbeit. Gerade in solchen Setups müssen Festplatten bezüglich kleinen Datenmengen trumpfen können. Sequentieller Durchsatz ist fast nicht von Bedeutung.




Artikel im Forum diskutieren




Navigate through the articles
Previous article Seagate Barracuda 7200.11 1.5 TByte Seagate Barracuda 7200.11 1 TByte Next article
comments powered by Disqus

Seagate Barracuda 7200.11 640 GByte - Speichermedien - Reviews - ocaholic