Seagate Barracuda 7200.11 1.5 TByte

Published by Marc Büchel on 25.09.08
Page:
« 1 2 (3) 4 5 6 »

Wie testen wir?

Testumgebung

Lesern, die sich nicht intensiv mit Aufbau und Überlegungen bezüglich Testverfahren auseinander setzen möchten, empfehlen wir die folgenden zwei Seiten zu überspringen und direkt zu den Testresultaten zu springen.

Testresultate


ModellSeagate Barracuda 720011 ST31500340AS1.5 TByte
MainboardGigabyte X38-DQ6 
ChipsatzIntel X381066 MHz
CPUIntel Xeon 30602.4 GHz
SpeicherCorsair Dominator 9136 DDR22 GByte
GrafikkarteGigabyte GeForce 7200 
Storage (System)Maxtor160 GByte
BetriebssystemeUbuntu 8.04.1 Hardy
Microsoft Windows XP
Kernel 2.6.24-19-server
SP3
DateisystemXFS 
Datenbank-Management-SystemPostgreSQLVersion 8.3.3

Wer kennt das nicht? Man kauft sich eine Festplatte, die gemäss Spezifikationen 120 MB/s lesen soll, in den Reviews ca. 110 MB/s effektiv liefert und, sobald eingebaut, viel langsamer wirkt, als alle behauptet haben. Führt man selbst einen Test durch und kommt zu der Stelle, an der 4 KByte-Blöcke zufällig geschrieben werden, sinkt die Datenrate nicht selten auf 2 - 3 MB/s.

Wir haben uns daher entschieden, nicht die üblichen Screenshots von Testprogrammen zu liefern, sondern die Tests so durchzuführen, dass sie

  • reproduzierbar,
  • akkurat,
  • aussagekräftig und
  • vielseitig

sind.

Getestet wird grundsätzlich mit Verwendung von Caches und NCQ (diese sind im täglichen Gebrauch auch aktiviert). Die zu schreibenden Datenmengen übersteigen aber immer den im System vorhandenen Arbeitsspeicher um mindestens das Doppelte.

Aufgefallen ist, dass sich der Messfehler konstant bei etwa ±2% bewegt, bei allen Tests. Deshalb wird dieser auch nicht überall angegeben. Bei den angegebenen Testwerten handelt es sich um Durchschnittswerte.

Datenbanken hängen fundamental vom benutzten Speichersystem ab. Mit der richtigen Wahl des Speichersystems kann die Performance von Datenbanken auf einer konventionellen Festplatte deutlich gesteigert werden. Um dies aufzuzeigen benutzen wir PostgreSQL in der Verison 8.3.3 in Kombination mit dem Script pgbench.

Wir werten nach dem Test zusätzlich die S.M.A.R.T. Daten aus, um festzustellen, ob bereits Fehler gemeldet wurden und welche Informationen überhaupt gesammelt werden.

Folgende Tabelle fasst zusammen, vorauf wir bei den Tests unser Augenmerk legen:

TestBeobachtungen
  
Sequential Read/Write Tests
  • Werden die angegebenen Werte (Spezifikationen) wirklich erreicht?
  • Welchen Einfluss hat die Blockgrösse?
  • Welchen Einfluss hat die Blockgrösse des Dateisystems?
Random Read/Write Tests
  • Wie stark ist der Einfluss auf die tdeoretisch mögliche (sequentielle) Datenrate?
  • Welchen Einfluss hat die Blockgrösse?
  • Welchen Einfluss hat die Blockgrösse des Dateisystems?
Datenbank-Tests
  • Wieviele Transaktionen pro Sekunde (TPS) kann die Datenbank liefern?
  • Bleibt die Geschwindigkeit (TPS) konstant, wenn sehr viele Anfragen gleichzeitig an die Datenbank gestellt werden?
  • Wie stark wird die CPU belastet?


Linux, XFS, wieso?

Es gibt verschiedene Gründe, warum für den Test ein Betriebssystem mit Linux-Kernel verwendet wird, statt des klassischen, frisch installierten Windows XP mit allen Service Packs:

  • Das Dateisystem (XFS) lässt sich wesentlich flexibler konfigurieren als das proprietäre NTFS.
  • Das verwendete Testprogramm iozone läuft unter Linux nativ und es lassen sich vielfältigere Arten des Zugriffs auf das Drive einsetzen.
  • Der Test zielt unter anderem auf die Verwendung im Server-Bereich ab.
  • Das gewählte Testprogramm liefert Daten auf statistischer Basis (Fehler, Varianz, etc.)

Das Dateisystem wurde folgendermassen erstellt:

mkfs.xfs -d sunit=128 -d swidth=4096 -l size=128m -f /dev/sdb
Gemountet wurde mit den Optionen:
mount -o rw,noatime,logbufs=8 /dev/sdb /mnt/sea

Wieso werden verschiedene Blockgrössen getestet?

Es ist wichtig, die alltagsnahen Szenarien bei einem Test zu reproduzieren. Gewisse Parameter müssen während der Tests variabel sein, damit eine Aussage über das Produkt gemacht werden kann. In unserem Test ist dies die Blockgrösse. Sie bestimmt die Grösse in KB an Daten, die pro Transaktion auf das Drive geschrieben oder davon gelesen werden.

Damit kann man das Lesen und Schreiben von kleinen und grossen Dateien testen. Kleinere Files als 16 KB kommen im Desktop-Bereich eher selten vor. Mailserver und Datenbankserver haben aber einen viel grösseren Anteil an kleinen Dateien. Somit ist besonders bei Datenbanken ist ein Test mit kleinen Blockgrössen interessant, da die Datenbank nach jeder beendeten Transaktion die Daten sofort auf die Platte speichert (damit garantiert ist, dass alles wie beabsichtigt gespeichert wurde — auch nach einem Stromausfall.)

Bei grösseren RAID-Verbünden ist der Festplatten-Cache normalerweise deaktiviert. Stattdessen übernehmen die RAID-Controller die Caching-Arbeit. Gerade in solchen Setups müssen Festplatten bezüglich kleinen Datenmengen trumpfen können. Sequentieller Durchsatz ist fast nicht von Bedeutung.




Artikel im Forum diskutieren




Navigate through the articles
Previous article Intel X25-m Mainstream SATA SSD Seagate Barracuda 7200.11 640 GByte Next article
comments powered by Disqus

Seagate Barracuda 7200.11 1.5 TByte - Speichermedien - Reviews - ocaholic