Intel X25-M Gen2 34nm 160GB

Published by Marc Büchel on 02.09.09
Page:
« 1 2 (3) 4 5 6 ... 13 »

Wie testen wir?

Testumgebung

Modell Intel X25-m Gen2 34 nm 160 GByte
Mainboard Gigabyte X38-DQ6  
Chipsatz Intel X38 1066 MHz
CPU Intel Xeon 3060 2.4 GHz
Speicher Corsair Dominator 9136 DDR2 2 GByte
Grafikkarte Gigabyte GeForce 7200  
Storage (System) Maxtor 160 GByte
Betriebssysteme Ubuntu 8.04.1 Hardy Kernel 2.6.27-11-server
Dateisystem XFS  

Wer kennt das nicht? Man kauft sich eine Festplatte, die gemäss Spezifikationen 120 MB/s lesen soll, in den Reviews ca. 110 MB/s effektiv liefert und, sobald eingebaut, viel langsamer wirkt, als alle behauptet haben. Führt man selbst einen Test durch und kommt zu der Stelle, an der 4 KByte-Blöcke zufällig geschrieben werden, sinkt die Datenrate nicht selten auf 2 - 3 MB/s.

Wir haben uns daher entschieden, nicht die üblichen Screenshots von Testprogrammen zu liefern, sondern die Tests so durchzuführen, dass sie

  • reproduzierbar,
  • akkurat,
  • aussagekräftig und
  • vielseitig

sind.

Getestet wird grundsätzlich mit Verwendung von Caches und NCQ (diese sind im täglichen Gebrauch auch aktiviert). Die zu schreibenden Datenmengen übersteigen aber immer den im System vorhandenen Arbeitsspeicher um mindestens das Doppelte.

Aufgefallen ist, dass sich der Messfehler konstant bei etwa ±2% bewegt, bei allen Tests. Deshalb wird dieser auch nicht überall angegeben. Bei den angegebenen Testwerten handelt es sich um Durchschnittswerte.

Wir werten nach dem Test zusätzlich die S.M.A.R.T. Daten aus, um festzustellen, ob bereits Fehler gemeldet wurden und welche Informationen überhaupt gesammelt werden.

Folgende Tabelle fasst zusammen, vorauf wir bei den Tests unser Augenmerk legen:

Test Beobachtungen
   
Sequential Read/Write Tests
  • Werden die angegebenen Werte (Spezifikationen) wirklich erreicht?
  • Welchen Einfluss hat die Blockgrösse?
  • Welchen Einfluss hat die Blockgrösse des Dateisystems?
Random Read/Write Tests
  • Wie stark ist der Einfluss auf die theoretisch mögliche (sequentielle) Datenrate?
  • Welchen Einfluss hat die Blockgrösse?
  • Welchen Einfluss hat die Blockgrösse des Dateisystems?


Linux, XFS, wieso?

Es gibt verschiedene Gründe, warum für den Test ein Betriebssystem mit Linux-Kernel verwendet wird, statt des klassischen, frisch installierten Windows XP mit allen Service Packs:

  • Das Dateisystem (XFS) lässt sich wesentlich flexibler konfigurieren als das proprietäre NTFS.
  • Das verwendete Testprogramm iozone läuft unter Linux nativ und es lassen sich vielfältigere Arten des Zugriffs auf das Drive einsetzen.
  • Der Test zielt unter anderem auf die Verwendung im Server-Bereich ab.
  • Das gewählte Testprogramm liefert Daten auf statistischer Basis (Fehler, Varianz, etc.)

Das Dateisystem wurde folgendermassen erstellt:

mkfs.xfs -d sunit=64 -d swidth=128 -lsize=128m -f /dev/sda
Gemountet wurde mit den Optionen:
mount -o rw,nouuid,usrquota,logbufs=8 /dev/sda /mnt/sda

Wieso werden verschiedene Blockgrössen getestet?

Es ist wichtig, die alltagsnahen Szenarien bei einem Test zu reproduzieren. Gewisse Parameter müssen während der Tests variabel sein, damit eine Aussage über das Produkt gemacht werden kann. In unserem Test ist dies die Blockgrösse. Sie bestimmt die Grösse in KB an Daten, die pro Transaktion auf das Drive geschrieben oder davon gelesen werden.

Damit kann man das Lesen und Schreiben von kleinen und grossen Dateien testen. Kleinere Files als 16 KB kommen im Desktop-Bereich eher selten vor. Mailserver und Datenbankserver haben aber einen viel grösseren Anteil an kleinen Dateien. Somit ist besonders bei Datenbanken ein Test mit kleinen Blockgrössen interessant, da die Datenbank nach jeder beendeten Transaktion die Daten sofort auf die Platte speichert (damit garantiert ist, dass alles wie beabsichtigt gespeichert wurde — auch nach einem Stromausfall.)

Bei grösseren RAID-Verbünden ist der Festplatten-Cache normalerweise deaktiviert. Stattdessen übernehmen die RAID-Controller die Caching-Arbeit. Gerade in solchen Setups müssen Festplatten bezüglich kleinen Datenmengen trumpfen können. Sequentieller Durchsatz ist fast nicht von Bedeutung.



Seite 1 - Einleitung Seite 8 - Sequentielles Schreiben ops
Seite 2 - Impressionen Seite 9 - Sequentielles Lesen ops
Seite 3 - Wie testen wir? Seite 10 - Zufälliges Schreiben ops
Seite 4 - Sequentielles Schreiben KByte/s Seite 11 - Zufälliges Lesen ops
Seite 5 - Sequentielles Lesen KByte/s Seite 12 - Performance Degradation
Seite 6 - Zufälliges Schreiben KByte/s Seite 13 - Fazit
Seite 7 - Zufälliges Lesen KByte/s  



Artikel im Forum diskutieren




Navigate through the articles
Previous article Samsung S1 1.8'' 120GByte Kingston SSDNow V+ 64 GByte Next article
comments powered by Disqus

Intel X25-M Gen2 34nm 160GB - Speichermedien - Reviews - ocaholic