Art der Arbeit: Referat
Festplatten
Aufbau:
Ein Spindelmotor dreht doppelseitig beschichtete Aluminiumscheiben (früher
Glas) mit bis zu 12000 U/m. Über und unter jeder Scheibe ist ein
Schreib-/Lesekopf. Diese sind mechanisch miteinander verbunden und werden mit
einem Schrittmotor Positioniert. Das Schreiben und Lesen funktioniert so
ähnlich wie bei Disketten und Tonbändern. Durch die schnelle Rotation entsteht
ein Luftstrom, der die Köpfe von der Oberfläche fernhält. Jedes Aufsetzen, z.B.
durch Erschütterung oder Staub, würde die Magnetschicht beschädigen (Head
Crash). Deshalb darf ein laufender Computer möglichst nicht bewegt und eine
Festplatte niemals geöffnet werden. Ein Fingerabdruck oder Staubkorn wäre schon
ein Hindernis für die Köpfe. Einige moderne Festplatten, besonders
Laptopfestplatten, setzen Schutzmechanismen ein, die bei Erschütterung die
Köpfe auf einen Zylinder bringen, der nicht für Daten benutzt wird. Das selbe
machen alle neueren Festplatten beim Ausschalten, um Transportschäden zu
vermeiden (parken). Dazu wird die kinetische Energie der rotierenden Scheiben
vom Spindelmotor in elektische umgewandelt.
Funktionsweise:
Die Scheiben sind in Spuren unterteilt, diese in Sektoren. Am Anfang jedes
Sektors steht seine genaue Adresse ("ID-Header"), also Zylinder-, Kopf-, Spur-
und Sektornummer. Als Zylinder bezeichnet man alle Spuren, die auf den
verschieden Ebenen übereinander sind. Soll ein Sektor gelesen werden, wird der
Zylinder angesteuert und gleichzeitig der richte Kopf ausgewählt. Dann wird die
Spur solange kontinuierlich gelesen, bis der gesuchte ID-Header vorbeikommt,
und der darauf folgende Sektor wird übertragen. Auch beim Schreiben werden die
Sektoren durch das Lesen der dazugehörigen Ids gesucht und erkannt. Eigentlich würde
die Sektornummer als ID reichen. Die komplette Adresse ist eine
Sicherheitsvorkehrung, damit bei einer Funktionstörung trotzdem der richtige
Sektor gefunden wird.
Interleaving:
Wenn zwei Sektoren gelesen werden sollen, muß der Controller für die Bearbeitung
des zweiten Sektors die des ersten abgeschlossen haben. Kommt der zweite Sektor
am Lesekopf vorbei, bevor der Controller danach sucht, muß eine volle Umdrehung
gewartet werden, bis er gelesen werden kann. Deshalb sind zwei Sektoren, die
nacheinander kommen, nicht direkt nebeneinander auf der Spur. Zwischen ihnen
sind andere Sektoren. Typisch ist z.B. ein Interleavefaktor von 3:1. Das
bedeutet, daß zwischen zwei zusammengehörenden Sektoren zwei Sektoren sind, die
eigentlich viel später kommen. Die vom Controller benötigte Zeit, um den
nächsten Sektor lesen zu können, ist dann kürzer als die Zeit, die der Lesekopf
benötigt, um ihn zu erreichen. So ist eine schnellere Datenübertragung möglch.
Datenübertragungsrate:
Die innere Übertragungsrate hängt davon ab, wie schnell sich die Platten
drehen, und wie viele Sektoren auf der aktuellen Spur sind. Die absolute
Übertragungsrate wird noch von dem Cache und der Schnittstelle beeinflußt.
Festplatten ab 7200U/m sollten mit einem Lüfter gekühlt werden.
Zugriffszeit:
Die vom Hersteller angegebene Zugriffszeit besagt, wie lange es dauert, die
Köpfe von der aktuellen Position zu einem zufällig ausgewählten Zylinder zu
bringen. Da die Zugriffszeit von der Position der Köpfe und des gesuchten
Zylinders abhängt, bezieht man sich auf einen Durchschnittswert. Dieser
entspricht etwa einem Drittel der Zeit, die gebraucht wird, um von dem ersten
zum letzten Zylinder zu kommen. Neue Festplatten haben eine mittlere
Zugriffzeit von 5 (Cheetah) bis 10 ms. Für den Anwender kommt noch die Zeit
dazu, die es dauert, bis der richtige Sektor am Lesekopf vorbeikommt.
MTBF: (Mean Time Between Failures)
Gibt an, wie lange die Festplatte durchschnittlich fehlerfrei läuft. Die MTBF
ist nur ein theoretischer Wert der nicht gemessen wird, da sonst eine
Festplatte veraltet wäre, bevor sie auf dem Markt kommt. Wenn man sich eine
Festplatte kauft, ist der Wert irrelevant, weil er nichts über die tatsächliche
Lebensdauer der einen Festplatte aussagt. Er ist lediglich bei Großrechnern mit
sehr vielen Festplatten wichtig, da man dann kalkulieren kann, wie oft ein
Defekt auftritt.
Low-Level-Formatierung:
Die LLF wird bereits vom Hersteller vorgenommen. Dabei wird die Oberfläche auf
defekte Sektoren untersucht, und die ID-Header werden geschrieben. So wird
immer der optimale Interleavefaktor benutzt. Die ID-Header werden beim normalen
Gebrauch der Festplatte nie neu geschrieben. Durch die Magnetfelder von Geräten
und der Motoren der Festplatte und durch den natürlichen Verlust des
Magnetismus sind sie irgendwann nicht mehr lesbar, so daß die
Low-Level-Formatierung wiederholt werden muß. Dafür dürfen nur die
entsprechenden Programme des Herstellers benutzt werden. Alte Rechner haben
dafür eine Option im Bios Setup, die aber nicht für IDE Festplatten geeignet
ist. Da die ID-Header so nicht geschrieben werden können, besteht die Gefahr,
daß alle Sektoren als defekt markiert werden. Wenn man Pech hat, kann die
Festplatte nur vom Hersteller repariert werden.
High-Level-Formatierung:
Bei der HLF wird die Oberfläche nochmal geprüft, außerden wird die
Verzeichnisstruktur sowie die FAT (File Allocation Table,
Dateizuordnungstabelle) angelegt. Bei Disketten werden immer beide
Formatierungen durchgeführt.
Cluster:
Da die Festplatten schneller weiter entwickelt wurden als die Betriebssysteme,
hatten sie mehr Sektoren, als adressiert werden konnten. Um trotzdem die volle
Kapazität nutzen zu können, wurden mehrere Sektoren zu Clustern zusammengefaßt.
Das hat den Nachteil, daß der Rest eines teilweise belegten Clusters nicht
benutzt werden kann. Enthält die Festplatte viele kleine Dateien, entsteht ein
großer Verschnitt, also Kapazitätsverlust. Abhilfe: Partitionierung der
Festplatte, also aufteilung in mehrere logische Laufwerke, oder ein
Betriebssystem mit einem 32 Bit Dateisystem wie Windows 95b oder neuer.
Fragmentierung:
Die Außeren Spuren haben einen größeren Umfang, deshalb sind dort mehr Sektoren
auf einer Spur. Da die Drehzahl der Festplatte konstant ist, ist außen eine
schnellere Datenübertragung möglich. DOS (also auch Windows) belegt beim
Schreiben als erstes auf äußeren Zylindern frei gewordene Cluster, um eine
möglichst hohe Performance zu erreichen. Past eine Datei aber nicht in die
Lücke, muß der Rest woanders auf dem Zylinder untergebracht werden, im ungünstigstem
Fall auf einem anderen Zylinder. Soll die Datei gelesen werden, sind so längere
Wartezeiten nötig. Betroffen sind besonders große Dateien, die oft geändert
werden. Wegen der langsam fortschreitenden Fragmentierung fällt der
Geschwindigkeitsverlust oft erst sehr spät auf. Deshalb sollte man regelmäßig
ein Programm wie Defrag (Windows) oder besser Speed Disk (Norton Utilities)
einsetzen, das die Dateien so anordnet, daß sie möglichst schnell übertragen
werden können. Die Optimierung läuft in drei Schritten ab: 1. Reorganisation
des Inhaltsverzeichnisses 2. Reorganisation der Zuordnungstabelle 3.
Reorganisation der Cluster. Die Zusammenfügung der Dateiteile ist aber nicht
ganz ungefährlich: Die Cluster werden so lange vertauscht, bis alle Dateien zusammenhängend
auf der Festplatte sind. Treten dabei Fehler auf, z.B. durch Bugs, Stromausfall
oder Hardwarefehler, können Daten verloren gehen. Daher ist es bei wichtigen
Daten besser, ein Backup durchzuführen und zurück auf die Festplatte zu
übertragen, wobei die Dateianordnung komplett erneuert wird.
Fehlerkorrektur:
Die Oberflächen von Festplatten weisen herstellungsbedingt Beschädigungen auf,
bei dem Betrieb können noch welche dazu kommen. Deshalb besitzen Festplatten
ein in den Controller integiertes Fehlererkorrekturverfahren wie den ECC (Error
Correction Code) von IBM, der es erlaubt, bis zu 11 nebeneinander
liegende,defekte Datenbits zu rekonstruieren. Tragisch ist, daß diese Daten
nicht zur Korrektur des Fehles benutzt werden, weil DOS/Windows die Forderungen
des Controllers und des S.M.A.R.T. Systems ignoriert. Weitere Fehlerquelle sind
die Alterung der Low-Level-Formatierung und die Mechanik. Es handelt sich dabei
um hochempfindliche Bauteile, die Verschleiß, Temperaturschwankungen und
Toleranzen bei der Herstellung unterliegen. Diese können sich im Laufe der
Jahre zu erheblichen Abweichungen von der eigentlichen Spur aufsummieren. Das
ist für die Daten weniger tragisch, da diese immer wieder aufgefrischt werden.
Nicht jedoch die ID-Header. Ist die Abweichung zu groß, können deshalb die
Sektoren nicht gefunden werden. Außerdem kann ein Oberflächenfehler, der
ursprünglich zwischen zwei Spuren war und so nicht markiert wurde, in eine Spur
gelangen und Daten gefährden.
RAID: (Redundant Array of Inexpensive Discs, informationsüberladene Anordnung
von billigen Festplatten)
Die wichtigsten Raidlevel sind 0 und 1. Bei Level 0 (eigentlich kein
redundantes System) werden die Daten blockweise auf mehrere Festplatten
verteilt (Stripe Set). Dadurch werden dauerhaft hohe übertragungsraten
erreicht, z.B. über 60 MB/s bei dem Raidcontroller Promise FastTrak UDMA66 Raid
mit 4X Seagate Barracuda IDE. Bei Level 1 wird die Datensicherheit erhöht,
indem mehrere Festplatten die selben Daten speichern. Fällt eine aus, stehen
die Daten noch auf der anderen zur Verfügung. Sehr schnell und sicher ist die
Kombination von Level 0 und 1, deshalb arbeiten Server oft so. Möglich ist auch
ein Stripe Set mit Paritätslaufwerken, so daß bei einem Defekt die Daten
rekonstruiert werden können.
AV (Audio/Video) Festplatten:
Festplatten führen regelmäßig eine thermische Kalibrierung durch. Dabei werden
die Köpfe eingefahren und neu positioniert. Das ist nötig, weil sonst wegen der
Erwärmung und der damit verbundenen Ausdehnung der Bauteile die Köpfe nicht
exakt in der Spur bleiben. AV Festplatten führen die Kalibrierung durch, wenn
sie nichts zu tun haben. Die Fertigung solcher Festplatten muß präziser sein
und ist daher teurer. Dafür wird der Datenstrom nicht unterbrochen. Die Spitzenmodelle
können alle Köpfe unabhängig voneinander bewegen. Wenn das von der Software
geschickt genutzt wird, ist die Zugriffszeit nahezu 0.
SSDs: (Solid State Disc)
Festplattenähnliche Geräte, die die Daten in einem Verbund von DRAM Modulen
ablegen. Da das ein flüchtiger Speicher ist, werden die Daten während des
Betriebs permanent auf eine "richtige" Festplatte gesichert. Batterien halten
das System nach dem Ausschalten lauffähig, bis alle Daten gesichert sind. SSDs
werden wie normale Festplatten benutzt, es werden keine speziellen Treiber
benötigt. Geräte der Rushmore-Serie sind modular aufgebaut und können durch
Einbau weiterer DRAM Module bis zu einer Kapazität von 3,6 GB erweitert werden.
Vorteil: Extrem kurze mittlere Zugriffszeit von 165 Mikrosekunden und hohe
Übertragungsrate (Der Flaschenhals ist der SCSI Bus). Im Vergleich zu normalen
Festplatten ist die Übertragungsrate konstant, das Absinken bei den inneren
Zylindern bleibt aus. Der einzige Nachteil ist der hohe Preis von z.B. 16000,-
Mark für 536 MB.
Schnittstellen:
1. SCSI: ([SKASI] Small Computer System Interface)
SCSI ist die schnellste Festplatten schnittstelle. Eigentlich ist es kein
Interface, sondern ein Bus. Die volle Schnittstellengeschwindigkeit von 160
MB/s (Ultra 3 Wide SCSI) erreicht eine Festplatte wie bei allen anderen
Schnittstellen nur, wenn die angeforderten Daten bereits im Cache
(Zwischenspeicher zur Beschleunigung der Festplatte) sind. Traditionell haben
SCSI Festplatten eine kürzere Zugriffszeit als IDE Festplatten, der Geschwindigkeitsvorteil
bei der Übertragungsrate wird immer kleiner. SCSI wird besonders in High End
Computern und Servern benutzt, wo die Kosten nur eine untergeordnete Rolle
spielen. Alle SCSI Geräte sind zueinander kompatibel. Leistungseinbußen sind nur
zu befürchten, wenn ein Gerät einen höheren Standard unterstützt als der
Hostadapter, oder wenn der Bus gesättigt ist. Das passiert aber nur, wenn viele
schnelle Geräte gleichzeitig Daten übertragen. Die CPU und Resourcenbelastung
ist gering, da der Hostadapter sich um die Datenübertragung kümmert und eigene
Adressen vergibt. Die meisten Geräte sind nur gegen Aufpreis auch als SCSI
Version verfügbar und ein hochwertiger Hostadapter ist relativ teuer. Deshalb
lohnt sich SCSI z.B. nicht für Spieler oder Office- anwendungen. Wenn schon ein
Hostadapter vorhanden ist, sollte man SCSI Geräte generell vorziehen.
2. IDE: (Integrated Drive Electronic)
IDE Festplatten sind nicht ganz so schnell wie die SCSI Kollegen, dafür aber
erheblich billiger. Die Preise sind bei etwa 1,5-2 Pf/MB. Bei PIO regelt die
CPU die Datenübertragung. Mit dem Protokoll Ultra DMA (Direct Memory Acces)
sind auch Zugriffe auf IDE Festplatten ohne hohe CPU Belastung möglich. Die
höchste Schnittstellengeschwindigkeit liegt bei ca. 33 MB/s bei PIO Mode 4
(Programmed Input/Output) bzw. 66 MB/s bei Ultra DMA 66. Als die Barracuda
(eigentlich eine SCSI Festplatte) auch mit IDE Schnittstelle und
IDE-Raid-Controller erschienen, wurden auch bei begrenztem Budget hohe
Übertragungsraten möglich. Für den Heimanwender sind IDE Festplatten die beste
Wahl.
3. USB: (Universal Serial Bus)
USB Festplatten eignen sich gut dafür, Daten zwischen mehreren Computern
auszutauschen, allerdings sind durch die Schnittstelle bedingt extrem langsam.
Ein weitere Nachteil ist, daß der USB erst funktioniert, wenn das
Betriebssystem geladen ist. Eine USB Festplatte funktioniert deshalb nicht als
einzige Festplatte eines Computers.