Solid-State-Drive

 

Begriff. In der Elektronik bedeutet der englische Begriff „solid state“, dass Halbleiterbauteile verwendet werden. Dadurch unterscheiden sie sich von anderen Speichertechnologien wie Kernspeichern, Lochkarten oder Speichern mit beweglichen mechanischen Teilen wie .

Anders als in HHDs bleibt hier die Festplatte auch weiterhin aktiv, wodurch weder Energieverbrauch noch Lautstärke gesenkt werden. Windows ab Version 7 erkennt bei der Installation, um welche Art von Datenträger es sich handelt. Dieser Bereich dient sowohl als Ruheplatz der abgenutztesten Sektoren, als auch der Geschwindigkeitssteigerung.

Inhaltsverzeichnis

Begriff. In der Elektronik bedeutet der englische Begriff „solid state“, dass Halbleiterbauteile verwendet werden. Dadurch unterscheiden sie sich von anderen Speichertechnologien wie Kernspeichern, Lochkarten oder Speichern mit beweglichen mechanischen Teilen wie .

Wegen des zwischenzeitlich deutlich gesunkenen Preises pro GB sind sie mittlerweile auch für Sub- Notebooks interessant. Ein weiterer Vorteil besteht in der konstanten, im Vergleich zu rotierenden Platten sehr geringen Latenz im Zugriff auf die gespeicherten Daten.

Während beim Zugriff auf Daten in physisch weit voneinander entfernten Sektoren auf einer Festplatte eine relativ lange Zeit benötigt wird, um den Lesekopf auf die neue Position ähnlich einem Schallplattenspieler zu bewegen, können bei einer SSD über die Adresse eines Datenblocks unabhängig vom vorher relevanten Block die enthaltenen Informationen gelesen bzw.

Ihr Einsatzgebiet sind Anwendungen, die sehr laufwerklastig arbeiten Datenbanken , Sortieranwendungen , indem sie wiederholt kleine Datenmengen von verschiedensten Speicherbereichen anfordern. Oft werden diese Laufwerke auch von Entwicklern und Testern benutzt, um die Leistungsfähigkeit von Festplatten-Controllern und -bussen zu messen, da sie diese maximal auslasten.

Eine Ein-Chip-Mikrocontrolleranwendung hat aus Platz- und Energiegründen häufig keinen Festplattenanschluss; stattdessen liegt deren Steuerungsprogramm oder Betriebssystem meist in einem Flash-Chip. Weitere Anwendungsgebiete finden sich in Umgebungen, in denen Schmutz, Erschütterungen sowie Druckschwankungen, Temperatur und Magnetfelder Raumfahrt den Einsatz mechanischer Platten verhindern. SSDs sind dabei, konventionelle Festplattentechnik zu ergänzen oder zu ersetzen, zuerst besonders in mobilen, mittlerweile auch in stationären Geräten.

Mit einer Ablösung durch Flashspeicher verschwinden zahlreiche Unterscheidungsmerkmale zwischen den Herstellern. Bei der Hybridfestplatte wird eine herkömmliche Festplatte mit einem wesentlich kleineren Solid-State-Speicher kombiniert. Bisher leisten das nur Windows Vista und Windows 7. Im Desktop- und kleinen Serverbereich kann das Laufwerk für Datenmengen unter einem Gigabyte jegliche Flashlaufwerke deutlich übertreffen.

Technisch gibt es zwei Umsetzungen. Intel integriert den Flashspeicher nicht in die Festplatte selbst, sondern verwendet wie für den Arbeitsspeicher einen proprietären Anschluss auf dem Mainboard. Damit entsteht eigentlich keine Hybrid festplatte , der erzielte Effekt ist aber der gleiche. Intel verwendet die vier- bis achtfache Kapazität. Grundlage beider Varianten ist, dass Flashchips ihre Daten mit geringerer Verzögerung als die Festplatte selbst liefern können.

Er ist also kein Ersatz, sondern eine Ergänzung. Eine Datei wird daher auch nicht beim ersten Zugriff, sondern erst nach häufiger Verwendung in den Flashbereich aufgenommen; mitunter auch nur einzelne Bestandteile. Diese werden beim Lesen dann deutlich schneller bereitgestellt als die Festplatte es könnte.

Beide Konzepte benötigen Windows Vista oder neuere Windows-Versionen, die bislang als einzige Betriebssysteme den Flashbereich mit den meistbenötigten Daten belegen können. Alle anderen Betriebssysteme benutzen den Flash-Bereich nicht. Neuere Hybridfestplatten brauchen nicht mehr das Betriebssystem, um den Flashspeicher zu benutzen. Dieser Vorgang wird von einem Controller in der Festplatte selbst übernommen. Dadurch können solche Festplatten in jedem Betriebssystem in vollem Umfang genutzt werden.

Auch wenn Hybridfestplatten erst auf den Markt kamen, gab es eine ähnliche Technik schon mehr als zehn Jahre zuvor: Da dieser jedoch auf Strom angewiesen war, rüstete der Hersteller das Produkt mit Batterien gegen Datenverlust aus. Daher war auch die optional verfügbare Grundversion keine Ausnahme: Ihr fehlten die sowieso relativ günstigen Bauteile Festplatte und Batterie.

Windows Vista führte zwei Möglichkeiten ein, um Flashspeicher zur Unterstützung konventioneller Festplatten zu nutzen. Ihre Anwendung zeigt jedoch nur in seltenen Situationen mit SSDs vergleichbare Leistungen, erzeugt im Gegenzug allerdings auch nur geringe oder gar keine Mehrkosten.

Solche Dateisysteme zielen darauf ab, Flashspeicher so zu verwenden, dass ihre Vorteile bestmöglich genutzt werden können. Dadurch können höhere Geschwindigkeiten und bessere Datenintegritätskontrolle erreicht werden. Die erzielbaren Effekte sind weiter oben beschrieben.

Es bietet dazu an, mit ihnen eine HHD nachzuempfinden, indem ein Teil ihres Speicherplatzes als schneller Zwischenspeicher genutzt wird. Dabei wird auf dem Flashspeicher jedoch nur das gesammelt, was während des Betriebs nicht mehr in den Arbeitsspeicher passt.

Unter Berücksichtigung der Preise für Arbeitsspeicher ist das jedoch nur sinnvoll, wenn ein entsprechend schneller Flashspeicher bereits vorhanden oder eine Erweiterung des Arbeitsspeichers nicht möglich ist. Anders als in HHDs bleibt hier die Festplatte auch weiterhin aktiv, wodurch weder Energieverbrauch noch Lautstärke gesenkt werden. Die Festplatte enthält zudem ein Abbild des Zwischenspeichers, das beim Entfernen des Flashspeichers verwendet wird.

Die darauf ausgelagerten Daten werden sicherheitshalber mit Bit verschlüsselt und das Medium vor dem Gebrauch sinnvollerweise kurz auf ausreichende Geschwindigkeit getestet. Unter Linux ist eine ähnliche Methode schon länger möglich, indem der Flashspeicher als Auslagerungsspeicher englisch Swapping eingehängt wird. Zwar funktioniert es auch mit älteren externen Flashspeichern; um aber tatsächlich einen Geschwindigkeitsgewinn zu erhalten, sollte das ReadyBoost-Logo auch hier als Anhaltspunkt beachtet werden.

Diese Laufwerke bestehen aus Flash- und Controllerchips, die auf einer Leiterplatte angeordnet sind. Auf kleinem Formfaktor sind also weiter nur geringere Kapazitäten realisierbar, nun jedoch mit hoher Leistung.

Bestehen bleiben hohe Temperaturtoleranz, Lautlosigkeit und Energieeffizienz. Sie erreichen unter den Flashtechniken den besten Kompromiss zwischen Kapazität, Preis und Geschwindigkeit.

Nur ihre Zugriffszeit ist zweigeteilt: Die Geschwindigkeitssteigerungen in nachfolgenden Produktgenerationen werden wie in Grafikchips vor allem durch starke Parallelisierung erlangt: Erst diese Beschleunigung gleicht ein systembedingtes Problem aus: Flash-SSDs sind in Speicherblöcke unterteilt.

Wird auch nur ein Byte darin geändert, muss der gesamte Block neu geschrieben werden. Tatsächlich schreibt das Laufwerk intern also im vom Hersteller angegebenen Tempo die Blöcke neu.

Anwender und Leistungstests nehmen jedoch nur die wenigen geänderten Bytes wahr. Der Schreibvorgang erscheint langsam. Dieser Effekt wird im Englischen Write Amplification genannt. Demzufolge wird also das Schreiben umso schneller, je mehr die Datenmenge dem Volumen eines Blockes entspricht. Der Versuch, diesen Effekt auf Betriebssystemebene aufzuheben, setzte sich nicht durch. Vom Hardwareprodukt unabhängig, war sie für den Heimgebrauch aber zu kostenintensiv.

Diese spielt noch vor dem Controller selbst die entscheidende Rolle bei der Leistungsfähigkeit eines Laufwerks. Dazu nutzt sie, wie zuvor bei konventionellen Festplatten, möglichst effizient den SDRAM-Chip, verwaltet darin allerdings die Daten zur Suche nach dem Schreibbereich, um Geschwindigkeit und Nutzungsverteilung zu optimieren.

Ähnlich wie konventionelle Festplatten bringen auch Flashlaufwerke bei nur geringer Restkapazität nicht mehr die volle Leistung. Bei beiden Laufwerktypen spielt dabei die Suche nach den nur wenigen freien Speicherbereichen die Hauptrolle. Flashlaufwerke eignen sich besonders für den Mobileinsatz, leistungsorientierte Desktops und wenige Server. MLC-Chips haben mit Bis blieben diese aber militärischen und anderen wenig preissensitiven Märkten vorbehalten. Damit wurde versucht, einen neuen Markt für erschwingliche Flashfestplatten zu eröffnen.

Im zweiten Quartal erschienen die Vertreter der zweiten Generation. Bei den ersten Produkten dieser Gattung kam es jedoch häufiger zu unpraktikablen Leistungswerten.

Seitdem erfolgen Preissenkungen [64] [65] meist parallel zu einer Strukturverkleinerung in der Flashchip-Fertigung. Aufgrund der kleineren Abstände zwischen diesen Stufen und der daraus resultierenden Schwierigkeit, diese Level stets korrekt auszulesen, nimmt die Lebensdauer der Speicherzellen allerdings mit zunehmender Bit-Anzahl ab.

Dem versuchen die Hersteller durch Anpassung der Fertigungstechnik entgegenzuwirken z. Die folgende Tabelle vergleicht die Eigenschaften gängiger Computer-Speicherverfahren des Massenmarktes , also nicht den High-end-Sektor im Serverbereich.

Angegebenen sind in der Regel Maximalwerte. Insbesondere die Geschwindigkeiten können je nach Modell auch deutlich darunter liegen. Während sich das bei ersteren aus der Abnutzung der Plattenoberflächen und der Mechanik ergibt, wirkt bei der Flashtechnik ein elektrischer Effekt begrenzend.

Lesevorgänge von intakten Zellen sind hier zwar unbegrenzt möglich, je nach Qualität kann eine Flashzelle aber nur zwischen 3. Danach kann sie ihren Inhalt vergessen, vor allem aber sind die Zellen nach dem Ende ihrer Lebenszeit nicht mehr löschbar. Flashspeicher wären so mitunter schon nach wenigen Tagen defekt.

Dem wirken Wear-Levelling-Algorithmen entgegen. Der Controller im Flashlaufwerk verteilt die Schreibvorgänge auf alle Speicherzellen so, dass jede möglichst gleich häufig beschrieben wird.

Die dafür verwendeten Algorithmen sind herstellerspezifisch, in jedem Fall aber vom Rest des Computers aus weder sichtbar noch beeinflussbar. Dieses Verteilungsverfahren gibt es in verschiedenen Ausbaustufen. Je nach Ausbaustufe führt das Verfahren zu einer Haltbarkeit, die der konventioneller Festplatten nahekommt oder sie übertrifft.

Eine Ausfallsvorhersage wie bei konventionellen Festplatten durch S. Die Situation ist durch den Standard selbst begründet. Er umfasst alleinig die Kommunikation zum Laufwerk, um die S. Die Prüfung konzentriert sich auf die Anzahl der vorgenommenen Löschzyklen und das Vorhandensein genügender Reserveblöcke.

Weitere angewandte Verfahren, die Lebensdauer zu erhöhen, liegen im Vermeiden von unnötigem Schreiben. Hierzu zählt das Native Command Queuing NCQ , das bewirkt, denselben mehrfach vorhandenen Datenblock im Cache erst in seiner jüngsten Version zu schreiben und die obsolet gewordenen Kopien aus dem Cache zu verwerfen.

Datenkompression der zu schreibenden Daten im Controller der SSD bewirkt, dass einzelne Blöcke nicht beschrieben werden müssen. Bei bereits komprimierten Daten funktioniert das nicht, da die Datenmenge nicht weiter verkleinert werden kann.

Werden weitere Datenblöcke durch länger ausfallende Inhalte belegt, so werden diese, wenn nicht anders zu verwalten, mit S. Dateien werden immer als Bit -Folge geschrieben. Beim Lesen einzeln, beim Schreiben werden sie abermals zu einem Erasable Block zusammengefasst.

Bei jeder Änderung in einem seiner Blöcke wird dieser zunächst nicht gelöscht, sondern vorerst als nicht mehr aktuell markiert. Geschrieben wird in den nächsten freien Block desselben Erasable Block.

Erst wenn alle Blöcke eines Erasable Block nicht mehr aktuell sind, wird dieser einmal ganz gelöscht. Somit müssen bei jedem geänderten Byte die bisherigen Blöcke mit der vorzunehmenden Änderung in die nächsten kopiert werden.

Ich habe zwischenzeitlich alle Programme die ich für die Videobearbeitung benötige auf den neuen Rechner installiert und auch QuickSync in Betrieb gesetzt.

Alles läuft toll, die Renderingzeiten haben sich dramatisch verkürzt, der " Rechner von der Stange " arbeitet so wie erhofft! Geschwindigkeitsvergleich für das finale Rendering einer Projekttimeline mit einer Minute Footage, z. Die Zahl der B-Frames sollte nicht zu hoch gewählt werden damit das Video ruckelarm abgespielt werden kann. Andererseits kann eine zu hohe Bitrate das Abspielen der Videodatei behindern.

Empfohlene Upload-Codierungen für YouTube: Overlay-Vorschaueinstellung für das Player-Fenster. Nur bei Progressiv-Video stellt man auf [Bild] ein! Das Betriebssystem Windows 7 bringt intern 3 verschiedene Treiber für die Firewire mit, einfach auch mal die anderen Treiber probieren! Möchte man daraus ein finales File mit 10bit Farbtiefe speichern, würde das nur per Dithering funktionieren.

Grafische-Shematische Darstellung der Unterschiede 8 vs. Man kann das selbst überprüfen, wenn man sich ein 8bit Graustufenverlaubild RGB in x als Testbild erstellt - z. Stellt man in der Systemsteuerung die Projekteinstellung auf 10bit-Bearbeitung um und macht das Experiment mit der Luminanzänderung erneut durch, dann wird auf dem 8bit-Monitor durch die genauere Zwischenwertberechnung kein Banding mehr zu finden sein.

Diesen Effekt nutzt man für eine präzisere Farbkorrektur ohne Color-Bandig. Das hat alles nichts mit dem finalen Export zu tun, sondern lediglich nur mit einer genauer beurteilbaren Farbkorrektur während des Editings. Im Slashcam-Beitrag - Klick! Selbst in sehr seltenen, denkbar schlechtesten Fällen fällt man niemals unter das Niveau einer reinen 8 Bit -Wandlung. Entscheidet man sich dagegen im 8 Bit Farbraum zu arbeiten verschenkt man immer einen Teil "echter" 10 Bit Helligkeitsinformation.

Einen Überblick dazu zeigt folgendes Video von magic multi media GmbH: Die gesamte Funktionsübersicht der Version 8. Der Kaufpreis soll ab Euro betragen. Primäre Farbkorrektur für die Entwicklung eines Filmlooks. Kameras mit Videoaufnahmefunktion werden von der Herstellern mit speziellen Cinema-Settings ausgestattet um endlich an die Eigenschaften des analogen Kino-Zelluloidfilmes möglichst nah heranzukommn. Kameraseitig ist der Cinematik Look assoziert mit 24p und speziellen Bildstilen mit hoher Dynamik, d.

Optimal wird das Ergebnis der Aufnahme mit spezieller szenischen Vorbereitung incl. Eine Cinema Aufnahme sieht meist milchig trüb aus auf dem Monitor, da dem Bildprozessor in der Kamera die finale Farbkorrektur entzogen worden ist. Ob man bereit ist die Zeit für die nicht unerhebliche Nachbearbeitung incl. Die "Primäre Farbkorrektur" verändert das gesamte Bild bzw. Die "Sekundäre Farbkorrektur dagegen erfolgt danach und modifiziert dann z. Wir stellen zunächst in den Systemeinstellungen die Projekteinstellung von 8bit auf 10bit für die Farbkorrektur um bei Verwendung des HQX-Vorschaucodecs!

Die "Primäre Farbkorrektur" verfügt nicht über die zuschaltbare Option "Sichere Farben" - was in den anderen Farbkorrekturwerkzeugen vorhanden ist.

Nun zum zweiten Teil der Farbkorrektur , dem eigentlichen Color-Grading: Dafür stehen einige Regler und Farbkreise zu Verfügung. Farbregler - zweiter Korrekturschritt: Zusätzliche Ausführungen im Zusammenhang mit den Kameraeinstellungen findet man hier: Man ahnt es schon, die Vielzahl der Eingriffsmöglichkeiten in der Primäre Farbkorrektur ist mit sehr viel Zeitaufwand verbunden.

Viele Hobbyvideofilmer werden eher auf einen vorgegebenen finlen Kamera-Bildstil zurückgreifen und damit den Videoschnitt realisieren da diese Methode mit weniger Zeitaufwand verbunden ist! CNE V für Kinolookliebhaber aussehen: Individuelle Settings der "Primären Farbkorrektur RGB " kann man als selbstdefinierten Effekt abspeichern und dann für andere gleichartige Quellclips verwenden. Natürlich kann man auch innerhalb der Timeline den gefundenen Grading-Effekt von Clip zu Clip kopieren.

Individuellere und feiner ausgeregelte Einstellungen realisiert man aber ganz klar mit der Primären Farbkorrektur! Die Festlegung der vielen Parameter in der "Primären Farbkorrektur" erfordert einen enormen Zeitaufwand. Man kann auch aus den Bldprofilen "Portrait" und "Neutral" saubere Neutralvideos per entsprechender Kamerasetting incl. Man bekommt aus dem Link folgende LUT: Was man mit der "Primären Farbkorrektur" herausholen kann, hängt von der eigenen Geschicklichkeit ab: Es sind dies z.

Führt man eine übertriebene Nachbearbeitung z. Farbbänder Banding ohne Farbübergänge, es kommt also rein technisch gesehen zum " Tonwert-Abriss " und das Videobild wird unbrachbar. Ich verwende für meine Freizeitreportagen und Dokumentationen, wie wohl die meisten Videofilmer, vorgeferfigte Bildstile "out of the Box" - z. Mit der Edius Version 8. Digitalfotos als Zwischenschnitt im Video oder als eigenständige Dia-Show: Das wichtigste Werkzeug zum gestalten der Digitalfotos ist der Layouter.

Für die Anlauf- und Auslaufpunkte bei Zoom kann man mit Bezierkurve sanft gestalten per Kontexmenü auf den Keyframepunkten. Bildausschnitte sind einstellbar im Layouter. Wenn man den Layouter auf 3D umschaltet, dann kann man die Bilder drehen und im gewissen Grad auch entzerren bei stürtzenen Linien von Gebäudekanten etwa.

Natürlich sind auch andere Effekte auf Digitalbilder anwendbar. Bilder im Portrait-Format können ebenfalls verwendet werden. Entspricht das Seitenverhältnis der eingefügten Bilder nicht dem Seitenverhältnis des angelegten Videoprojektes, dann erscheinen die Bilder entweder mit seitlichen schwaren Rändern oder mit Rändern oben und unten. Will man das nicht, dann aktiviert man mit der Maus das entsprechnde Bild und betätigt die Taste F7.

Es geht sofort der Layuoter in kompakter Ansicht auf und man kann nun mit den Schaltern für die Stretchfunktion das Bild etweder horizontal oder vertikal in das Video einpassen unter Beibehaltung des Pixelseitenverhältnisses. Mit der Strechfunktion und der Positionsverschiebung kann man zusätzlich einen Bildausschnitt festlegen bis zu 1: Ich habe hier ein kleines Beispiel erstellt: Ich gehe wie folgt vor: Mein Erfahrungsweg mit Edius war vor vielen Jahren zu Beginn recht dornig und holprig.

Zwar bin ich damals schon recht gut damit zurecht gekommen, mir ist aber dieses Programm funktional sehr rudimentär vorgekommen, deshalb drehte ich eine Runde durch die gesamte Landschaft der damals im Handel befindlichen Videoschnitt-Programmen, auch mit Adobe Premiere bis zu Version CS3 habe ich damals mit der Unterstützung der Canopus Videoschnittkarte Storm 2 gearbeitet die Premiere Pro CS3 erst so richtig "Beine machte". Dieser Text ist urheberrechtlich geschützt, seine Nutzung ist dem privaten Bereich vorbehalten.

Ein Nachdruck oder die Übernahme in andere Datenbanken oder Medien ist ohne Erlaubnis nicht gestattet - diese wird aber in der Regel gern erteilt. Anfragen bitte an den Verfasser: Functionality will be lost if QuickTime is uninstalled, and it is summarized as follows: Die drangvolle Enge mit den Funktionsfenstern auf einem Monitor ist damit zu Ende.

Im Bereich des gesprochenen Wortes werden andere Audiospuren um etwa dB weich abgesenkt - , da die Durchsage vorrangig ist.

Verkabelung für QuickSync Mehr dazu sh. Filter in Neat Video Pro. Zwischenframe-Ausschnitt per Edius "Blending Bildvermischung ". In diesem Fall arbeitet bei der Zwischenbildberechnung "Optical Flow" deutlich besser als die einfache "Frame- Überblendung", zudem ist die Aufnahme im spitzen Winkel zu den bewegten Objekten hin aufgenommen worden.

Es kann aber auch kompliziertere Situationen bei schnelleren Bewegungen als im obigen Beispiel mit auffälligeren Bewegungsstörungen im Zwischenframe geben. Das kommt häufig vor bei Aufnahmegeräten ohne manueller Einstellmöglichkeit für den Video-Shutter. Das Ergebnis gefällt mir nun viel besser und ähnlicher der Farbstimmung in den Schatten und Lichtern bei der Kinofilmvorlage Entstehungsvideo dazu: Entwicklungsergebnis im Projektbereich BT.

Frame ohne und mit LUT. Mit dem Vektorskopdiagramm kann man dagegen die Farbinformationen visualisieren was für die Anpassung der Farben zwischen den Aufnahmen besonders wichtig ist. Eine Frage also der persönlichen Einschätzung bzw. Es ist genauso wie in einer Museum-Bildergalerie, der Maler setzt seine Lichter dort wo es seiner Intuition entspricht, der geneigte Betrachter möge das gerne anders bewerten.