Zum Inhalt springen

SSD-Festplatten


zwiebackman

Empfohlene Beiträge

Hi Leute,

ich möchte mir einen neuen Rechner anschaffen und als Systemfestplatte eine SSD-Platte nehmen. Hierzu ein paar Fragen:

Nützt mir die höhere Geschwindigkeit der SSD auch was abgesehen vom hochfahren im laufenden Betrieb?

Bringt es etwas, eine teurerer Markenplatte wie Samsung zu nehmen, oder ist z.B. OCZ gleichwertig?

Wird die Festplatte langsamer, wenn sie vollgepackt wird mit sämtlicher Software?

Oder spielt es keine Rolle in der Geschwindigkeit, ob sie 90% oder nur 20% belegt ist? Anders ausgedrückt - macht es bei viel installierter Software Sinn, 256GB statt 128GB bzw. 120 GB zu nehmen?

Macht es Sinn, eine SSD-Platte zu defragmentieren?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Nützt mir die höhere Geschwindigkeit der SSD auch was abgesehen vom hochfahren im laufenden Betrieb?
Grundsätzlich ja. Im speziellen hängt es davon ab... Jeglicher Festplattenzugriff auf die Systemplatte ist schneller.

Bringt es etwas, eine teurerer Markenplatte wie Samsung zu nehmen, oder ist z.B. OCZ gleichwertig?
Dazu sollte man die diversen Testberichte im Netz durchforsten.

Macht es Sinn, eine SSD-Platte zu defragmentieren?
Nein.
Link zu diesem Kommentar
Auf anderen Seiten teilen

Doch, Defragmentieren einer SSD kann auch Sinn machen. Aber nur begrenzt. Wichtiger ist das Alignement der Partition. OCZ ist Spielzeug. Finger weg davon. Es gibt viele Ruecklaeufer und Firmwarebugs bei denen. Bugs in der Firmware gibts bei jedem Hersteller mal. Aber bei Intel usw. ist das Firmwareupdate wesentlich sicherer und komfortabler abgewickelt als bei OCZ. Das Windows-Tool von OCZ funktioniert meistens nicht mal, und dann hilft nur noch Linux. Ohne große Anleitung und Hilfe sitzt man dann auf dem Trockenem. Spielzeug also.

Ich persoehnlich bevorzuge Intel SSDs. Garantie, Ruecklaeuferquote und Performance/ Preis sind da sehr gut. Die 520iger Serie von Intel ist einfach topp.

Warum das Defragmentieren einer SSD Sinn macht? Auch das Dateissystem spielt bei der Performance eine Rolle. Wenn die SSD 50 - 100 Stuecke einer Datei zusammenkratzen muss dauert es laenger, als wenn sie die Daten relativ (Wear Leveling etc verhindert, das die Daten einer SSD immer am Stueck zusammenhaengen gelesen werden koennen) zusammenhaengend gespeichert sind. Ausserdem funktioniert eine SSD intern wie ein RAID 0. Optimal ist es also, wenn die Datenbleocke moeglichst zusammenhaengend und gleichmaessig verteilt sind.

Ist zwar auch von der Systemleistung des Rechners abhaengig, aber beim Booten wird man es merken, ob man nach einer Neuinstallation + Updates von Windows einmalig defragmentiert hat oder nicht. (Bei meinem alten X32 Notebook mit SLC-SSD ist der Unterschied extrem) Es ist natuerlich Quatsch, die Defragmentierung sehr haeuffig auszufuehren. Aber so einmal im Monat nach Windows Updates kann nicht schaden. Die Lebensdauer guter SSDs wird dadurch nicht nennenswert beeintraechtigt. Ob man nun statt theoretischer 10 Jahre Betriebszeit nun nur noch neundreiviertel zur Verfuegung hat, ist herzlich egal. Gute SSDs brauchen Jahre um zu versagen, selbst wenn sie am Tag staendig neu beschrieben werden. Und bei SLC-SSDs muss man sich garkeinen Kopf machen. Die SSDs werden eher durch einen Controllerdefekt versterben, als dass intakte Flashzellen ausgehen.

Bei Windows 7 und Windows 8 muss man die Defragmentierung der SSD manuell anstossen.

defrag.exe x: -v -f -w

Danach

defrag.exe Bootlaufwerk: -b

Bearbeitet von FfFCMAD
Link zu diesem Kommentar
Auf anderen Seiten teilen

Bei einer billigen 08/15 SSD und welchen aus der 1. Generation ohne Wear-Leveling ist davon auch abzuraten. Die sollten aber langsam alle sterben. (Die einfachen Transcend SSDs fuer IDE und SATA 1 z.B.) Die Neuen haben damit wie gesagt keinerlei Probleme, wenn man halt nicht zum billigsten Schund gegriffen hat. Und dann kannst du auch ruhigen Gewissens eine Swapdatei und den Indexdienst darauf laufen und alle paar Monate vielleicht die Defragmentierung anschmeissen ohne Angst zu haben, das der Verschleiss die Lebensdauer der SSD maßgeblich einschraenkt. Die Pauschalaussage das die SSDs dadurch sehr schnell kaputt gehen trifft einfach nicht mehr zu. Die Technik ist bereits aus dem Kleinkindalter herausgewachsen und die groeßten Nachteile sind somit bereits ueberwunden. Auch das frei lassen von freiem Speicher ist in Zwischen nicht mehr notwendig/ sinnvoll. Einige SSDs koennen so eingestellt werden, das man Kapazitaet direkt fuer das Wear-Leveling opfert. Von Intel gabs da was, wenn ich mich nicht irre. So wird eher ein Schuh daraus. Und wen kuemmert es denn, wenn die SSD nach laengerer Nutzung halt 5 - 15% Datentransverrate einbuesst? Mit TRIM ist das Thema eh erledigt...Die Datentransferrate ist im Desktop-Betrieb in der Leistungsklasse eh egal, wichtiger ist die I/O-Rate. Die meisten SSDs haben bereits einen einen gewissen Teil ihrer Kapazitaet fuers Wear-Leveling geopfert, sodass die Lebensdauer wie bereits erwaehnt, mit normalen HDDs mithaelt/ diese sogar uebertrifft.

Bearbeitet von FfFCMAD
Link zu diesem Kommentar
Auf anderen Seiten teilen

Wenn die SSD 50 - 100 Stuecke einer Datei zusammenkratzen muss dauert es laenger, als wenn sie die Daten relativ (Wear Leveling etc verhindert, das die Daten einer SSD immer am Stueck zusammenhaengen gelesen werden koennen) zusammenhaengend gespeichert sind.
Abgesehen davon, dass die Anordnung von Sektoren im Dateisystem (das ist das, was eine Defragmentierung beeinflusst) nichts mit der tatsächlichen Speicheranordnung auf der SSD zu tun hat: Wo soll denn da eine Verzögerung entstehen?
Link zu diesem Kommentar
Auf anderen Seiten teilen

Da darfst nicht davon ausgehen, das die Daten so extrem von der SSD zerwuerfelt werden, das die Bloecke ueberhaupt nicht mehr zusammenhaengen. Dem ist nicht naemlich so. Die SSD verteilt die Daten ueber mehere einzelnde Flash-Chips im RAID0- Verfahren. Wenn du Defragmentierst, werden die Daten zumindest auf Dateissystemebene zusammengefasst und die Fragmentierung stark reduziert. Wie viel davon dann wirklich bei der SSD zusammenhaengend ist, ist ein anderes Thema. Die SSD ist zwar dazu in der Lager, bisher unbeschriebene Zellen fuer neue Daten zu verwenden und dem OS vorzugaukeln, das es dort hin schreibt wodas OS den Zielort angegeben hat, aber das geschieht nur Blockweise. Es wird also immer einen zusammenhaengenden Block an Daten nach dem Defragmentieren geben. Und wenn Dieser Dank Defragmentierung am Stueck ausgelesen werden kann, ist die optimale Performace erreicht. Somit lohnt auch die Boot-Defragmentierung durch Defrag. Da dann alle Dateieen, die beim Booten gelsen werden muessen, in moeglichst wenigen einzelnden dieser virtuellen Bloecke und somit zusammenhaengend vorliegen, muss die SSD nicht zwischen sehr vielen einzelnden Bloecken huepfen und erreicht somit auch hier das Optimum an Performance.

Auch eine SSD hat eine Zugriffszeit. Der Rechner selbst wird durch viele Zugriffe ebenfalls belastet. Die SSD arbeitet nicht auf Dateissystemebene wie alte C64-Diskettenlaufwerke, sondern der Rechner muss die Dateissytemverwaltung regeln. Liegen die Daten auf Dateissystemebene fragmentiert vor, wird sich das OS auch so verhalten und die SSD dazu auffordern, die gewuenschten einzelnden Fragmente zusammenzusuchen. Das kostet Zeit. Viele Zugriffe geschehen zudem in 4K - 16K Bloecken, besonders beim Booten. Auch hier sind SSDs normalerweise schnell, aber sie leisten hier nicht ihr Optimum an Performance, es sei denn sie sind in Sachen I/O extrem leistungstark und kompensieren so die Schwaechen.

Bearbeitet von FfFCMAD
Link zu diesem Kommentar
Auf anderen Seiten teilen

Nein, es ist genauso wie beim RAM. Sind die Daten im geoeffnetem Block zusammenhaengend koennen diese schneller vom Host entgegengenommen werden, als wenn die SSD die Bloecke alle nach Fragmenten absuchen muss, da der Rechner sie ja dazu auffordert.

Wie stark die SSD durch das Springen durch die virtuellen Bloecke und das Oeffnen der einzelnden Sektoren an Performance verliert, ist unterschiedlich. Je leistungstaerker die SSD, umso weniger wird Defragmentieren bringen. Einzig laesst sich dann noch die aufgewendete CPU-Zeit reduzieren, die bei SSDs normalerweise deutlich ueber der von HDDs liegt, da diese wesentlich mehr I/O-Requests pro Sekunde bewaeltigen. Weniger Zugriffe >> Weniger I/O Wait.

Bearbeitet von FfFCMAD
Link zu diesem Kommentar
Auf anderen Seiten teilen

Und wenn Dieser Dank Defragmentierung am Stueck ausgelesen werden kann, ist die optimale Performace erreicht.
Du meinst, dass zwei "nebeneinander" liegende Pages der SSD schneller gelesen werden als zwei "weit entfernte"? Ich verstehe nicht, was da eine Verzögerung verursachen sollte.

Liegen die Daten auf Dateissystemebene fragmentiert vor, wird sich das OS auch so verhalten und die SSD dazu auffordern, die gewuenschten einzelnden Fragmente zusammenzusuchen. Das kostet Zeit.
Das klingt jetzt ein bißchen danach, dass Einsen langsamer verarbeitet werden als Nullen.

Kann sein, dass ich da etwas Grundsätzliches nicht verstehe. Hast du eine Quelle (z.B. SSD-Hersteller) dafür? Intel beispielsweise schreibt, dass Defragmentieren nur schadet.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Bereits beschriebene hardwaretechnisch zusammenhaengende Pages muessen bei MLC komplett mit Nullen beschrieben werden, bevor ein neuer Schreibvorgang erfolgen kann. Das kostet natuerlich Performance. Teilweise muessen vorher noch Daten ausgelesen werden, die dann wieder hergestellt werden (Davon merkt das OS nichts). Besonders schlimm ist das bei fehlerhaften Partitions-Alignement. (Fehlerhaftes Alignement redurziert die Lebensdauer und Performance) Wie bereits gesagt, arbeitet die SSD mit dem RAID0-Verfahren, in dem mehre Flash-Chips gleichzeitig ueber je einen eigenen Kanal (Es kann auch mehere Flash-Chips pro Kanal geben, meist bei den großen SSDs der Fall) angebunden sind. Wenn die SSD somit schoen durch so ein Stripe durchrutschen kann ist das performanter, als wenn sie einzelne dieser Kanaele mehrmals abfragen muss, weil einzelnde Datenbloecke dank Fragmentierung unguenstig verteilt sind.

Solid-State-Drive

Ich als Hersteller wuerde es auch nicht empfehlen, die SSD in regelmaessigen kurzen Abstaenden, wie sie bei HDDs ueblich sind, zu defragmentieren. Wie gesagt, besonders bei aelteren SSDs kann das sehr schnell boese ausgehen. Fuer die meisten Anwender duerfte es auch unerheblich sein, ob das OS nun in 30 oder 35Sekunden nutzbar ist. Ich komme gut damit aus, alle zwei - drei Monate die SSDs zu defragmentieren, um die optimale Leistung zu erzielen. (TRIM, optimales Alignement und der SSD-Optimizer von Intel erledigen den Rest) Kaputt gehen koennen sie dadurch nicht, die S.M.A.R.T.-Werte sind selbst bei den aelteren 80Gbyte x25M von Intel immer noch weit vom spuerbaren Verschleiß entfernt, und es sind schon einige Terabyte drueber gewandert.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Du verlinkts Wikipedia. Sehr schön, denn dort steht etwas, was mich interessiert und du mir doch sicher erklären kannst:

Die von Flashspeichern nach außen kommunizierten Sektoren haben aber nichts mehr mit den tatsächlichen Speicherorten zu tun.
(Abschnitt "sicheres Löschen").

Ein OS kann doch nur auf die Sektoren der SSD zugreifen, die die Controllerelektronik zur Verfügung stellt. Wear Leveling und TRIM laufen doch innerhalb der Platte selber ab - ohne "Kontakt" zum Betriebssystem.

Wieso und warum ist dann ein Defragmentieren deiner Meinung nach sinnvoll und notwendig, wenn das Defragmentiertool eh nicht auf die eigentlichen Speicherzellen der SSD zugreift, sondern nur auf das, was der Controller vorgaukelt?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Weil das nicht pro Sektor passiert, sondern die SSD ist in mehrere groeßere Bloecke unterteilt ist. Wie viel Speicherplatz wuerde es wohl brauchen, um zu sichern, welcher Sektor oder besser gesagt, welche Page sich an welcher Position relativ zum Dateissystem befindet, wenn jede Page 4KByte groß ist? Diese virtuellen Bloecke sind groeßer als nur eine Page. Gut zu sehen im Abschnitt "Methoden zur Nutzungsverteilung" Wenn du defragmentierst, sorgst du also trotzdem fuer ein zusammenhaengendes Dateissystem und einen optimierteren Auslesevorgang. Das diese Bloecke natuerlich untereinander verschachtelt sein koennen, ist performanztechnisch wesentlich geringer von Bedeutung. Das ist so, als wuerde ich bei einer normalen HDD die Spuren zufaellig nummerieren. Wenn die Spruenge zwischen den Spuren nicht allzu viel zeit in Anspruch nehmen wuerden, waere das ein guter Vergleich. Es bleiben aber immer eine gewisse Menge an zusammenhaengenden Sektoren.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Aha... abstrahieren wir noch weiter... wir haben also die Cluster vom Dateisystem: das was das Betriebssystem sieht - und ggf. defragmentiert.

Wir haben darunter die Sektoren vom Controller, die wiederum nicht 1:1 auf bestimmte Pages vom Flash-System abgebildet werden.

Ein beliebiges Defragmentierprogramm verschiebt also beim Defragmentieren die Dateien gezielt in die Clusterbereiche, von denen es schnelle Zugriffsraten erwartet. Eine SSD ist aber von vorne bis hinten gleich schnell... egal ob eine Datei am "Anfang" oder am "Ende" einer Festplatte geschrieben wird. Man kann also nicht definitiv sagen, dass man mit dem Defragmentieren gezielt die Pages der SSD anspricht und füllt.

Ausser einer erhöhten Belastung der SSD hat das doch keinen Sinn... siehe wieder den von dir verlinkten Wikipedia-Artikel mit der Übersicht, dass die meisten SSD-Hersteller das Defragmentieren nicht empfehlen (und Win7 die Hintergrunddefragmentierung - neben weiteren Punkten - eh bei der Installation auf einer SSD deaktiviert).

Link zu diesem Kommentar
Auf anderen Seiten teilen

Sry, musste gerade in den Feierabend.

Ich fange noch mal von Vorne an:

Wir haben 8 Speicherkanaele. Sagen wir mal, das an jedem Speicherkanal gleichzeitig je eine Page ausgelesen werden kann. So. Diese 8 Pages fassen wir in einem Block zusammen. Wenn alle 8 Pages benoetigt und ausgelesen werden, ergibt sich der hoechste Durchsatz. Genau wie bei einem RAID 0. Werden nur 1 oder 2 Pages benoetigt, ist das also "schlecht".

Dem Block selber geben wir einfach eine zufaellige Nummer. Das machen wir nun einfach mal fuer alle Bloecke durchgehend. Sagen wir wir haben maximal 128 Bloecke, jeder ist entgegen seiner physikalischen Anordnung im Flash-Speicher nicht nacheinander angeordnet. Logisch gesehen jedoch schon.

Spielt es jetzt ein Rolle, wie die einzelnden Bloecke angeordnet sind? Eben nicht... Der Controller grast sie wenn sowieso in der richtigen Reihenfolge ab, weil er weiß, wie die Bloecke angeordnet sind. Und das kostet ihm auch praktisch keine Performance. (Er muss ja nur ueberpruefen, welcher Block jetzt zu welcher Nummer gehoert) Es ist im schnurzegal, und welcher Reihgenfolge er die Bloecke abgrasen muss. Er sieht die Daten der SSD genau so, wie das OS sie dann auch sieht. Als zusammenhaengenden Datentraeger ohne Verschachtelung. Mit einer Defragmentierung sorgst du im Prinzip also dafuer, das groeßere Daten (Beim Optimieren der Bootdateien ebenfalls) trotzalledem zusammenhaengend ausgelesen werden koennen. Und dadurch, das jeder einzelnde Block in dem vom mir beschriebenen Modell 8 Speicherkanaele nutzt, die zusammenhaengend ist, ergibt sich also ein Performancevorteil. Der Verschachtelung selber kann man sich also komplett aus dem Verstand ausblenden, sie spielt im Prinzip keine Rolle. Fuer den Controller ergibt sich nach der Defragmentierung eine zusammenhaengende Datenstruktur, die auf Grund dessen optimal ausgelsen werden kann.

Das Modell ist rein theoretischer Natur! Was wirklich in der SSD abgeht und was fuer weitere Techniken genutzt werden ist ein ganz anderes Thema. Das ist nur das, was ich von der groben Verfahrensweise verstanden habe. Und je langsamer die SSD und der PC, umso spuerbarer wird die Defragmentierung. Mein Notebook ist ein gutes Beispiel. Bei meinem Großen PC ist der Vorteil minimal. Das Modell geht nun davon aus, das die Daten nur aus einem Block gleichzeitig gelesen werden koennen. Ich denke nicht, das das Zwingend so ist.

Bearbeitet von FfFCMAD
Link zu diesem Kommentar
Auf anderen Seiten teilen

Das Modell ist rein theoretischer Natur! Was wirklich in der SSD abgeht und was fuer weitere Techniken genutzt werden ist ein ganz anderes Thema.
Dann bleiben wir doch lieber in der Realität und kümmern uns um die Tatsachen, statt uns um deine (ich muss mir jetzt wirklich eine Wertung verkneifen) Theorien zu kümmern.

Ich bitte dich hiermit, deine Theorien für dich zu behalten statt sie hier weiter zu verbreiten.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Warum "meckert" O&O-Defrag "Du hast ne SSD und brauchst micht gar nicht" - damit machen die nur ihr eigenes Geschäft kaputt <-- wenn man glaubt, SSD brauchen (bräuchten) Defrag.

(und Win7 die Hintergrunddefragmentierung - neben weiteren Punkten - eh bei der Installation auf einer SSD deaktiviert).

Meinst Du denn Dienst "Defragmentierung" oder die dazugehörige Aufgabe in der Windows-Aufgabenplanung?

Link zu diesem Kommentar
Auf anderen Seiten teilen

@Chief Du hast mal wieder ein wenig was falsch verstanden, ich habe gesagt, das mein Modell theoretischer Natur ist. Es entspricht aber der Verfahrensweise, wie SSDs arbeiten. (Der Wikipedia-Artikel zeigt das auch auf) Was noch weiter abgeht, ist großteils Geheimsache des Controllerherstellers. Performanceoptimierungen etc sind, wie ich bereits im Edit hinzugefuegt habe, gut moeglich. Intel wusste bis vor kurzem nicht mal, das der verwendete Controller in der 520iger Serie nur 128Bit breite Verschluesselung packt statt 256Bit. Rate mal wieso...

@Jeblu: Ja, weil es eine allgemeine Empfehlung ist und bei bestimmten SSDs auch wichtig zu beachten, da die SSD sonst schneller stirbt als du gucken kannst. Ich rede von modernen SSDs. Ich habe auch gesagt, das sehr kurze Abstaende Bloedsinn sind. O&O und auch die Hersteller der SSDs machen das aus guten Grund. Und das sollte jedem klar sein. Wenn O&O Defrag in kurzer zeit mal kurz alte SSDs ohne Wear-Leveling kaputtflasht dann ist der Aerger ziemlich groß. Und der Hardwarehersteller moechte auch nicht, das die SSDs scharenweise zurueckkommen.

Win 7 und Win 8 unterbinden die automatische Defragmentierung. Wie bereits geschrieben, muesste man sie manuell anstossen.

Bearbeitet von FfFCMAD
Link zu diesem Kommentar
Auf anderen Seiten teilen

1. Nichts außer dem Controller auf der SSD beeinflußt wo die Daten geschrieben werden. Das Dateisystem schon gar nicht und erst recht kein Defragprogramm

2. Die Zellen müssen so oder so Addressiert werden. Somit ist es völlig egal wo welches Datenhäppchen liegt, es gibt schließlich keine Leseköpfe etc die erst positioniert werden müssen. Oder will uns FfFCMAD jetzt vorrechnen, dass die Addressierung von 0x0238AC33 länger dauert als von 0xB239AF26?

3. Selbst wenn man Defragmentieren würde und es tatsächlich einen Effekt hätte, bezweifel ich das dieser auch nur annähernd 1% erreichen würde. Und wie wir alle wissen sind Performanceänderungen <10% so gut wie nicht spürbar.

4. Die in dem Wikipediaartikel Referenzierte Forma MTron und deren Artikel zur Befürwortung von Defragmentierung existiert nicht mehr.

Um nochmal auf die Frage des TE zurückzukommen: Eine SSD als Heimat des Betriebssystem sowie aller nötigen Programme ist absolut zu empfehlen. Die so erreichte gefühlte und messbare Performancesteigerung was Programmstarts und Arbeitsflow angeht ist von keinem anderen Tuning getoppt werden. Allein der Faktor 100 in der Zugriffszeit im vergleich zu Rotierenden Speichermedien bringt den größten Boost. Die mögliche höhere Datenübertragung erledigt den Rest. Selbst wenn du Festplatten mit höheren sequenziellen Schreib-/Leseraten hast fühlt sich die SSD welten schneller an.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Du hast nichts gelsen und auch nichts verstanden. Und natuerlich kosten Zugriffe Zeit. Defragmentierung sortiert die Daten auf Dateissystemebene und nicht die physikalische Anordnung der Daten auf der SSD selbst (Oder besser gesagt, eingeschraenkt. Wie beschrieben). Und ich habe geschrieben, das das Verschachteln der Daten bis ueberhaupt keine Relevanz hat und das Defragmentieren trotzdem wunderbar seinen Zweck erfuellt. Habe auch erklaehrt, wieso.

Der Effekt ist sehr klein bis sehr groß, je nach Alter und Performance der SSD. Alles schon geschrieben/ beschrieben. Lesen und verstehen!

Achso: Und deine Aussage gilt eh nur fuer moderne Controller. Alte SSDs verschachteln die Daten nicht. Die Lesekoepfe der SSD sind sozusagen die einzelnden Datenpfade zu den Speicherchips, die parallel arbeiten koennen.

Bearbeitet von FfFCMAD
Link zu diesem Kommentar
Auf anderen Seiten teilen

Den TE interessieren keine alten SSDs. Und ihn interessieren keine herbeigefaselten Theoreme über sonst wie geartete pseudo-Performancegewinne. Er will wissen ob eine SSD gut für ihn und sein System ist.

Ja, ist es. Ein regelmäßiges Backup wichtiger Daten, ist natürlich wie immer obligatorisch.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Falsch, er wollte wissen, ob Defragmentierung etwas bringt. Und die Pauschalaussage "Nein" stimmt einfach nicht. Und es ist keine Theorie, sondern Praxis. Nur der von mir beschribene Aufbau ist theoretischer Natur. Und der Performancegewinn ist da. Wie groß oder wie klein, auch bereits erwaehnt. Unterschiedlicher Natur. Ich kann nichts dafuer das du die Funktion und den Aufbau einer SSD nicht verstehst. Ich habe das Modell schon auf ein Minimum heruntergebrochen. Wenn du daran scheiterst, es zu verstehen, kann ich nichts dafuer. Da musst du dich nicht mit Totschlagargumenten rauswinden.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung wiederherstellen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...