Test Intel Optane SSD DC P4800X: Das leistet 3D XPoint im Server-Format

xexex schrieb:
Ob letztlich eine P4800X im Vergleich zu einer P4600 oder P4500 einen Leistungsvorteil bringt, muss man vom Fall zu Fall unterscheiden. Dafür sind die Serveranwendungen einfach zu verschieden. Ein Datenbankserver mit 12c ist aber auf jeden fall als sehr klein zu bezeichnen. Denken wir lieber mal in Richtung 2x18c wie sie im Testsystem vorhanden waren und 500+ Nutzern, was auf viele Unternehmen zutrifft. Da amortisiert sich der Aufpreis dann doch recht schnell und wir reden da noch immer von "kleinen" Anwendungsfällen.

Ebenso wie die SSDs passend zum Anwendungsfall gewählt werden sollten, gilt das Gleiche auch für die Prozessoren. Wir haben zum Beispiel Datenbanken, welche mit wenigen Nutzern bereits hohen Durchsatz erzeugen können. In diesem Anwendungsgebiet profitieren wir vor allem von möglichst hoch getakteten Prozessoren (mit entsprechend moderater Kernzahl).

3xP4600.png

Hier ein DB-Server mit 3 Stück Intel DC P4600 2.0TB. Für den maximalen sequentiellen Durchsatz müssen 6 Nutzer gleichzeitig arbeiten. Hier limitiert der recht alte E5-2660 (8 Kerne, 2.2 GHz, Turbo 3.0 GHz) den Durchsatz pro Session.
 
Ich würde die Xpoint-Chips gern in "Hybrid"-SSDs sehen als Cache für die 3D-NANDs, um einerseits die SLC-Caches beim Schreiben zu ersetzen / zu unterstützen und für kleine Dateien als Lesecache.
Der teure Speicherplatz einer 900P im Enthusiastenrechner wird wohl auch mit vielen "kalten" Daten belegt werden.
 
v_ossi schrieb:
Bezweifle, dass da große Differenzen zu sehen sind, zumindest in den gängigen Consumer Anwendungen. Selbst SATA zu NVMe macht ja häufig kaum einen Unterschied. (Ja, die 1000 Tab Fraktion wird mir widersprechen, Schande über mein Haupt :D)

Mit 3D X-Point sind wir mMn jedenfalls an einem Punkt angekommen, an dem der Fortschritt selbst für den Durchschnitts-CB-Forenuser nicht mehr spürbar ist. Und wir sind schon die obere 5% der deutschen Prosumer.

PS.: heißt das eigentlich
a) XPoint, ausgesprochen wie der Buchstabe X vor dem Point;
b) XPoint, Cross-Point gesprochen
oder in Anlehnung an Apple
c) XPoint, Ten/Zehn-Point?

Alles falsch, X wie bei der Xbox X monster 👾 Konsole
 
Ich gehe mit gemischten Ansichten an die XPoint-Speicher... einerseits hat Intel hier Gold - insbesondere im Vergleich zu SSDs - versprochen und Blei geliefert*, andererseits hat der Speicher als SSD-Ersatz dank seiner geringen Latenzen (und auch nur deswegen, weil SCHNELLER als SSDs ist der Speicher in sequenzellen Lesemodi nicht) in Spezial-Szenarien seine Daseins-Berechtigungen. Die hat er allerdings auch NUR da, weil XPoint auf Grund seiner Struktur (das Zeug ist im Vergleich zu NAND riesig und auch zukünftig nur begrenzt zu NAND angleichbar und damit preislich konkurrenzfähiger herzustellen, wenn die gleichen Fertigungstechnologien verwendet werden) eine breite Einsatzfähigkeit jenseits von speziellen Server-Applikationen gar nicht Vernunft-induziert durch Käufer erklärbar zulässt.

* Intel hatte hier weitestgehend einen nicht-flüchtigen DRAM-Ersatz versprochen, den man sogar in dessen Slots stecken können sollte. Davon ist nichts mehr zu sehen. Stattdessen versucht Intel jetzt, ähnlich wie damals bei Larabee eine Fehlinvestition mit viel Werbe-Budget trotzdem noch verkauft zu bekommen, nur um sich nicht die Blöße geben zu müssen, letztlich nicht mal annähernd das geliefert zu haben, was man versprochen hatte. Und sorry liebes CB-Team, aber euer Artikel IST leider ein Vehikel auf genau dieser Schiene. Keine Vergleiche, keine Preis/Leistungs-Charts... was glaubt ihr denn, warum euch Intel so ein Set zugeschickt hat? Weil ihr so cool über die aktuellen I7/I9 berichtet? Oder weil man für die XPoint-Produkte zwingend halbwegs gute Publicity braucht?!

Regards, Bigfoot29
 
Die Sache für günstige Server mit viel RAM wird auf jeden Fall interessant.

Gerade bei Hostern wird ja gerne viel RAM als VM verkauft, dass muss ja dann keine High-Performanc-Maschine sein, aber im Peak bei wenigen Nutzern wäre Optane schnell genug und defintiv billiger als 750 GB echter RAM.

Als RAM-Ergänzung könnte man eine große Bandbreite an Servern abdecken. Klar High-End-Kisten brauchen weiterhin echten RAM, aber die Masse braucht keine High-End-Server.
 
@flappes: Da wird heute schon unter-provisioniert und notfalls mit SSDs gecached. Das würde dann lediglich etwas schneller. Aber die Firmen, die das bis zum Exzess betreiben, werden sich keine 3000-Euro-SSDs kaufen, wenn sie das Gleiche mit der 500-Euro-Klasse in "auch grademal 10-20% langsamer" auch hinbekommen.

Die Firmen, die solche Cluster GUT betreiben, werden die VMs stattdessen - also anstelle da viel Server-Side-Swapping zu betreiben - auf einen Node "instant migrieren", der freie Kapazitäten hat. Da wird so eine SSD also auch nix reißen.

Die "Masse" wird weiterhin mit den bisherigen Strukturen glücklich werden. Von denen wöllte kaum jemand lediglich in aus Endkundensicht nicht-reproduzierbaren Grenz-Situationen mal einbrechende Leistung dadurch kompensieren, dass sie die doppelten, auf die jeweilige VM umgerechneten Hardware-Preise zahlen sollen.

Das wird wohl eher eine Minderheit sein, die derzeitig NOCH etwas mehr für eine RAM-Garantie zahlt, um eben kein überzeichnetes Host-System nutzen zu müssen sondern die volle, zugesicherte Hardware (CPU-Leistung, RAM und Co) für sich selbst dauerhaft nutzen zu können. Aber selbst dort ist es zu Cloud-Zeiten (und der richtigen Software) heute auch billiger, in Hochlast-Zeiten schlicht noch ein paar Instanzen zu starten.

Regards, Bigfoot29
 
Hallo @ all,

ich persönlich würde mich freuen über "Alltagserfahrungen" mit so einem Monster. Benchmarks zu fahren mit Ausnahme-Hardware ergibt nun wirklich gar keinen Sinn.

Ich hätte da ein Vorschlag für einen einfachen Real-Life-Test: Anno 1404 - mMn ein mit heutiger Hardware immer noch ein unspielbares Game weil die Speicher-/Ladezeiten schon ab ca. 10000 Aristokraten gegen unendlich streben. Andererseits skaliert 1nno 1404 fast linear mit CPU- und SSD-Leistung. Zumindest konnte ich bei jedem Hardwarewechsel seit C2D E6300 / Samsung F1 1TB HDD (benötigte damals ca. 80-90s) sowohl bei CPU wie auch beim Datenträger eine spürbare Änderung feststellen. Allerdings ist alles bisherige weit entfernt davon spielbar zu sein, d.h. Speicher- / Ladezeiten < 5s zu haben. Mein 2600K mit 1TB Evo 840 braucht immer noch 35-40s. Hab damals dann glaube ich nach der 6. Karte oder so die Kampagne entnervt aufgegeben, und warte seit dem auf die ideale Hardware um irgendwann mal das Spiel zu Ende zu zocken.:D Mein letzter Speicherstand ist mein persönlicher Gamer-Benchmark für CPU-/SSD-Leistung.

Willi-Fi schrieb:
Laden eines Lategamespielstandes auf sehr großer Karte in Civ V:
850 Evo -> 41sek
SM951 -> 38sek

Hab Civ nie länger als 1h gezockt und danach deinstalliert, weil es nie so meins war, scheint aber auch ein guter Benchmark-Kandidat zu sein mit Ladezeiten ähnlich Anno 1404.
 
Zuletzt bearbeitet:
PCMark8 ist schon der Benchmark, der Alltagserfahrungen am besten wiedergibt, weil er reale Software-Produkte nutzt.

Ein besonders problematischer Spielstand in einem besonders betroffenen Spiel spiegelt den Alltag jetzt nicht so wider.
 
Zuletzt bearbeitet:
nordic_pegasus schrieb:
als Privatanwender soll man ja nicht die P4800X kaufen sondern die 900p ... Ein Test der 900p hätte ich interessanter gefunden ;)
Die sollen sich aber bzgl. der Performance sehr ähnlich verhalten, im Grunde ist es ja die gleiche HW.
xexex schrieb:
Die 900p ist wie die meisten Intel SSDs praktisch nicht lieferbar und für 600€ erst recht nicht zu bekommen.
Auch bei Geizhals ist der beste Preis nun schon auf 750€ gefallen und dürfte bald bei 600€ oder leicht darunter ankommen, die P4800X kostet ja auch etwa den US Preis in Euro und die Skylake-X CPUs sogar noch weniger.

xexex schrieb:
Eigentlich ist nicht die Programmierung entscheidend, sondern die Last. Ein Datenbanksystem oder Webserver wird heutzutage häufig mit 32+ Threads und tausenden Abfragen so eine SSD richtig auslasten.
Es kommt eher darauf an was mit den Daten gemacht wird, Datenbank- und Webserver müssen im Idealfall die Daten nur von der Platte lesen und weiterreichen, dies aber nicht verarbeiten oder gar gelesenen Programmcode ausführen, wie es eben beim PC der Fall ist. Lass man Oracle in XMLs suchen, dann siehst Du aber wie schnell der DB Server in die Knie geht.

Gerk schrieb:
Bitte RAID1 testen.

Und vielleicht auch mal USB.
Es gibt zumindest bisher keine Möglichkeit NVMe SSDs über USB zu betreiben und wie SSDs im RAID 1 performen hängt auch sehr von der RAID Lösung ab. Da die Optane aber kein TRIM brauchen und eine sehr konstante Performance bieten, dürften so ein Test eher ein Test der jeweiligen RAID Implementierung werden.

Wattwanderer schrieb:
Für mich wirkt das halbherzig. Warum nicht PCIE 16x und so viele Speicherbausteine parallel, um diese Bandbreite auch auszureizen?
Da scheint klar der Controller zu limitieren, was sich schon daran zeigt, dass die Performance mit steigender Kapazität und damit mehr Dies eben nicht zunimmt. Eine höhere Bandbreite würde eine noch größere Leistungsaufnahme bedeuten und der Fokus der Optane SSDs liegt klar auf Anwendungen wo die Bandbreite keine große Rolle spielt. Klar wären noch viel höhere Bandbreiten interessant und die Optane dürften sie auch bei Zugriffen mit einer so geringen Länge erreichen, dass sie tatsächlich auch bei realen Anwendungen mal erreichbar wären, aber vielleicht kommt dies ja dann in der nächsten oder übernächsten Generation.

Wattwanderer schrieb:
Unter anderen hat ja Asus so einen Adapter im Angebot wo man 4 x NVME SSDs reinschrauben kann und über PCIE 16x beeindruckende Raten präsentieren kann.
Dafür braucht man aber auch die passende Plattform bei der auch PCI bifurcation unterstützt wird, sonder wird nur eine der SSDs erkannt, denn einen PLX Chip der die ganze SSDs gegenüber dem System auf Hardwareebene als nur ein PCIe Geräte erscheinen lässt, hat die Karte nicht und da so ein PCIe Lane Switch richtig teuer ist, kann man den bei allen derartigen Karten die nicht weit über 100€ kosten, auch nicht erwarten. Dann kommt dazu, dass man entweder ein SW RAID bauen muss, oder eine Plattform haben muss die RAID von PCIe SSDs unterstützt, also bei Intel VROC oder bei AMD TR4, die unterstützen dann auch PCI bifurcation.
Wattwanderer schrieb:
Dass man für hohe Leistung bereit ist auch Strom und Kühlung reinzustecken sieht man ja bei Grafikkarten.
Aber schon so kommt von der Leistung gerade bei den typischen Anwendungen von -heimanwendern wenig bis nichts an, da die CPU die Bremse ist, wenn die Daten erst verarbeitet, z.B. entpackt oder die gelesenen Programmcodes abgearbeitet werden müssen.
HaZweiOh schrieb:
Wenn du irgendwie belegen kannst, dass diese Hardware für die Zielgruppe dieses Forums was bringt, dann tu das.
(Datenbank-Server sind ne andere Baustelle)
Kannst du denn belegen das es keiner in der Zielgruppe dieses Forums (wo und wie ist die überhaupt definiert? Wir sind hier nicht bei PC Gaming Hardware!) vorhandenen Anwendung etwas bringt?
HaZweiOh schrieb:
Ein Forum dient der Diskussion und auch der Aufklärung, welche Technik was bringt und welche nicht.
Richtig, aber leider werden die Foren immer wieder für Deinformationen von Leuten missbraucht, denen es alleine um den Hersteller der HW geht, sei es ob sie ihn pushen oder bashen wollen.

Den wahren Vergleich müssen die Optane bestehen, wenn andere SSDs mit Storage Class Memory auf dem Markt sind, als nächstes wäre das wohl auch eine Lösung mit 3D XPoint von Micron, die diese mit einem Partner realisieren möchten, später werden es dann ReRAM, etc. SSD sein. Das Rennen um die ersten SSDs mit neuer Speichertechnologie die in brauchbaren Kapazitäten (also nicht nur im MB Bereich für Embedded Anwendungen) auf dem Markt erschienen ist, hat Intel aber zumindest mal gewonnen.

Zum Test selbst: Hatte ich das richtig verstanden das Windows Server 2016 auf dem Server von Intel lief und Win 10 auf dem Coffee Lake Testrechner von CB? Oder war auf dem auch Windows Server 2016 installiert worden?
 
Zuletzt bearbeitet:
Holt schrieb:
pushen oder bashen wollen.

Du meinst, die Foren werden von manchen Leuten dazu missbraucht, andere Leute zu bashen?
Das ist wohl so, leider.

Naja, CB will ja noch Praxistests nachreichen, auch im Bezug auf Preis/Leistung.

Die PCMark8-Werte sind schon mal gut.
 
Zuletzt bearbeitet:
Also ich dachte es war in dem Satz klar zu erkennen auf den das ihn in "sei es ob sie ihn pushen oder bashen wollen" bezogen ist, aber es ist für besimmte Forennutzer ja leider typisch Dinge zu verdrehen.
 
FUSION5 schrieb:
Wir haben zum Beispiel Datenbanken, welche mit wenigen Nutzern bereits hohen Durchsatz erzeugen können.

Dann wäre aber zumindest die DC P4800X suboptimal, sequentiell wird sie von anderen SSD durchaus geschlagen. Ich denke je höher die Anzahl der Nutzer und/oder gleichzeitiger Abfragen ist, desto mehr profitiert ein Server von einer höheren Kernzahl und höheren IOPS Werten.

Bei Datenbanken gibt es dazu noch sowieso unterschiedliche Lasten für die Datenbank und die Protokolle.
 
Holt schrieb:
Es kommt eher darauf an was mit den Daten gemacht wird, Datenbank- und Webserver müssen im Idealfall die Daten nur von der Platte lesen und weiterreichen, dies aber nicht verarbeiten oder gar gelesenen Programmcode ausführen, wie es eben beim PC der Fall ist. Lass man Oracle in XMLs suchen, dann siehst Du aber wie schnell der DB Server in die Knie geht.

Dein Idealfall würde ich als seltenen Sonderfall bezeichnen. Viele Webserver liefern ja doch eher Seiten aus die massiv auf PHP setzen und auch bei Datenbankservern versteckt sich gern mal ein SUM(), AVG() und ähnliche Niederträchtigkeiten. Ganz unbescholten kommt die CPU da meist nicht davon ;).
Ergänzung ()

xexex schrieb:
Dann wäre aber zumindest die DC P4800X suboptimal, sequentiell wird sie von anderen SSD durchaus geschlagen. Ich denke je höher die Anzahl der Nutzer und/oder gleichzeitiger Abfragen ist, desto mehr profitiert ein Server von einer höheren Kernzahl und höheren IOPS Werten.

Bei Datenbanken gibt es dazu noch sowieso unterschiedliche Lasten für die Datenbank und die Protokolle.

Wenn ein Nutzer hohe Lasten erzeugt, bedeutet das noch lange nicht, dass das Datenbanksystem sequentielle Zugriffsmuster fabriziert. Ein einzelner Nutzer kann ja gern mal zig parallel ablaufende Abfragen anstoßen.
 
Zuletzt bearbeitet:
Piktogramm schrieb:
Ganz unbescholten kommt die CPU da meist nicht davon ;).
Klar und je mehr sie machen muss, umso eher ist man an dem Punkt wo die Storage Performance gegenüber der CPU Performance eine untergeordnete Rolle spielt und dann lohnt sie eine schnellere CPU mehr als ein schellere Storage, nur kann das gerade bei Datenbanken, je nach Lizenzmodell, auch schnell sehr teuer werden :evillol:

Piktogramm schrieb:
Wenn ein Nutzer hohe Lasten erzeugt, bedeutet das noch lange nicht, dass das Datenbanksystem sequentielle Zugriffsmuster fabriziert.
Eben, zumal es auch immer davon abhängt wie die Daten gespeichert sind. Wenn mehrere Tabellen in einem Tablespace liegen und nur zwei davon immer langsam wachsen, wird selbst der Full table scan einer der Tabellen kaum noch zu langen seq. Zugriffen führen, sondern immer nur zu realtiv kurzen Zugriffen auf die Bereiche des Datafiles wo die Daten dieser Tabelle liegen.
 
Piktogramm schrieb:
Wenn ein Nutzer hohe Lasten erzeugt, bedeutet das noch lange nicht, dass das Datenbanksystem sequentielle Zugriffsmuster fabriziert. Ein einzelner Nutzer kann ja gern mal zig parallel ablaufende Abfragen anstoßen.

Es geht um die Regel und nicht um die Ausnahmen.

Bei einem Benutzer stellt sich schnell die Frage nach der Rentabilität, die 2000€ Aufpreis müssen ja irgendwie wieder reinkommen. Zudem fallen mit im Moment keine Anwendungsfälle ein, bei der ein Benutzer halbwegs dauerhaft ein Storage mit 500.000+ IOPS bearbeitet.

Klar kann man immer irgendwelche Auswertungen fahren und von so einem schneller Storage profitieren, für solche Fälle wird man aber heute eher zu einer entsprechenden Arbeitsspeicherausstattung greifen und die Datenbank In-Memory betreiben.
 
Zuletzt bearbeitet:
xexex schrieb:
Es geht um die Regel und nicht um die Ausnahmen.

Nunja, Datenbankabfragen die sequentielle Operationen ausführen sind all zu oft Table Scans und da wird in der Regel versucht diese zu vermeiden. Hingegen sind Abfragen mit ein paar Joins die bei der Abfrage fröhlich parallelisiert werden recht häufig. Auf einer normalisierten Datenbank eines mittelgroßen System artet das ganz fix aus. Insofern sind sequentielle Operationen bei DBS die Ausnahme oder zumindest sollten sie ein seltener Fall sein. Vermeiden lässt es sich leider nicht immer.

Alles "In-Memory" zu machen ist schön und gut. Gelegentlich ist es aber doch praktisch den Speicherinhalt auch mal auf einen Festspeicher zu bannen. Abgesehen davon 3000€ für 750GB X-Point sind sind eine ganze Ecke Kosten als die entsprechende Menge an ECC Ram (16 mal 32GB registered ECC von Samsung -> 4800€ für 512GB).
 
Der Grundsatz steht recht vielen aktuellen Entwicklungen entgegen. Damit Systeme flüssig funktionieren legt man sie recht häufig auf Spitzenlasten aus (Peaks) und eben nicht aufs langfristige Mittel. Schon allein beim Rendern einer Webseite braucht es recht viel Wumms, damit es erträglich schnell klappt. Während der 1-2Minuten Betrachtung der gerenderten Seite hat der Rechner fast nichts zu tun. Trotzdem wird kaum jemand seinen Rechner gegen die benötigte Leistung im Idle auslegen.

Bei Webservern inkl. Datenbank ist es ähnlich. Wenn man weiß, dass zwischen 18-22Uhr der Kundenansturm kommt, dann legt man die Kiste so aus, dass sie in dieser Zeit alle Anfragen zuverlässig schnell ablaufen. Niemand wird so deppert sein und den Server gegen die Leerlauflast von 22 bs 18Uhr des Folgetages auszulegen.
 
Zurück
Oben