Test Test: ATi Radeon HD 4870 X2

Finde auch dass man die Dual-GPU-Karten nicht mit ner Single-GPU-Karte vergleichen kann, genausu wenig wie diesen Crossfire und SLI-Quatsch, Mikroruckler?, nein Danke, ausserdem ist der Verbrauch für die leistung viel zu hoch und steht zu keinem Verhältnis dazu!:D

Zur Karte: power ohne ende, 280W aufnahme is auch nicht ohne, aber mein got das in ne HIGH-END GRAKA, da guckt niemand auf den stromverbrauch.
Da kann nv vorerst einpacken

Power ohne Ende? wtf, sag ich nur dazu, villeicht haste dann ne Stromrechnung ohne Ende!:p

Solange die keine Single->GPU-Karte bringen die NV übertrumpft, hat NV die Nase vorn!

Sorry, aber seit zwei Jahren versucht ATI krampfhaft NV paroli zu bieten mit ihren Dual-Schrott-Lösungen, langsam wirds lächerlich! Die sollten mehr in die Entwicklung der Single-GPU investieren!;)

mit 60 fps läuft auch die 4870x2 flüssig, Zitat anfang "Zwar fällt es mit der Radeon HD 4870 X2 schwer in FPS-Bereiche (etwa 25 FPS, variabel von Spiel zu Spiel) vorzudringen" Zitat ende

das geht bei Crysis aber mal ganz schnell, selbst in niedrigen Auflösungen! Diese Aussage hat für mich keinen Boden!

Zitat: hoher Stromverbrauch, Mikroruckler, extrem laut, ertrem heiss!:lol:
 
Zuletzt bearbeitet:
Genau die Leistung, die wir erwartet haben. :D

Zur Temperatur, ich würd ja ein paar VF-900 von Zalman draufbauen!:cool_alt:

Gruß
 
Bandaleros schrieb:
so weit ich weis und ich es auch sehen kann, ist es doch so: um so höher die auflösung um so weniger fallen die qualitäts einstellungen auf (man nimmt sie nicht mehr so wahr wie in niedrigeren einstellungen), lass mich auch gerne eines besseren belehren.

mit 60 fps läuft auch die 4870x2 flüssig, Zitat anfang "Zwar fällt es mit der Radeon HD 4870 X2 schwer in FPS-Bereiche (etwa 25 FPS, variabel von Spiel zu Spiel) vorzudringen" Zitat ende

Da muss ich auch nochwas zu schreiben, Unyu ist aber wahrscheinlich schneller ...
Dass die Qualitätseinstellungen nicht so sehr auffallen gilt nur unter der Annahme, dass der Bildschirm mit der höheren Auflösung genauso groß ist wie der mit der niedrigeren ...

Und das mit den 60FPS und flüssig ist auch so ne Sache ... jeder empfindet das mit den Mikrorucklern anders, andere merkens eben nie, andere selbst bei 60fps oder mehr; es ist schön für die, die es nicht merken, aber denen, die es merken kannst du ja nicht einfach sagen "Aber das müsste doch flüssig sein, ich seh das doch so!".

Man sollte außerdem die min-fps niemals vernachlässigen. Die sind bei der ganzen CF/SLI Geschichte meist um einiges niedriger angesiedelt und dann kommt es eben auch bei Spielen, die Average 60FPS haben vor, dass die FPS auf 10 sinken, und 2 Sekunden später auf 100 steigen ... ist toll für nen Balkendiagramm der Average FPS, aber man erlebt das Spiel ja nicht als Average Zusammenfassung, sondern live, mit allen Höhen und Tiefen, was dann eben gewaltig nervt, wenn man mit ner Single GPU Average 40 hätte und min. 25 und max. 60 (nur als Beispiel) ...
 
Sn4ke schrieb:
Schonmal daran gedacht, dass zukünftige Games noch mehr an Hardware fordern und sollte dann die Leistung zu schwach sein, dass diese Microruckler erst recht nervig werden? Ausserdem werden die FPS garantiert nicht linear ablaufen wie CB beschreibt, d.h. mal werden 30 vorkommen und mal 90 schnitt 60... und bei den 30ern sieht man somit das Microruckeln!? (z.b. Crysis :))

Von daher schlage ich lieber zuner 280gtx ;) bzw. warte auf eine angekündigte Antwort (290gtx?^^) :)

Gruß,
öhm und du glaubst, dass eine der derzeitigen "ein-gpu-karten" an der stelle, an der die x2 in den bereich von microrucklern kommt, noch flüssig läuft (mit flüssig laufen meine ich sogar, dass der frame-aufbau der einzelnen bilder, die zusammen die slideshow ergeben, immer den gleichen zeitabstand haben)?
und auf eine gtx290 (?) würde ich ehrlich gesagt auch nicht warten, die dürfte wahrscheinlich sowas wie eine 9800gtx+ werden -> die shrink -> weniger hitze -> entsprechend etwas hochgetaktet -> eigentlich kein echter mehrwert für all jene, die wissen wie sie eine grafikkarte übertakten müssen -> anstelle von beispielsweise 20 fps werden es dann bombastische 23 bis 25fps -> na suuuuuuuper...
die runde ging an ati, solange nvidia es nicht schaffen sollte, eine gtx280 / gtx260 / gtx2x0 x2 auf den markt zu werfen. und dann hättest du die gleichen probleme, wie sie derzeit bei der 4870 bemängelt werden (microruckler, hitze, leistungsaufnahme), allerdings zu einem höheren preis (trotz des shrinks, denn ich behaupte mal, dass amd bei der karte auch noch den preis ordentlich drücken kann, aber wohl leider vorerst nicht wird.
 
Sorry, aber seit zwei Jahren versucht ATI krampfhaft NV paroli zu bieten mit ihren Dual-Schrott-Lösungen

Du musst ein sehr gestörtes Zeitempfinden haben wenn weniger als 8 Monate für dich 2 jahre sind.


@ topic : das größte Manko ist wohl die Lautstärke. Der idleverbrauch ist ok und unter Last brauchte man nix anderes erwarten.

Die Preis/Leistung ist aber wohl phänomenal.

Noch NIE gabs die schnellste Grafikkarte der Welt, die zudem 50% oder mehr vor der zweitschnellsten liegt, für so wenig Geld.

Man denke z.b. daran das Anno 2006 selbst eine sehr beschnittene 8800gts 640mb so viel gekostet hat.


jeder empfindet das mit den Mikrorucklern anders, andere merkens eben nie, andere selbst bei 60fps oder mehr

Und wiederum andere werden nie realisieren das die Mikroruckler je nach Spiel ab einer gewissen FPS Grenze garnicht mehr existieren.
 
Zuletzt bearbeitet:
Übersoldier75 schrieb:
Sorry, aber seit zwei Jahren versucht ATI krampfhaft NV paroli zu bieten mit ihren Dual-Schrott-Lösungen, langsam wirds lächerlich! Die sollten mehr in die Entwicklung der Single-GPU investieren!;)
Wem ist hier aufgefallen, das die HD4870X2 schneller ist als die Nvidia 3-Way-SLI Lösung von Nvidia? Billiger ist die HD4870X2 und weniger Stromverbrauch auch. Was wollt ihr eigendlich? Zuminderst in der Preisgestaltung und der Stromaufnahme ist Nvidia auch nicht die Krone der Schöpfung.

Ach...mist. Die SLI/Tripple gedöns von Nvidia hat ja kein Microruckelproblem...:freak:
 
Zuletzt bearbeitet:
Wenigstens hören jetzt die Diskussionen um die Microruckler auf. Sie sind noch da und damit ist die Karte uninteressant - so ein Stück Hardware will man schon 2 Jahre haben. Und wenn es jetzt schon in Crysis microruckelt...
 
@Bandaleros
Die Auflösung ist konstant, zumindest bei vielen dank TFT.
Qualitätseinstellungen warten darauf etwas nach oben bewegt zu werden oder wo ist sonst der Sinn von mehr Leistung?
Wer den Unterschied der Bildqualität nicht sieht, der braucht keine 440€ Karte. ;)
.... Rest siehe Mahagon Coral


@Realsmasher
"Last Verbrauch ok" - Wobei es gerade mal UT3 ist, kein FurMark, wo kein CF läuft.
"50%" - Das ist doch so eine Frage, sie kostet 33% mehr, aber was bringt sie dafür? Balken sind ja eindeutig nicht vergleichbar.
Und es gibt genug Spiele, wo CF nicht läuft (hier Extremfall Gothic 3), da ist die GTX 280 wieder schneller.
 
Zuletzt bearbeitet:
Du musst ein sehr gestörtes Zeitempfinden haben wenn weniger als 8 Monate für dich 2 jahre sind.

es gab schon zu X1xxx-Ati-Karten wo man zwei GPUs verbaut hatte, ausserdem gab es schon ne Rage3D oder wie die hiess mit zwei GPUs, ich meinte auch damit die Entwicklungszeit, sowas wird ja nicht an einem Tag entwickelt!
 
Die 2xRV770 Karte ist noch immer ein"-Steckplatz" Karte. Da die GTX280-GX2 nicht erhältlich ist muss man die Karte ja mit der single GT200 vergleichen oder dem preislich näheren GT260SLI. Eine GTX280SLI Konfiguration fällt da preislich weit aus dem Rahmen.

Nein eben nicht. Wenn ich HIGH-END Karten vergleiche, kann ich nicht einfach das Top-Modell eines anderen Herstellers weglassen. Das wäre so wie wenn ich das "schnellste" Auto proklamiere (hier aber ganz heimlich einen Preisrahmen von 10.000€ festlege). Klar kann dann ein Porsche hier nicht gewinnen. Abgesehen davon dass ja nicht mal klar ist ob die GTX 280 schneller gewesen wäre. Sie wurde aber einfach nicht gewertet.

Irgendwie hats keinen gestört das man bei erscheinen die HD3870X2 mit der damals schnellsten G80 alias 8800Ultra vergleichen hat. Aber jetzt störts auf einmal...

Klar hats nicht gestört, weil nicht mal die 3870er Karte allein auch nur ansatzweise eine Konkurrenz war. Die X2 aber mit den selben Hindernissen zu kämpfen hatte. Da wäre eigentlich immer die Single-GPU Lösung erste Wahl. Man weiß eben nie wie die Spiele im CF/SLI skalieren oder ob es überhaupt sauber unterstützt wird.

es ist und bleibt einfach mal EINE Karte. Die selbe komische Argumentation machst du doch auch nicht bei CPU's oder doch?

Nur dass der Leistungszuwachs in Spielen die CF/SLI unterstützen bei Multi-GPU Lösungen deutlich größer sind als beispielsweise die Unterschiede zwischen Dual-Core und Quad-Core. Häufig sind hier die Quads sogar langsamer, weil eben keine wirkliche Unterstützung dafür da ist. War also ein schlechtes Beispiel, merkste selbst oder?

Leute lasst euch nicht verarschen, wer braucht schon SLI/GX2/CF/x2 karten? Kein mensch^^

Oh doch. Wenn man tatsächlich auf einem Monitor der größe 24" oder größer Spielen möchte, braucht man teilweise schon solche brachialen Leistungen um die nativen Auflösungen überhaupt hinzubekommen. Und vielleicht will der ein oder andere Enthusiast auch noch ein bisschen geglättete Kanten.
 
Also nee Leute, bei den heutigen Energiepreisen kommt mir sowas nicht in den Rechner. Die Leistung ist top und über jeden Zweifel erhaben, aber liebe Hersteller, zu welchem Strompreis. Und baut endlich mal ordentliche Lüfter für eure Grafikkarten. Wer will den eine Flugzeugturbine im leisen Rechner haben.

Wie gesagt, fortschrittlich in Technik aber mittelalterlich im Verbrauch und bei der Lautstärke. Wieso kann man nicht die perfekte Karte bauen?!:rolleyes:
 
Sehr schöner Test. Vor allem toll dass ihr die Mikroruckler so ausführlich getestet habt.
Trotzdem etwas komisch dass ihr kein 280 SLI Gespann benutzt habt?

Für mich wäre sie wirklich eine tolle Karte und ich würde sie mir auch auch kaufen, wenn da nur nicht die Mikroruckler wären. Ich habe diese mal selbst erlebt und habe fast die Kretze bekommen weil es so extrem ablenkend war. Bei RTS und RPGs nicht so schlimm, aber vor allem bei Online-FPS wo man in einem Wettbewerb ist, ist das mehr als genug um mich aus dem Rhythmus zu bringen, selbst wenn es nur mal für 2 secs ist, da man wenn man es einmal erlebt hat die ganze Zeit mit der Angst lebt dass es gleich wieder kommt. Da ich oft an der Spitze der Tabellen spiele, ist das für mich sehr schlimm, da ich alleine deswegen schon enorm abfalle.

Die Lautstärke ist zwar auch schlimm, sollte aber einigermassen unter Kontrolle zu bringen sein mit einem ordentlich gedämmten Gehäuse.
 
auch wenn es nur reine spekulation ist: wäre es vielleicht möglich das Powerplay doch nicht funktioniert und AMD einfach den 1 Grafikchip abschaltet (PowerXpress oder wie es sich bei AMD nennt)... war nur grad so ne Idee!

Könnte CB nicht mal prüfen inwiefern sich die Karte herunter taktet?

Zur Leistung: war zu erwarten!
Auch wenn ich weniger von ATI Grafikkarten (und deren Treibern) begeistert bin zieh ich vor der Leistung meinen Hut! Ob es nun durch 1, 2 oder 128 Chips auf dem PCB erreicht wird spielt doch dabei keine Rolle. (um mal wieder so ein Computer <> Auto vergleich zu bringen: es ist doch egal ob ich mit nem großen V8 oder nem V12 300km/h fahre... )
Für mich persönlich steht sie auf jedenfall nicht zur Debatte, schon allein wegen der Temperatur, der Lautstärke und dem Stromverbrauch. Gut, gegen die ersten 2 Dinge lässt sich sicherlich was machen. Es gibt da wunderbar günstige Wasserkühler!

Kann jemand @CB mal prüfen ob die Bohrlöcher bei der x2 die gleichen abstände haben wie bei ner einzelnen 4870?! Bitte ;)
Auch wenn ich davon ausgehe dass es die gleichen Abstände sind...
 
Zuletzt bearbeitet:
@ Mahagon Coral

danke für die erklärung :)

ich habe einen 22 und da spiele ich immer in der 1680x1050 auflösung. da denke ich mal, ist mit der karte alles super ;) und werde auch keine einbrüche merken, weil die karte da zu viel leistung hat.

natürlich kommt es auf den benutzer an, der gerade spielt, aber ich denke nicht das es so extrem(von 10 fps auf 100 fps innerhalb von bruchteilen einer sekunde) sein wird wie du es gerade beschrieben hast, aber jeder empfindet das anders.

man sollte auch nicht immer gleich den teufel an die wand malen, werde es mir überlegen die karte zu kaufen, da ich in meiner auflösung keine probleme erkenn kann und für die zukunft auch nicht, vllt. wird es aber auch nur eine normale 4870. mal schauen wie sich die preise entwickeln ;)

@Unyu

wie schon gesagt in meiner auflösung (hier die getestete) "Rating – 1600x1200 8xAA/16xAF" habe ich auch mit den qualitäts einstellungen keine probleme. es muss doch jeder für sich entscheiden was er will und was er brauch. man kann auf ein wenig leistung verzichenten (ob jetzt 50 oder 40 fsp ist dann auch egal) und anstatt eine gtx 280 eine ati 4870 oder eine gtx 260 nehmen, aber dann kommt wieder das argument mit der leistung und die habe ich auch mit dieser karte, sogar mehr, mit den bekannten nachteilen. ich verstehe aber euren standpunkt.
 
Zuletzt bearbeitet:
Schöner Test.

Somit wirds dann doch ne 280er, sobald die ATI 4870x2 aufem Markt erhältlich ist, wird sie bestimmt Nvidia nochmals zu Preissenkungen antreiben. Somit dürfte dann auch die GTX-280er ein richtig feines Schnäppchen werden ;)
 
http://ht4u.net/reviews/2008/sapphire_radeon_hd_4870_x2/index7.php

"Interessant war aber auch der Umstand, dass das Kühlblech, unmittelbar oberhalb des Covers, innerhalb kürzester Zeit nach dem Start schon sehr heiß wurde (deutlich über 60°C), und dass ohne Lastbetrieb. Nach Last war dieses Kühlblech in Spitzenbereichen knapp unter 80°C.
Wir möchten uns nicht vorstellen, zu was dieses Produkt an einem wirklich heißen Sommertag in geschlossenem Gehäuse im Stande ist, sei es im Bereich Temperaturen oder der damit in Hand gehenden Lüfterlautstärke, welche ohnehin auch auf dem offenen Teststand nicht von schlechten Eltern war.

Unter Company of Heroes erlebten wir einen weiteren Spitzenwert von runden 2700 UpM und unter Bioshock zeigte sich die neue X2 als wahre Heulboje mit knapp 3000 UpM
." :rolleyes::
 
Für Leute mit nem 30" ist die trotzdem schick^^ so wie Hillbert von guru3d, deswegen hat er wohl die Lautstärke verdrängt und als akzeptabel bewertet :)
 
WTF? warum wurden denn die alten Catalyst 8.6 Treiber verwendest??? hab ich mich schlichtweg verlesen oder waren da doch die 8.7 repektive 8.8beta am werk? Wie wir wissen beingt der 8.8 ja nen bösen Leistungsschub...


aber gut: Monsterkarte :) mit recht gutem P/L... nur ein Kühler von AC sollte noch drauf ;)
 
@die ganzen Spinner, die den PCGH Test als unseriös/unglaubwürdig hingestellt haben.

Jetzt zufrieden, spiegelt ja im Großen und Ganzen den Test in der PCGH wieder.

War auch eine absolute Frechheit die PCGH so zu diffamieren
 
Auch von mir vielen Dank für den sehr professionellen Test.
 
  • Gefällt mir
Reaktionen: Vollkorn
Zurück
Oben