News Galaxy bringt GeForce GTX 285 mit 2.048 MB

Wolfgang

Redakteur
Teammitglied
Registriert
Nov. 2002
Beiträge
8.722
Nachdem Nvidia es nun den Boardpartnern erlaubt hat, eigene Designs für die GeForce GTX 260 sowie die GeForce GTX 285 anzufertigen, schießen diverse Adaptionen von beinahe allen Unternehmen aus den Erdboden. Ob anderes Platinenlayout, anderer Speicherausbau oder ein anderer Kühler – alles ist dabei.

Zur News: Galaxy bringt GeForce GTX 285 mit 2.048 MB
 
Ja und? Wer brauch das? Nur die, die auch SLI haben wollen. Für jemanden der nur eine Grafikkarte haben möchte ist das mehr als uninteressant. Tausend mal schon geschrieben und schon tausend mal hier im Forum diskutiert worden. Nur weil ein anderer Hersteller jetzt so eine Marketing Strategie fährt? Vor ca. 2 Wochen ist sowas schon gewesen von einem anderen Hersteller.

Bringen wir jetzt jeden Hersteller der sowas macht als Neuigkeit?
 
Mister79 schrieb:
Ja und? Wer brauch das? Nur die, die auch SLI haben wollen. Für jemanden der nur eine Grafikkarte haben möchte ist das mehr als uninteressant. Tausend mal schon geschrieben und schon tausend mal hier im Forum diskutiert worden. Nur weil ein anderer Hersteller jetzt so eine Marketing Strategie fährt? Vor ca. 2 Wochen ist sowas schon gewesen von einem anderen Hersteller.

Bringen wir jetzt jeden Hersteller der sowas macht als Neuigkeit?

Es gab schon hunderte news mit solchem Inhalt - was stört dich dran? Für manche ists ja interessant...

Wenn jemand die Leistung nicht braucht, oder der Preis zu hoch ist dann wird er sich die Karte auch nicht kaufen.
 
Ja eben Neon

für SLI ganz gut ja aber wenn es um Zukunft geht und es wirklich mal soweit kommen sollte das SLI standart ist dann ist eine 285 so out das sich kaum noch jemand hier erinnern kann das es so eine Karte mal gab. 2GB für single Karten ist einfach nur Schwachsinn und hat was mit Marketing zu tun
 
Es wurde schon in einigen Threads beschrieben und bewiesen, dass 2GB für die GTX285 eben kein schwachsinn sind. Es gibt genug Spiele die mit den richtigen Einstellungen locker über 1GB Vram verbrauchen.
Klar 1.5GB würden es wohl auch tun, aber das ist nunmal nicht so einfach möglich.

Man denke einfach nur an die HD4870 bei der hat Anfangs auch jeder die 1GB-Version belächelt und mitlerweile wollen viele ihre 512MB-Karte loswerden und die HD4870 mit 1GB haben.
 
als die 5xxx raus kam gab es viel spott bezuglich der wärmeabfuhr und lautstärke. unter anderem gab's ein photoshop-gag, wo die ganze karte mit lüftern überseht wurde. es sind fünf jahre verstrichen und sieh da, so was ist schon normal und keiner lacht=))
 
@ NeoN, .coff

So gesehen muss/nein, gebe ich Dir Recht. Trotzdem bleibt es für SLI sicher sehr interessant und Sinnvoll. Aber als Einzelkarte??? Naja muss jeder selbst wissen. Hatte auch mal den GEdanken gehabt und mir ein SLI gebaut. Da wurden zwei 8800 GTX verbaut. Naja den Sinn hab ich hinter nie gefunden, ausser das ich ein Wochenende nicht raus konnte da ich kein GEld mehr hatte.Ich denke SLI wird kommen für jedermann aber wir sind noch weit davon weg.
 
Meine Meinung. Sobald die zu haben sind - und das erschwinglich - werde ich mir zwei bis drei (eher zwei) davon holen.
Hersteller und Design sind mir egal. :evillol:
 
Was ist denn bitteschöne eine "digitale Stromversorgung"? Worin unterscheidet sich diese von der "6-Phasen-Analog-Stromversorgung"
Was eine 6-Phasen-Analog-Stromversorgung ist und wie diese arbeitet ist mir bekannt.
 
naja für schwachsinn halte ich das nun auch nicht gerade - würde mich freuen bei GTA4 mal ein paar Detais mehr zu sehen :p. Irgendwann steig ich dann vllt von nem 27" 1920x1200 auf einen schiken 30" um --> bei voller Auflösung wird da auch wieder ordentlich VRAM verbraten.
 
Wenn ich mir den Stromverbrauch bloß leisten könnte :D
 
@beckenrandschwi

ein Vorteil der Digitalen Spannungsversorgung ist, das die ganzen geeks ihre Graka dann ohne Löt- und Graphitspielereien mit mehr bzw. weniger Spannung versorgen können --> man bekommt die Karte so unter Umständen vllt. noch etwas sparsamer im Idle und kann unter Last dann noch etwas mehr Saft draufgeben - das ganze dann recht unkompliziert.

@ch33rio
hmm ja - Stromverbracuh - im Idle wird man den kaum bemerken (im vergleich zu deiner 9600er und im Vergleich zu ATI ist der Idleverbrauch eh geringer); da sind die GTX2XX Karten recht sparsam und wie gesagt mit der Digi. Sannungsversorgung könnte man da vllt. auch noch etwas am Verbrauch drehen. Unter Last wird es dann heftig^^ aber die meiste Zeit am Rechner befindet sich die GraKa eh im idle es sei dann man ist dauerzogger bzw. CUDA User ;).
 
NeoN

Du scheinst dich damit ja wirklich gut auszukennen. Kannst du bitte alles einmal zusammenfassen? Aber bitte so das auch ich das verstehe. Ich habe in diesem Gebiet ein Halbwissen welches ich mir hier zusammengelesen habe. Das wäre wirklich nett von Dir..
 
@<NeoN>
ääh ja genau - daher brauchst du alleine für den Desktop in höherer Auflösung mehr Speicher - logo spielen Texturen bei Games eine große Rolle - genau so wie AA und die Auflösung...
 
@Mister79: Ich kann das nicht so zusammenfassen, dazu bin ich auch nicht bewandert genug.
Frag mal lieber y33H@ oder HisN ob sie nicht einen Bericht dazu schreiben wollen, ich denke das interessiert mehrere Leute.

@HuggyBearlin: Dann rate ich auch dir mal die von mit in Post #9 verlinkten Threads zu lesen und dabei auf die Posts von HisN und y33H@ zu achten...
Das Gerücht, dass die Auflösung viel mit dem Vram zu tun hat hält sich leider schon ziemlich lange. Klar spielen Filter und Auflösung eine wichtige Rolle, aber die Texturgröße ist bei weitem wichtiger.
GTA 4 z.B. intressiert es kaum ob man ind 1024x768 oder 1680x1050 spielt, die Texturgröße hingegen macht einen fetten Unterschied aus.

Es ist z.b. in COH nämlich ziemlich egal ob man 800x600 oder 2560x1600 betreibt, bei vielen Maps geht die VRAM-Usage über 1GB. Es hängt nämlich hauptsächlich von der Anzahl und der Qualität der verwendeten Texturen ab. Ob nun eine Textur auf ein Dreieck das 2560x1600 oder nur 4x4 Pixel groß ist gezogen wird ist mit verlaub: Nebensächlich. Da die komplette Textur dafür in beiden Fällen im Speicher gehalten werden muss.
 
Zuletzt bearbeitet:
Zurück
Oben