News GeForce RTX 3060 Ti: Bekannte Desktop-Grafikkarte erhält größeren Laptop-Chip

Vitche

Redakteur
Teammitglied
Registriert
Aug. 2016
Beiträge
3.185
  • Gefällt mir
Reaktionen: PietVanOwl, C4rp3di3m, DJMadMax und 5 andere
Moin,

Geht es nun um eine neue Variante der Mobile oder Desktop Version?
 
Beim Anblick des roten "Underfills", rund um den Chip, bekomme ich PTSD mäßige Flashbacks... Stichwort: Pavilion DV Serien :freak:
 
  • Gefällt mir
Reaktionen: DJMadMax
DiamondDog schrieb:
Geht es nun um eine neue Variante der Mobile oder Desktop Version?
Nvidia pflanzt die Notebook-GPU auf die Dekstop-Grafikkarte, der GA103-200 kommt auf die 3060 Ti.
 
  • Gefällt mir
Reaktionen: PietVanOwl, DJMadMax, aid0nex und 3 andere
Solange sich die Chips leistungsmäßig nichts nehmen, sehe ich darin kein Problem. Wie Nvidia die 3060Ti-Leistung erreicht, kann dem User egal sein. Im Zweifelsfall ist der Laptop-Chip etwas effizienter.
 
  • Gefällt mir
Reaktionen: lars1900 und DJMadMax
Hinweis:
  • In der Tabelle fehlt noch die 3080 12GB mit 8960 ALUS's
  • Und die RTX 3050 scheint es auch zusätzlich auf dem GA107 zu geben (Quelle)

Dann wird es bei der GA103-3060 Ti bestimmt auch Unterschiede in der TDP geben
Sollte man dann auch unterschiedlich bezeichnen, so blickt doch keiner mehr durch🙄
 
  • Gefällt mir
Reaktionen: DJMadMax
Bei Nvidias Grafikkarten mit Ampere-Architektur handelt es sich vermutlich um das unübersichtlichste Portfolio seit vielen Generationen.
Es gab mal eine Zeit, da habe ich das Names-Schema von Nvidia sehr geschätzt. Es war übersichtlich und komplett selbsterklärend. Ich hoffe das sie mit der 4000er Serie da wieder anschliessen.
 
Scheint zu den Meldungen das Samsung extrem schlechte Yield raten hat zu passen.
 
  • Gefällt mir
Reaktionen: bad_sign
Werden wohl mehr GA103 und weniger GA104 produziert haben als der (spaeteren) Nachfrage nach Laptop-3080 und 3060Ti entspricht.
 
Möglicherweise wirkt sich das auf die Hitzeentwicklung aus, ob positiv oder negativ müssen Vergleichstests zeigen.

Weiterhin könnte sich auch in den Frametimes was ändern, da ggf. längere Sinalwege sich negativ auswirken könnten. Auch hier wären Tests ideal.

Ansonsten, wenn es keinerlei Nachteile gibt, soll es mir wurscht sein, was da verbaut ist^^ Nur wirtschaftlich ist das in der Tat nicht... (außer, es gibt sehr viele große Chips mit vielen Fehlern)
 
Denke einfach, dass hier viel Abfall vorhanden ist, der unter normalen Umständen halt unter "Verschnitt" fallen würde, aber aufgrund der begrenzten Kapazitäten versucht NV hier jeden Chip irgendwie zu nutzen.
Solange sich keine Nachteile für den Kunden dafür ergeben soll es mir recht sein.
Vielleicht bleibt diese 3060 Ti auch nur dem asiatischen Markt vorbehalten.

Muss man bald wie früher bei den OC CPU`s genau auf die Produktbezeichnung achten und selektieren als Kunde :D .
 
  • Gefällt mir
Reaktionen: Icke-ffm
Humbertus schrieb:
Es gab mal eine Zeit, da habe ich das Names-Schema von Nvidia sehr geschätzt. Es war übersichtlich und komplett selbsterklärend.
Die GeForce 400er bis 700er Serien waren noch viel unübersichtlicher, ebenso die GeForce FX und die 6,7 und 8er-Serie ;-)
 
  • Gefällt mir
Reaktionen: NMA
Was ist eigentlich effizienter: grosser teildeaktivierte Chip oder kleiner im Vollausbau?

Wäre interessant einen Vergleich der drei Versionen zu sehen.
 
Die Laptopversionen waren in der Energieaufnahme den Desktopmodellen bisher um Welten voraus und boten dennoch gute Leistung. ich bin dezent gespannt ob da noch ein Test kommt.
 
@LOLO_85 Normal mehr Kerne, weniger Takt, weniger Spannung, so lange, bis die Kerne nicht mehr sinnvoll auslastbar sind.
Wichtig ist Spannung, die geht Quadratisch in den Verbrauch rein.
1V auf 1,2V sind 20% mehr Spannung, aber (1,2)² = 1,44 -> 44% mehr Verbrauch (vereinfacht)
 
  • Gefällt mir
Reaktionen: Cronos83 und Vitche
@bad_sign die GPUs sind ja alle auf die selben Anzahl Einheiten gekürzt. Somit wäre die Frage, ob der nicht verwendete Teil Strom braucht oder nicht und ob das auf die Effizienz etwas ausmacht.
 
Wer erinnert sich noch? Teildeaktivierte Karten die man freischalten konnte. War das ein Hype damals. Sonst ist es außerhalb der Fachforen egal welche Chipvariante für die Grafik sorgt, Hauptsache die Leistung stimmt. Es gibt oder gab aber leider schon genug Vorfälle von falschen oder zu stark beschnitten Grafikkarten.
 
LOLO_85 schrieb:
@bad_sign die GPUs sind ja alle auf die selben Anzahl Einheiten gekürzt. Somit wäre die Frage, ob der nicht verwendete Teil Strom braucht oder nicht und ob das auf die Effizienz etwas ausmacht.
Das müsste wohl ein Test zeigen, aber wenn die abgetrennt sind (fused off) sollte wirklich kein Strom durchfließen. Ob dann ein defekter Chip besser oder schlechter ist, als ein heiler.. da zählt wohl das individuelle Binning.
Aber wenn es schon Probleme bei der grundsätzlichen Funktionalität der Einheiten gibt, dann würde ich schätzen die liegen eher auf der linken Seite der Normalverteilung wenn rechts die hohe Effizienz ist:)
 
Balikon schrieb:
Im Zweifelsfall ist der Laptop-Chip etwas effizienter.

LOLO_85 schrieb:
Was ist eigentlich effizienter: grosser teildeaktivierte Chip oder kleiner im Vollausbau?
Also prinzipiell ist ein großer teildeaktivierter chip im nachteil, da man einmal meistens noch Bauteile mitschleppt die beim großen vollausbau notwendig waren, beim kleinen aber nicht mehr. Ggf. gibts auch mehr Störungen auf dem Chip da die gekappten Signalwege nicht so sauber sind wie solche ohne nachträglichem Schnitt, was dann leicht höhere Spannungen braucht.
Vor allem aber kommen die teildeaktivierten Chips doch üblicherweise aus dem Ausschuss des Vollausbaus. Zu viel kaputt, ungenügende Leistung, whatever. Die Chance dass die Transistoren dort von niedrigerer Qualität sind ist also höher.
Besser sein könnte der eigentlich nur wenn die Fertigung dem kleinen Chip deutlich überlegen ist und der Ausschuss vom großen besser ist als der voll funktionsfähige kleine.
 
Zurück
Oben