News GDDR7 jetzt JEDEC-Standard: Neuer Grafikspeicher mit bis zu 48 Gbit/s verabschiedet

SirKhan schrieb:
Abseits von Spielen: AI
Bei Spielen brauchst du das (noch) nicht. AI lass ich gelten und jetzt wissen wir auch, warum die gar nicht wollen das Consumer GPUs "zu viel" Speicher bekommen. Was genau ist Sora? Und was frisst LLM? Um so mehr umso besser? Oder gibts da ein vernünftiges Verhäntis?

 
Zuletzt bearbeitet:
@SirKhan Ist es denn für den Desktop angekündigt? Bzw, wie leitest du den potenziellen Speicher bedarf ab? Gibt es den irgendwelche AI Desktop produkte, wovon man jetzt schon ableiten kann, die laufen auf einer RTX 6000 ADA deutlich schneller als auf 4090, und zwar aufgrund des Speichers, und nicht weil die consumenten GPU auf andere art und weise Kastriert ist? Oder ist das alles nur spekuklation, abgeleitet von den Industrielösungen?
 
Zer0DEV schrieb:
Statt mehr Durchsatz sollte sich die Industrie endlich mal mit deutlich mehr Effizienz beschäftigen.
Mit dem Wechsel zwischen NRZ / PAM 2 und PAM3 je nach Lastszenario geht es schon durchaus in diese Richtung. Das ist kein reiner Haudraufspeicher, wie bei GDDR5X und GDDR6X.
 
Bullet Tooth schrieb:
Ich sehe keinen Sinn darin, auch für den letzten Honk mit seiner 8GB Super duper Graka die Kompresionen hochzufahren damit er das auch spielen kann. Besser alle haben 16GB und mehr und dann entfallen viele unschönen Sachen wie flimmernde Texturen.
Das wäre wirklich dämlich, dass alle Geld rauswerfen müssen, um 16GB+ zu kaufen, was einfach eine riesen Verschwendung wäre. Wer halt eine 4 GB oder 8GB Karte hat, der nimmt halt niedrigere Einstellungen, wo die Texturen dann in halber oder Viertel Auflösung gefahren werden, selbst wenn der Entwickler das Geld für Texturkompression sparen möchte. Fertig.

Du hast deinen eigenen Gedanken nicht zu Ende gedacht. Wenn man auf Texturkompression verzichtet, dann reichen bei entsprechend aufwändigen Spielen auch die 48 GB irgendwann nicht mehr. Die Spirale dreht sich immer weiter. Und wenn nur Spieleenthusiasten mit 48GB Karten dann die Spiele kaufen und spielen, gräbst du auch dem Spiele-Markt das Wasser ab. Dann hat man super teure Karten gekauft, für die dann kaum noch einer was entwickelt. Texturkompression ist nichts neues und wenn man es richtig macht, flimmert da auch keine Textur. Es gibt keinen Grund, darauf zu verzichten. Es vergrößert den Markt für da eigenen Produkt / Spiel, spart auf Käuferseite Geld bei der Hardwareausrüstung (VRAM und Storage) und verringert die Menge an zu ladenden Daten (Performancefaktor).
 
  • Gefällt mir
Reaktionen: CyrionX und Darken00
@lynx007 Das von OpenAI sicher nicht. Das ist natürlich spekuliert. Ich bin mir aber sicher, dass es über kurz oder lang ähnliche Lösungen geben wird, wie ja auch für statische Bilder und Chat schon passiert.

Definitiv brauchen höhere Auflösungen mehr VRAM. Ich bekomme mit meinen 16 GB bei zu hohen Auflösungen in Stable Diffusion UI VRAM-Fehler, mit ComfyUI geht es aber wird sehr langsam (lagert vermutlich in den anderen RAM aus bzw kachelt bei VAE was es explizit ausgibt wegen zu wenig VRAM).

Große LLMs brauchen auch wesentlich mehr Speicher (und werden damit leistungsfähiger).

Für Videos habe ich spekuliert, aber ich finde es naheliegend, dass auch hier VRAM hilft da dann entweder längere Vergangenheiten im RAM gehalten werden können (für besseres temporales Verhalten) oder eben größere Auflösungen erstellt werden können.

Wenn man also mit AI spielt, ist mehr VRAM immer gut.
 
  • Gefällt mir
Reaktionen: lynx007
Skysurfa schrieb:
AMD wird aber, wenn die neue Generation dieses Jahr noch kommt, nicht auf GDDR7 setzen. Das wird zeitlich nicht mehr passen.
Mag gut sein aber dann eher wie man nur Mid- und Low-Range anbietet und GDDR6 da ausreicht und günstiger ist.

Ist ja nicht so dass AMD nicht lange vorher involviert war und Muster hatte. Wenn der Standard verabschiedet und hier berichtet wird ist im Hintergrund ja schon vieles über Jahre gelaufen.
 
Bullet Tooth schrieb:
Ich sehe keinen Sinn darin, auch für den letzten Honk mit seiner 8GB Super duper Graka die Kompresionen hochzufahren damit er das auch spielen kann. Besser alle haben 16GB und mehr und dann entfallen viele unschönen Sachen wie flimmernde Texturen.
Alter Schwede, weißt du, wann S3TC eingeführt wurde?
 
Endlich! Endlich wird es wieder interessant.
Neuer Grafikspeicher und kleinere Fertigungsverfahren lassen mich hoffen, dass mein 550 Watt Netzteil mir erhalten bleibt. Gekonnt die stromhungrige 3000er & 4000er Nvidia Series übersprungen und viel Geld gespart (sowohl bei der Anschaffung als auch im Unterhalt).

Mein Ziel ist eine RTX 5070 zum Release von GTA 6. Yeah!
 
T_Mir schrieb:
Vielleicht bin ich gerade ein wenig zu aufgeregt, aber diese Empathielosigkeit ist erschreckend.
Bist du glaube ich wirklich, wer etwas haben möchte, einfach nur weil es möglich ist (also nicht mal echten Bedarf daran hat), muss nicht bemitleidet werden, falls er es sich nicht leisten kann. Die vorgeschlagene A6000 ist ja nun auch wirklich keine Grafikkarte für den Heimbedarf, sondern eindeutig ein Profisystem. Man kann da Nvidia nun sicherlich "Gier" vorwerfen, aber diese Karte hat durchaus ihren Wert.
 
>_< schrieb:
Endlich! Endlich wird es wieder interessant.
Neuer Grafikspeicher und kleinere Fertigungsverfahren lassen mich hoffen, dass mein 550 Watt Netzteil mir erhalten bleibt. Gekonnt die stromhungrige 3000er & 4000er Nvidia Series übersprungen und viel Geld gespart (sowohl bei der Anschaffung als auch im Unterhalt).

Mein Ziel ist eine RTX 5070 zum Release von GTA 6. Yeah!
Dir ist aber schon klar, dass die RTX 3000er und 4000er effizienter sind als alle Chips davor, oder?

Wenn dir eine RTX 4080 z. B. zu stromhungrig ist, dann wärest du gut damit beraten, diese einfach ein wenig zu limitieren, z. B. durch Undervolting, niedrigere Powerlimits, verringerte Taktraten oder ähnliches. Nur die Leistung pro Watt ist bei der RTX 4080 weitaus besser als bei jeder RTX 2000er oder bei den noch älteren GPU's.
 
Ich hätte mal eine Frage bezüglich der Bandbreite bzw. Transfergeschwindigkeit:
Man liest ja überall bis zu 37 GBit/s also meinem Verständnis nach Gigbabit pro Sekunde.
An anderer Stelle wird wieder von GB/s und TB/s gesprochen, also wären dass dann Gigabyte und Terabyte pro Sekunde, oder?
Auch dachte ich immer GDDR Videoram wäre extrem schnell, aber wenn es sich hier um Gigabit pro Sekunde handeln sollte, wäre der Datendurchsatz ja selbst bei aktuellem GDDR6X gerade mal bei "mickrigen" 2,625 Gigabyte/s, was quasi jede aktuelle SSD schaffen würde.
Ich weiß dass die Latzenzen und auch andere Sachen klar zu gunsten von GDDR gehen, aber ich bin fälschlicherweise davon ausgegangen dass es sich bei Grafikkarten immer um Gigabyte pro Sekunde Angaben handelt. Oder sehe ich gerade einfach den Wald vor lauter Bäumen nicht mehr?
 
@Benjamin_Blume
Du musst schauen, ob da b oder B steht. Ist es b, dann sind üblicherweise Bits gemeint. Bei B sind es Bytes.
Die Geschwindigkeitsangaben gelten für gewöhnlich für einen Chip. Die Grafikkarten haben aber mehrere dieser Chips auf der Platine. Da addieren sich im Prinzip die Geschwindigkeiten, da man mehrere Chips gleichzeitig ansprechen kann.

Nvidia plant für z. B. für die nächsten Grafikkarten 128 GB/s (Gigabytes/s) an Durchsatz. Bei 32 Gb/s (Gigabits/s) pro Chip sind das 256 Speicher-Chips. Ich nehme an, die werden gestapelt?
 
  • Gefällt mir
Reaktionen: Benjamin_Blume
Triky313 schrieb:
NVIDIA wird uns trotzdem wieder nur 8 bis 24GB geben.
Hätte gern mal eine Karte mit 48 oder sowas, einfach weil es möglich ist.
Wie kommst du jetzt bei der Meldung auf 48Gb RAM? In der Meldung geht es doch um 48 Gbit Durchsatz.
 
Das interessanteste dürfte wohl sein, dass die JEDEC GDDR7-Speicher in Größen von 2, 3, 4, 6 und 8 GByte pro Speicherchip spezifiziert - könnte einige Problemchen der Vergangenheit umschiffen...
 
Krik schrieb:
Nvidia plant für z. B. für die nächsten Grafikkarten 128 GB/s (Gigabytes/s) an Durchsatz. Bei 32 Gb/s (Gigabits/s) pro Chip sind das 256 Speicher-Chips. Ich nehme an, die werden gestapelt?
Die werden nicht gestapelt, denn du übersiehst einen Rechenschritt: Die Angabe 32Gb/s bezieht sich auf einen Pin. Jeder Chip hat 32 Pins (=32 bit Busbreite). Man kommt dann also mit 8 Chips auf die nötigen 256bit Busbreite, um die angegebene Geschwindigkeit zu erreichen.
 
  • Gefällt mir
Reaktionen: Benjamin_Blume und Krik
Pro Pin!?! TF? Ich habe echt unterschätzt, wie weit die Technik ist.
 
Matthias B. V. schrieb:
Gibt ja auch bisschen Anwendungen als nur Spiele...

Zumal Raytracing etc. und 8K irgendwann doch die 24Gb knacken. Denke selbst jetzt sind in QHD 8-12Gb grenzwertig bzw. zu wenig wenn man alles auf Max. stellen will.

[...]
Dafür gibt es ja auch extra Karten (Quadro/Radeon Pro) die genug VRAM mitbringen, wenn es um Anwendungen geht. Welchen nutzen hätte 8K zum Spiele spielen? Genauso sinnlos wie ein 8k Fernseher.
 
Nur kosten die ein bisschen mehr und nicht jeder der mehr VRAM braucht benötigt zertifizierte Treiber etc.

Und ja es wird auch Leute geben die in 8K spielen wollen. So wie man damals von QHD auf 4K gewechselt hat.
 
  • Gefällt mir
Reaktionen: T_Mir
stefan92x schrieb:
Man kann da Nvidia nun sicherlich "Gier" vorwerfen, aber diese Karte hat durchaus ihren Wert.
Mir ging es tatsächlich nicht um die Preise der Workstation Karten sondern, dass man durch Nvidias VRAM Geknausere dazu genötigt wird, zu teureren Modellen/Professionell zu greifen, obwohl eine normale RTX Karte ohne Treiber Zertifizierung etc ausreichend gewesen wäre. Und wenn dann schon so doppelmoralisch argumentiert wird, man kaufe Nvidia um Strom zu sparen, was ja der Umwelt angeblich gut tut, aber bei jeder Möglichkeit aufrüstet, weil es doch auf einmal nicht mehr reicht, kann ich das wirklich nicht mehr hören.
 
Zurück
Oben