News AMD Instinct MI200: Multi-Chip-GPUs mit bis zu 47,9 TFLOPS, 128 GB und 560 W

stefan92x schrieb:
Liegt eher an den unterschiedlichen Anforderungen an die Synchronisierung zwischen den GPUs.

Mag sein, die Argumentation des von mir Zitierten ging aber eher in die Richtung, dass Nvidia sich nicht sicher ist ob die Technik reif genug ist und man sie deshalb nicht im Consumerbereich wohl aber im professionellen Sektor umsetzt.
 
Denniss schrieb:
Bitte nicht rumschwurbeln sonder so ne gewagte Aussage belegen
Schau dir die Vergangenheit an, basiert aus meinem bisherigen Erfahrungen.
 
GT200b schrieb:
das war mal, als Koduri noch im Hause AMD war, jetzt macht Intel(dank Koduri) schon gefühlte 3 Jahre Ankündigungen zu Intels neue Grafikkarten, aber bis heute kam überhaupt noch nichts…

Seit dem Koduri AMD verlassen hat, macht AMD enorme Sprünge bei der Grafiksparte ohne Hypertrain und heiße Luft…
Ich bin mir nicht sicher das Koduri da alleine Schuld hatte. Vieles was wir hier sehen hat unter ihm begonnen... Aber eventuell war er auch der Grund wieso es nicht so lief wie es hätte laufen müssen.
 
But... Can it run Folding@Home? 😬 Ich nehme gerne eine Karte im normalen Steckformat zum testen, von mir aus auch mit NDA 😍
 
Qarrr³ schrieb:
Meine Frage ist nun, warum lässt AMD nicht zu einem erhöhten Preis vorzeitig 5nm CPUs fertigen? Ryzen 9 zB die anderen bekommen halt die 7nm CPUs.
Wer soll denn das fertigen?
Apple hält fast alles an 5NM Kapa bis Apple zu 3NM weiterzieht.
Dann werden die 5NM bei TSMC frei.

Man kann nur hoffen, dass Samsung irgendwann den Arsch hoch bekommt.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und LukS
Intel hält sich nach den Schlägen in die Magengrube noch die Hand vorn Bauch, da klatscht AMD mal eben NVidia die Neue Rechenkarte vorn Latz. Nicht schlecht.
 
TrueAzrael schrieb:
Mag sein, die Argumentation des von mir Zitierten ging aber eher in die Richtung, dass Nvidia sich nicht sicher ist ob die Technik reif genug ist und man sie deshalb nicht im Consumerbereich wohl aber im professionellen Sektor umsetzt.
Meine ja auch. Weil die Anforderungen da geringer sind, kann man die Technik früher im Server unterbringen, aber erst bei höherem Reifegrad für Gaming einsetzen. Sehen wir ja jetzt bei AMD schon genau so.
 
TrueAzrael schrieb:
Mal abgesehen davon, dass wie schon erwähnt Zen1 noch keine Chiplets bat, hatte man sich bei AMD zu der Zeit auch auf eine Produktsparte eingeschossen weil man für mehrere gleichzeitige Auseinandersetzungen einfach nicht die Mittel hatte.
Und nein eine Vernichtung will hoffentlich niemand, ist wohl auch eher so ein "Fanboy"-Wort. Gesunder Konkurrenzkampf auf Augenhöhe bei dem jeder mal die Spitze erklimmt ist immer noch die beste Lösung.

Mit Zen2 kam der IO Die dazu, also IO wurde ausgelagert in einen extra Chip, aber Zen 1 hatte schon zwei CCX die einen Die ergaben und somit bei einem Zeppelin Die 2 "zusammengeleimte" Dies (CCX) und damit den Fertigungsvorteil.
Deswegen konnte man Intel ja so überrollen mit mehr Kernen.
Damit könnte man eigentlich sagen es waren damals schon Chiplets, mit dem Unterschied dass sie bei Zen 1 noch in einen Die gegossen wurden.

https://de.wikipedia.org/wiki/Zen_(Mikroarchitektur)#/media/Datei:AMD_Zen.svg
 
Zuletzt bearbeitet:
Also dass die Anforderungen im Server geringer sind, halte ich für ein Gerücht. Da stehen riesen Unternehmen dahinter, nicht so ein Gaming Kiddy das auf Reddit oder Twitter rumjammert wenn was nicht so geht wie es soll. Server Hardware muss robust und ausfallsicher sein, wenn da was nicht geht, dann kostet das enorm viel Geld wenn es schlecht läuft.
 
  • Gefällt mir
Reaktionen: Benji21
Can it run crysis?


no...
 
modena.ch schrieb:
Was erzählt ihr alle für nen Käse?
Natürlich hatte Zen 1 schon Chiplets.
Nein. Zen 1 war ein vollwertiger Chip mit allen Funktionen. AMD hat vier Stück davon auf ein package gepackt für Epyc, aber das waren keine Chiplets in dem Sinne.

Chiplets liegen nach allgemeinem Verständnis vor, wenn mehrere verschiedene Komponenten erst zusammen einen Chip ergeben.

HAse_ONE schrieb:
Also dass die Anforderungen im Server geringer sind, halte ich für ein Gerücht.
Es ging hier explizit nur um die Anforderungen an die Synchronisierung zwischen GPUs. Für alles andere hast du völlig Recht.
 
  • Gefällt mir
Reaktionen: DonL_
modena.ch schrieb:
Was erzählt ihr alle für nen Käse?
Natürlich hatte Zen 1 schon Chiplets.
Mit Zen2 kam der IO Die, aber Zen 1 hatte Chiplets,
desswegen konnte man Intel ja so überrollen mit mehr Kernen.

https://de.wikipedia.org/wiki/Zen_(Mikroarchitektur)#/media/Datei:AMD_Zen.svg
Nein!

Zen 1 hatte keine Chiplets, sondern war ein Monolith mit INF Anbindungen, sonst solltest du mal erklären wo denn die Chiplets herkommen, I/O und INF waren mit auf dem Die.
ZEN1 hatte CCX/CCD Design aber keine Chiplets!
 
  • Gefällt mir
Reaktionen: GT200b und Onkel Föhn
XamBonX schrieb:
Läuft drauf Crysis in 4k mit 144 fps?
Nein:
CDNA ist eine reine Compute-GPU-Architektur und verzichtet vollständig auf die sogenannte fixed-function hardware, hat deshalb unter anderem keine Textureinheiten, Rasterizer oder überhaupt nur Monitorausgänge.
 
gedi schrieb:
Kein Wunder, dass es für die AMD-Aktie wie es scheint, nur einen Weg zu geben scheint .... Trotz AL und drohgebähren seitens Intel, flitzt das Ding nach oben, als gäbe es kein Morgen. Kein Wunder, da AMD sich wohl nun zu einem relativ hohen Anteil sich des professionellem Markts bedienen will. Und, ach ja - da geht es dann auch gegen NV.
Soll net Facebook-cloud@epyc kommen.

Das größte Problem bei AMD wird wohl die Lieferbarkeit bei der großen Nachfrage.
 
Vielleicht hat ja die GPU endlich h.266 dabei.
Qualcomm wollte ja dieses Jahr schon mit der ersten h.266 Cpu um die Ecke kommen aber wie immer labern sie alle nur rum statt zu liefern --_--
 
CloudConnected schrieb:
Schau dir die Vergangenheit an, basiert aus meinem bisherigen Erfahrungen.
Hmm, die Ankündigungen von Zen 1 bis Zen 3 sowie seit RDNA 1 wurden ziemlich genau eingehalten und partiell sogar übertroffen. Da hast Du also die letzten 4 - 5 Jahre keine Erfahrungswerte mehr gesammelt, wie es scheint.
 
ZeroStrat schrieb:
AMD's große Schwäche, das Ecosystem. Die Leute bedenken nicht, dass die beste Hardware ohne Software wertlos ist.
ja AMD hat sicherlich noch einiges auf der Software ebene zu tun, aber dennoch beschleunigt die GPU ohne Optimierung bereits bestehende externe Software besser wie Nvidia, klar wird man wohl die Nvidia Software nicht auf den AMD Karrten lizenzieren können aber es gibt auch noch viel externe Software die eben von der Rohleistung profitiert, ob die Software Anbieter jedoch dann auch auf AMD hin Optimieren wird wohl an der Kohle von Nvidia oder AMD und Unterstützung durch AMD stehen oder fallen
 
Zurück
Oben