News AMD Instinct MI375: Auf die MI350 soll ein weiterer Chip mit 288 GB HBM3e folgen

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.927
  • Gefällt mir
Reaktionen: ComputerJunge, aid0nex, Benjamin_Blume und 8 andere
Machmal frage ich mich, wenn alle um AMD herum wissen das die Software scheiße ist, wie kann AMD das Problem nicht sehen oder es als großes Problem erkennen und dort gegensteuern?
AMD verdient seit einigen Jahren ja auch wieder gutes Geld und AMD selbst ist doch hier am zug das Henne Ei Problem zu lösen!
Erstmal gute Hard- und Software anbieten, dann kommt die Marktdurchdringung doch von alleine ... die Beste Hardware bringt nichts ohne gute Software ...
 
  • Gefällt mir
Reaktionen: aid0nex, Benjamin_Blume, IllusionOn und 3 andere
Es soll ja ein Cuda Killer kommen, angeblich.
Das eine Problem ist die Software die andere der Mensch. Umstellungen sind nicht sehr beliebt.
 
  • Gefällt mir
Reaktionen: nyster, aid0nex, fox40phil und 3 andere
Den AMD Nachteil kann man daheim ganz einfach nachstellen indem man versucht Stable Diffusion auf einer Radeon zum laufen zu bringen :-(
 
  • Gefällt mir
Reaktionen: semporn, aid0nex, Benjamin_Blume und 2 andere
Syrato schrieb:
Es soll ja ein Cuda Killer kommen, angeblich.
Eine Cuda Alternative gibt es bereits seit 2016. ROCm, derzeit in Version 6.1

https://www.pcgameshardware.de/Graf...AMD-ROCm-6-auf-Radeon-und-Radeon-Pro-1440816/
Ergänzung ()

Tech6 schrieb:
Den AMD Nachteil kann man daheim ganz einfach nachstellen indem man versucht Stable Diffusion auf einer Radeon zum laufen zu bringen :-(
Kann ich nicht bestätigen. Keine Probleme bei der Nutzung.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JarlBallin, nyster, muvmend und 8 andere
Tech6 schrieb:
Den AMD Nachteil kann man daheim ganz einfach nachstellen indem man versucht Stable Diffusion auf einer Radeon zum laufen zu bringen :-(
Musst mal die Forge Web UI ausprobieren.
Bei meiner GTX 1650 ist die normale Automatic1111 Web UI auch völlig überfordert auch durch Einträge wie --lowvram
Bei der Forge Web UI muss ich keine Einträge machen, das erkennt es selbst beim Start und da hab ich selbst mit meiner GTX 1650 wieder schnell erzeugte Bilderchen.
 
  • Gefällt mir
Reaktionen: JarlBallin
NEO83 schrieb:
Machmal frage ich mich, wenn alle um AMD herum wissen das die Software scheiße ist, wie kann AMD das Problem nicht sehen oder es als großes Problem erkennen und dort gegensteuern?
AMD kennt die Probleme und arbeitet an diesen, nur hat AMD hier weit mehr auf zu holen als AMD selbst lieb ist.

AMD hat sich gerade in der Zeit vor der Übernahme von ATi darauf verlassen das gute Hardware alleine reicht. ATi wusste damals aber schon, dass das so nicht ist und hatte mit FireStream für HPC einen eigenen Software-Stack der mit der Übernahme durch AMD auf Eis gelegt wurde. Später hat man sich auf OpenCl verlassen und dann auf DirectML bei KI.

AMD hat immer „gute“ Hardware geliefert und sich dann darauf verlassen, das andere denn Softwarestack entwickeln. Maximal war es eben ein Treiber.

Das funktionierte nur bereits damals nicht - es gab viele Softwarestacks noch nicht - und funktioniert auch heute nicht.

AMD muss nur heute die Marktdominanz der Softwarestacks brechen, die Nvidia und teils auch Intel durch ihre Bereitschaft dazu, etablieren konnten.
NEO83 schrieb:
die Beste Hardware bringt nichts ohne gute Software ...
Richtig, nur war das bis weit in die 10et keine Erkenntnis bei AMD und jetzt haben sie den Salat.
Nooblander schrieb:
Eine Cuda Alternative gibt es bereits seit 2016. ROCm, derzeit in Version 6.1
Und ROCm ist dennoch nur bedingt brauchbar und erfordert sehr viel Einarbeitung und bei fast allen gängigen Frameworks auch umfassende Anpassungen durch den Entwickler, damit es wirklich geht.

ROCm geht in die richtige Richtung, nur ganz ehrlich: Warum soll ich teilweise mehrere Arbeitstage darauf verschwenden Frameworks und Co mit ROCm zum laufen zu bringen, wenn ich eine GeForce RTX oder nur RTX in das System setzte, den Treiber von NVIDIA installiere und anschließend ohne Probleme direkt anfangen kann?

Ich habe in der Regel besseres zu tun, als erst mal wertvolle Arbeitszeit damitbzu verschwenden den Softwarestack zum laufen zu bringen. Dafür werde ich nicht bezahlt und kann das auch nicht rechtfertigen vor dem Chef oder den Gremien.

AMD im Bereich HPC ist entweder was für Firmen, die das nötige Kleingeld investieren wollen und können und die die Expertise schon haben, oder für das „private“ Hobby, wenn man Spaß daran hat und es höchsten vor sich selbst rechtfertigen muss, dass man erst mal mehrere Stunden bis Arbeitstage an Anpassungen verbracht hat.
 
  • Gefällt mir
Reaktionen: ComputerJunge, SpartanerTom, IllusionOn und 2 andere
naja, CUDA ist auch so ein gern gebrachtes Schlagwort ohne wirkliche Substanz. Informationen, wie es wirklich softwareseitig im Vergleich in den verschiedenen Bereichen ausschaut, wären mir sehr viel lieber. Dazu kommt, daß man sich mit CUDA volkommen nV ausliefert, was beim open-source-Ansatz von AMD nicht so ist.
 
  • Gefällt mir
Reaktionen: yummycandy, nyster, muvmend und 7 andere
@Nooblander im Artikel steht, dass angeblich an einer neuen Software getüftelt wird, nicht ROCm.
 
Hatte Intel nicht kürzlich von den Medien verlautbaren lassen, deren neue Karte wäre das aktuell beste Pferd im Stall? demnach kann NVidia mit CuDA doch einpacken, und warum versucht AMD es dann überhaupt noch? gegen Intel kann doch keiner bestehen, wenn die etwas angekündigt haben. Zuletzt ist doch auch die Hölle ARCtisch eingefroren. ^^ ;-)

Ne mal im Ernst: wie will Intel denn gegen die neuen Karten dieser Konkurrenz bestehen und sein eigenes System noch dazwischendrücken, wenn selbst AMD immer nur eine Randnotiz zu sein scheint. Selbst bei Spielepartnerschaften und Softwareunterstützungen kommen die vergleichsweise ja nicht aus dem Quark?
Und warum binden sich Leute imemr lieber an feststehende Umgebungen, anstatt offene Standards zu fördern udn zu nutzen, die doch eindeutig auch Vorteile bieten, wie z.B. theoretisch unendlich langen Support? CUDA DLSS, GSync und alles andere von NVidia steht und fällt mit dieser Firma, wenn die nicht mehr kann oder will.
 
Kadett_Pirx schrieb:
Dazu kommt, daß man sich mit CUDA volkommen nV ausliefert
Ja, das tut mal „leider“, nur sobald es um Zeit und damit Geld geht, gewinnt hier CUDA, das NVIDIA sehr hilfsbereit ist und in den Entwicklerforen dir auch von den Entwicklern von NVIDIA gerne mal geholfen wird und die sich auch per E-Mail melden und Co.
Kadett_Pirx schrieb:
was beim open-source-Ansatz von AMD nicht so ist.
Ja, nur wird dir da auch nicht in den Maß geholfen und vieles muss man selbst suchen oder hoffen dass ein anderer einen hilft.

OpenSource ist toll, aber eben vieles auch freiwillig - was verständlich ist.


Kadett_Pirx schrieb:
Informationen, wie es wirklich softwareseitig im Vergleich in den verschiedenen Bereichen ausschaut
Sehe die Blender an, CUDA Stack ist in der Regel wesentlich früher vorhanden. Sieh dir Adobe an, auch andere oft OpenSource-Projekte die auf CUDA setzen.

Die Entwicklung um OpenCL ist quasi nicht mehr vorhanden. Intel kommt mit der OneAPI auch nicht so voran und HIP(fy) kannst du auch auf GitHub mit der Lupe suchen.

Und HIP ist aktuell die Lösung, die am ehesten eine Chance hat, weil es quasi CUDA ist.
 
  • Gefällt mir
Reaktionen: fox40phil, Nooblander, Zarlak und eine weitere Person
@BexBender
Anders als AMD, hat Intel sehr wohl verstanden, dass eine gute Softwareunterstützung das A und O ist. Intel investiert aktuell Massen an Gelder in die Software Entwicklung für ihre HPC Hardware. Der Fokus liegt bei Intel aktuell massiv auf diesen Bereich und sie haben genug Partner mit denen sie zusammenarbeiten und neben der Hardware das ganze drumherum aufbauen.
 
  • Gefällt mir
Reaktionen: Zarlak
BxBender schrieb:
Hatte Intel nicht kürzlich von den Medien verlautbaren lassen, deren neue Karte wäre das aktuell beste Pferd im Stall?
Intel investiert aktuell stark im Bereich Software und entwickelt passende Middleware für die aktuell gängigen Frameworks, so dass man die Ebene austauschen kann, ohne dass man als Entwickler darüber etwas merkt im Bereich KI. AMD ist da auch dran. Nur wird das alles noch dauern.

Das lustige ist: Alle Beteiligten - sogar NVIDIA - wissen von ihrer Abhängigkeit und wollen sich auch aus dieser lösen. Nur ist das alles nicht so leicht. NVIDIA versucht Hürden einzubauen, die anderen diese abzubauen.
 
  • Gefällt mir
Reaktionen: Zarlak
Tech6 schrieb:
Den AMD Nachteil kann man daheim ganz einfach nachstellen indem man versucht Stable Diffusion auf einer Radeon zum laufen zu bringen :-(
Ich verstehe nicht, Stable Diffusion läuft auf meiner RDNA2 GPU unter Linux ohne Probleme.
 
  • Gefällt mir
Reaktionen: JarlBallin und Nooblander
DiePalme schrieb:
Anders als AMD, hat Intel sehr wohl verstanden, dass eine gute Softwareunterstützung das A und O ist.
AMD hat das auch verstanden und ist da dran. Nur hält sich AMD da aus gutem Grund bedeckter.

Intel ist aktuell - anders als AMD und NVIDIA - sehr laut, weil sie Aufmerksamkeit „brauchen“. Deren Aktien haben innerhalb weniger Tage fast 25 % an Wert verloren. Intel kämpft im HPC Makrt gegen NVIDIA und AMD und gerade bei „Großprojekten“ steht AMD nicht mal schlecht da.

Wo AMD schwach dasteht ist alles, was sich im mittleren und kleinen Bereich abspielt. Hier fehlt oft die Expertise um mit ROCm und Co zu arbeiten und AMD hilft hier auch nicht wirklich. Da hat NVIDIA den deutlich besseren Support.

AMD hat aktuell das Problem, dass sie zu wenige Ressourcen haben um den „studentische“, „universitären“ sowie kleinen und mittleren Bereich effektiv zu betreuen. Es fließt aktuell alles in die Großen bis sehr Großen Projekte, wegen der „Presse“.

Das könnte sich später allerdings wieder rächen.
 
  • Gefällt mir
Reaktionen: Azdak und SpartanerTom
DevPandi schrieb:
ROCm geht in die richtige Richtung, nur ganz ehrlich: Warum soll ich teilweise mehrere Arbeitstage darauf verschwenden Frameworks und Co mit ROCm zum laufen zu bringen, wenn ich eine GeForce RTX oder nur RTX in das System setzte, den Treiber von NVIDIA installiere und anschließend ohne Probleme direkt anfangen kann?
für otto normal Anwender sicherlich unsinnig, die Kaufen Natürlich Nvidia weil es einfach läuft.
MS, Meta, Alphabet und co entwickeln Ihre Software eh selbst und werden mehr auf den Kostenfaktor und Flexibilität achten. Aktuell ist CUDA das mass der dinge da eben Jahre vorsprung.
Ich denke aber es ist nur eine Frage der Zeit, bis Firma xy einen Compiler anbietet der auf allen GPUs arbeitet, und Leistungsmässig CUDA ebenbürtig bez besser. KI wird der hipe der kommenden Jahre werden jeder will da sein Geld machen, und in Software wurde schon seit je her mehr Geld wie in die Hardware gesteckt, und hier werden Intel und AMD auch absehbare seit einen Kostenvorteil bei der Hardware bieten.
 
twrz schrieb:

Der Unterschied ist, dass man seit einem Jahr Stable Diffusion einfach und schnell mit Nvidia benutzen kann und AMD da einfach mal wieder später dran ist. Zusätzlich geht es bei Nvidia schon länger mit einem simplen Klick unter Windows. Auch neue Dinge brauchen häufig länger bis es dann irgendwie auf der AMD Karte läuft. Produktiv willst du etwas nutzen und nicht mit Expertise und Aufwand etwas gleiches bei AMD erreichen. Da bezahlt man lieber 100€ mehr für eine Nvidia GPU und spart sich hunderte Stunden an Zeit.

Kadett_Pirx schrieb:
naja, CUDA ist auch so ein gern gebrachtes Schlagwort ohne wirkliche Substanz. Informationen, wie es wirklich softwareseitig im Vergleich in den verschiedenen Bereichen ausschaut, wären mir sehr viel lieber. Dazu kommt, daß man sich mit CUDA volkommen nV ausliefert, was beim open-source-Ansatz von AMD nicht so ist.

Ohne Frage ist OpenSource besser, aber AMD macht das ja nicht um nett zu sein. Nvidia denkt sich etwas aus, bringt es heraus und AMD muss dann nachziehen. Das funktioniert dann eben häufig nur noch über OpenSource. Hätte sich AMD etwas wie Cuda ausgedacht, wäre es genau anders herum gelaufen. Wie damals mit den CPU Preisen. AMD immer günstiger, aber nicht weil sie nett waren, sondern weil ihr Produkt schlechter als Intel war. Nun sind sie führend und schon geht der Preis entsprechend hoch. Nvidia und AMD ticken beide gleich...
 
In Sachen closed/opensource ticken AMD und nV sicher nicht gleich, da sind seit vielen Jahren prinzipiell ganz andere Ansätze zu erkennen. Natürlich ist AMD ein gewinnorientiertes Unternehmen wie alle anderen.
 
Ayo34 schrieb:
Ohne Frage ist OpenSource besser, aber AMD macht das ja nicht um nett zu sein. Nvidia denkt sich etwas aus, bringt es heraus und AMD muss dann nachziehen. Das funktioniert dann eben häufig nur noch über OpenSource.
Open-Source ist auch ein Kostenpunkt. Man braucht nicht selbst komplett etwas ganz neues aufziehen und weiterentwickeln (z.B. Freesync per AdaptiveSync, statt sowas wie Gsync mit teurem Extramodul und noch mehr Hirnschmalz dafür)
Der einfachere Verbreitungsvorteil ist sicherlich für uns das beste davon.
Das kann man den Leuten halt auch leichter verkaufen.
NVidia ist wie Microsoft Marktführer, die können machen was sie wollen, und die Leute müssen schlucken.
AMD hat also gar keine Chance mit einer Alleinlösung etwas auf die Beine zu stellen, das wäre gleich sofort eine Totgeburt.
Oder sieht man plötzlich Programme oder Spiele aus dem Boden sprießen, die jetzt nur noch Linux unterstützen? Nö.
Generell ist ein offener/gemeinsamer Ansatz imerm die beste Wahl, aus welche Gründen auch imemr man den Weg geht.
Kunden sollten niemals an eine Fima und vielleicht sogar ein bestimmtes Produkt gebunden sein.
Sachen wie das Upskaling und Frame generation in Spielen sollte auf jeden Fall komplett über das Betriebssystem als neue DirectDingsbums Basis gesteuert werden, wo dann vielleicht die Herstelelr dann per Treiber ihre Optimierungen etc. noch einbringen können.
 
  • Gefällt mir
Reaktionen: Icke-ffm
Zurück
Oben