@And.!
nunja, bei massiv Parallelen Berechnungen kommen oft Matrixmultiplikationen zum einsatz (bspw. im HPC-Bereich oder eben diesen Fluidiksimulationen). Diese sind auf ein hohes Mass an Genauigkeit angewiesen, will heissen, möglichst alle Berechnungen sollten in DP (Double Precision, 64Bit) ausgeführt werden. Diess Einheiten sind auf den GEforce-Karten ziemlich kastriert, machmal bis auf 1/16el der ursprünglichen Anzahl.
Tesla hat glaube ich ein SP/DP-Verhältnis von 1:2 (also halb soviele 64Bit FLOPS wie 32BIt FLOPS ->FLOP = floating Point operation per second)
bei den Quadros ist deise Verhältnis 1:4? ich weiss die genauen zahlen nicht...
Desktop aka GEforce 1:8 bis 1:16.
Ausserdem sind eben die Treiber bei den Teslas ncht auf Rasterization und Bildberechnung Optimiert, sondern auf GPGPU.
Logischerweise könnte man oben erwähnte Aufgaben auch auf einer oder 2 einzlenen GEforce-Karten Druchführen, nur werden die Ergebnisse unbrauchbar (Da nicht genügende Genauigkeit) und zusätzlich ist die Geschwindigkeit besch...eiden (Da 1. unoptimierte Treiber und 2. Viel weniger DP-ALUs).
Was NVidia hier anbietet ist in erster Linie ein Tool, das den Entwicklern nützt, in dem es Ihnen die Zuteilung und das Threadmanagement bei der Kombination einer Tesla und einer Quadro abnimmt. Bringt dem Endkunden direkt nix, aber je Einfacher und intuitiver die Parallele Programmierung für GPUs wird, desto eher wird sich ein Entwickler mal damit beschäftigen und sein Programm dafür optimieren. Dies ist der eigentliche Vorteil dieser Treibergschichte aka Maximus.
Zum Vergleich mit AMD: NVidia stellt im Beriech GPGPU definitv Referenzen auf. Sie haben erkannt, dass in erster Linie eine Sinnvolle und Zweckmässige Softwareentwicklungsumgebung vorhanden sein muss, damit sich GPGPU für die Entwickler lohnt. und nur wenn die Entwickler einen Mehrwert sehen, werden sie ihre Programm dafür Optimieren. Leider ist AMD wie erwähnt davon noch weit entfernt. Die Hardware ist bei beiden Herstellern vorhanden und gut (Ok ECC fehlt bei AMD), aber bei OpenCL vs CUDA geht einduetig letzteres als Sieger hervor. Ich bin zwar definitv kein Freund von geschlossenen Systemen, aber ich komme nicht umhin, Nvidia in diesem Bereich Respekt zu zollen. Sie haben Gute Hardware, Gute Tools und sie unterstützen die Entwickler bei Fragen und mit Finanzmitteln. Von AMD weiss ich, dass sie Gute Hardware haben (werden, GCN steht in den Startlöchern inkl. ECC und GPGPU Optimierung). Gute Software (Open CL) kann ich nicht beurteilen, Tools auch nicht, und Support ist auch weniger asugeprägt als bei Nvidia.
Alles in Allem wäre ein offenes System für beide hersteller udn Etwas Konkurrenz zu Nvidia von seiten AMD zu begrüssen.
mfg memory_stick (sry für etwas OT)