News Geekbench: Apple M4 hat die mit Abstand höchste Single-Core-Leistung

TrabT schrieb:
Im Games entscheidet die Grafikeinheit, ja vlt 1-2% mehr wenn die CPU stark ist aber der Rest kommt von der GPU
Das kommt sehr auf das jeweilige Spiel, den verwendeten Unterbau und die Einstellungen an.

Alex von DF hat gestern ein Video veröffentlicht, wie prozessorlimitiert UE5 selbst nach 4 Jahren Optimierung immer noch sein kann, wenn man die angebotene Optionsvielfalt als Entwickler auch tatsächlich ausnutzt:
 
Combine schrieb:
Singlecoreleistung eines synthetischen Benchmarks feiern damit Apple gut abschneidet. Im Multi-Thread des selben Benchmarks reicht es nicht zur Fuhrung. Ist es schon so weit gekommen?
Du hast aber schon gesehen, dass hier eine passiv gekühlte CPU mit einem Powerbudget von einigen Watt gegen zwei Desktop Modelle mit, im Falle von Intel 250W Budget verglichen wird?

Selbst der, ebenfalls im Vergleich enthaltene, Core Ultra 7 155H hat ein mehrfach höheres Powerbudget als der M4 im iPad Pro.

Die Single Thread Leistung gibt auch eine Aussage über die IPC eines Kerns.
Wenn der M4 einen 14900K, der mit Taktfrequenzen bis 6Ghz läuft, mit 4Ghz schlagen kann, und sich auch vom unmittelbaren Vorgänger M3 deutlich absetzen kann, dann zeigt es vor allem, das Apple die Architektur deutlich verbessern konnte.

Und das ist nun mal die Messlatte beim Design von Prozessoren.
Bessere IPC ist eben auch der Grund dafür, warum Zen4 schneller als Zen3 und Zen2 ist. Ohne bessere IPC würde es kaum noch Fortschritt bei CPUs geben.

Bin mal gespannt was Zen5 bringen wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Admiral Awesome, tidus1979, dualcore_nooby und eine weitere Person
TrabT schrieb:
Im Games entscheidet die Grafikeinheit, ja vlt 1-2% mehr wenn die CPU stark ist aber der Rest kommt von der GPU
Nein, es kommt auf beides an, CPU und GPU.
 
  • Gefällt mir
Reaktionen: Admiral Awesome
Ein Rechenkern besitzt keinen sinnvollen Wert für Instruktionen pro Takt, vielmehr beschreiben diese den Durchsatz des ganzen Systems bei einer spezifischen Rechenlast.

Siehe die Änderungen des Durchsatzes des gleichen Rechenkerns durch unterschiedliche Zwischenspeichergrößen und Hauptspeicheranbindungen.
 
bensen schrieb:
Merkwürdige Aussage. Ist es nicht egal warum er langsamer ist. Es hat immer einen Grund, IPC, Takt, Anzahl Kerne.
Es ändert nichts an der Aussage.
Keine merkwürdige Aussage. M4 mit mehr Kernen kommen ja noch.
 
Debian User schrieb:
Nein, es kommt auf beides an, CPU und GPU.

Ja und Nein. Es kommt vor allem auf die Auflösung und Details an. Je geringer diese sind desto mehr wird die CPU gefordert, desto höher diese sind umso mehr geht es Richtung GPU.
 
incurable schrieb:
Das kommt sehr auf das jeweilige Spiel, den verwendeten Unterbau und die Einstellungen an.

Alex von DF hat gestern ein Video veröffentlicht, wie prozessorlimitiert UE5 selbst nach 4 Jahren Optimierung immer noch sein kann, wenn man die angebotene Optionsvielfalt als Entwickler auch tatsächlich ausnutzt:
dafür ist die Beleuchtung teilweise besser, teilweise schlechter geworden. Schaut man sich die Beleuchtung unterhalb der Brücke an ab 17:26 wirkt das etwas unausgereift in 5.4.
 
  • Gefällt mir
Reaktionen: incurable
Debian User schrieb:
Bottleneck wofür?
Macht es Sinn, einen Chiron mit 1500 PS zu kaufen, wenn man damit nur Innerorts in der 50er Zone fährt? (Vorausgesetzt, man kann nicht schneller als 50 fahren).

Genau das (also die 50er Zone) ist iPadOS für diese neuen "Höllenmaschinen".
 
  • Gefällt mir
Reaktionen: Benjamin_Blume
Combine schrieb:
Damit testet man nicht optimierte Hardware gegen hardwarebasierte Beschleunigung.
Ja und der Vergleich ist entsprechend nur bedingt sinnvoll. Dahinter steht im Wesentlichen ein "Feature vorhanden? - Ja/Nein". Allgemeine Rückschlüsse auf eine Architektur lässt das nicht zu.

Und AV1-Encoding ist eine Nischenanwendung, das zukünftig vll mal breitflächig in Videokonferenztools zum Einsatz kommt, um etwas Bandbreite zu sparen. 99 % der Kunden braucht das nicht groß zu interessieren.

Ganz im Gegensatz zu Decoding, weil Videostreaming eine dominanter Anwendungsfall auf Mediengeräten ist (und beim Umstieg von VP9 zum Beispiel von Youtube mit dem de facto Entzug von 1080p-Unterstützung für VP8-Geräte verbunden war. Ich hatte so ein Gerät damals. Hat keinen Spaß gemacht.).

Combine schrieb:
Singlecoreleistung eines synthetischen Benchmarks feiern damit Apple gut abschneidet. Im Multi-Thread des selben Benchmarks reicht es nicht zur Fuhrung. Ist es schon so weit gekommen?
Apple wirbt mit AV1-Decoding, Computerbase testete AV1-Decoding als der M3 es unterstützte. Features sind im Appleuniversum nur interessant, wenn Apple diese endlich unterstützt. AV1-Encoding wird im M6 gefeiert.
Geekbench hat den erklärten Anspruch, "to reflect[] what actual users face on their mobile devices and personal computers" (https://www.geekbench.com/) und Single-Core ist seit jeher aus guten Gründen die Königsdisziplin.

Zumal wir hier von der niedrigsten Ausbaustufe des Chips reden und das im flachsten IPad, das bisher gebaut wurde. Das überhaupt entfernt vergleichen zu können, ist schon beschämend genug für AMD und Intel.
Bei den Werten klebt Apple für den Vollausbau einfach mehr Kerne auf den Chip, verbraucht dabei immer noch massiv weniger Strom und schon war es das mit der Multicore-Dominanz von Intel.

Du diskutierst hier übrigens mit einem User, der (abgesehen von ein paar Jahre alten, stinknormalen AirPods) kein einziges Apple Produkt besitzt.
 
  • Gefällt mir
Reaktionen: TomH22
"Beschämend". Ja sicher.

Golden Cove wurde irgendwann 2018 entwickelt, jedenfalls tauchte der Kern auf dem Raptor Lake basiert dann auf ersten Roadmaps auf. ( https://www.computerbase.de/2018-12/sunny-cove-intel-ice-lake-cpu/ )

Herzlichen Glückwunsch, Apple liegt da jetzt 2024 mit zwei full node shrinks bei der Fertigung und deutlich potenteren Werkzeugen für die Entwicklung von Chips drüber. It's Magic.
 
Naja ein Hersteller wo man wegen zu wenig Speicher und SSD zu klein gleich den Laptop verkaufen muss um den höheren M chip zu bekommen, weil der Chip nur das kann. nee wird nicht unterstützt.
den mag ich es 10-15 Programme neben bei laufen in einem Fenster verteilt auf dem Screen und nicht einzeln im Vollmodus.
Das erste Apple Gerät wo ich kaufte war ein

Macintosh IIfx Motorola 68030-basierter Rechner​

mit 200MB scsi HD, Also nicht neu sondern per Kleinanzeige weil der hätte 9000 euro gekostet neu basis PC, Das nur floppy betrieb.
das 2te und letzte ein Iphone g3.
 
Debian User schrieb:
Nein, es kommt auf beides an, CPU und GPU.
Natürlich lahme CPU mit top gpu klappt nicht, aber wenn du jetzt die 30% mehr single core des M4 gegen den Snapdragon X Elite vergleichst (der direkte Konkurrent) dann sind diese 30% zu vernachlässigen und es entscheidet nun mal die GPU.

Ganz davon abgesehen das die Multicore Leistung beim Snapdragon höher ist.

Ich habe ja auch nur auf ein Zitat geantwortet und keine allgemeine Aussage getroffen!
 
  • Gefällt mir
Reaktionen: Benjamin_Blume
StephenFalken schrieb:
das ist ja gerade der Punkt.
in Benchmarks... können andere mit der Brechstange noch irgendwie dagegen halten.

aber bei den sonstigen Faktoren sind Apples halt nun mal hoch überlegen.
Akkulaufzeit. Geräuschentwicklung.
selbst, wenn Apple hier sagen wir mal 30 % Tempo runternimmt, wären sie wohl noch überlegen.
weil die anderen es dann immer noch nicht lautlos könnten.
Das sehe ich nun wirklich nicht so.
Mein alter Laptop hier, wird sicherlich in keinem Benchmark mehr die obere Spitze erreichen, weil eben nur ein alter Core 2 duo noch, aber:
alles, was der Normalsterbliche macht, wie ich jetzt, und alles läuft geräuschlos.
Youtube, einen Film streamen, da ist nichts, was die Lüfter zum surren bringt.

Eine Rar- Datei entpackt ein Apple- Gerät vermutlich schneller, ja, aber wäre mir das eine Neuanschaffung wert?
Nein.
Und im Übrigen: ich würde mir niemals nie nicht ein Gerät mit dem angebissenen Apfel kaufen.
Einfach zu teuer oder besser ganz speziell für mich ein unpassendes Preis/ Leistungsverhältnis.

Hab das Gleiche auch mit Sony durch, auch deren Geräte kaufe ich nicht mehr, egal was davon.
Einmal verarscht worden von Sony und das war es für mich.

Und ich hoffe inständig, daß sich auch alle Intel- Käufer beim nächsten CPU- Kauf daran erinnern, wie sehr
sie von Intel beim Kauf ihrer High- End- CPU's beschissen worden sind.
 
Bright0001 schrieb:
Sind sie ja auch, siehe CB Test. Weniger Leistung bei einem Verbrauch Faktor 2 bis 3 höher als beim X3D ist nicht gerade prickelnd.
« Besser » ist ja relativ und abhängig vom Anwendungsfall. Ich möchte nicht von Fanboys-Gerede befallen werden (weder Intel noch Amd)
 
Cleaner57 schrieb:
« Besser » ist ja relativ und abhängig vom Anwendungsfall.
?

Du hast den Anwendungsfall doch selbst ausgesucht:
Cleaner57 schrieb:
oft die Idee verbreitet wird AMD wäre fürs Gaming besser.
Und darauf habe ich auch geantwortet. Im verlinkten Artikel findest du auf Seite 3 das Leistungsrating, auf dem Platz 1. und 2. von Ryzens besetzt sind.
 
LamaMitHut schrieb:
Golden Cove wurde irgendwann 2018 entwickelt, jedenfalls tauchte der Kern auf dem Raptor Lake basiert dann auf ersten Roadmaps auf. ( https://www.computerbase.de/2018-12/sunny-cove-intel-ice-lake-cpu/ )
Was tut es zur Sache, wann ein Architekturname erstmalig auf einer Roadmap erschien und wo wäre da die Vergleichbarkeit mit Apple M4?

Golden Cove erschien Ende 2021 und ist nach wie vor Intels State-of-the-Art Architektur im High-End-Bereich. Dass Redwood Cove noch weniger leistungstechnisch mithält und man u.a. damit im High-End-Bereich zwei Full Node Shrinks hinterherhinkt, würde ich vollumfänglich mit als Beschämung einordnen.

Selbst wenn man all das außen vorlässt: 2,5 Jahre Architekturentwicklung und 2 Full-Node-Shrinks machen aus einer 2/3 High-End-Desktop-CPU leistungstechnisch nie und nimmer ein 5,3 mm respektive 5,1 mm (!!) dünnes Tablet.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Miuwa
@Kaboooom

Worauf ich hinaus will: du vergleichst alte Äpfel von Intel mit frischen Birnen von Apple. Kann man machen, muss man aber nicht.

Redwood cove ist übrigens mehr oder weniger identisch zu golden cove.

Jedenfalls düfte es Intel relativ egal sein was Apple da bei TSMC bestellt, es werden gerade Rechenzentren für mehrere Billionen Euro (jepp, mehrere tausend Milliarden) geplant. Es geht darum Microsoft und Google zu beliefern, und nicht nur Manfred und Greta.

AMD und Nvidia gilt es zu übertrumpfen, Apple ist unwichtig. Wobei ich schon gespannt bin, was die Microsoft Silicon Chips auf Intel 18A bringen werden.
 
Zuletzt bearbeitet:
TomH22 schrieb:
Du hast aber schon gesehen, dass hier eine passiv gekühlte CPU mit einem Powerbudget von einigen Watt gegen zwei Desktop Modelle mit, im Falle von Intel 250W Budget verglichen wird?
Ausreichend dimensioniert ist die Passivkühlung nicht. Im Netz finden sich Berichte über Temperaturhotspots und Throttling beim iPad Pro, Macbook Air und mit einem Lüfter ausgestatteten MacBook Pro sodass der Leistungsvorteil des M2 zum M1 zusammenschmilzt.

Geekbench pausiert die Benchmarks nach den einzelnen Läufen um Throttling als Faktor auszuschließen. AV1-Encoding oder andere anstrengende, ausdauernde Benchmarks wären sinnvoller.

Effizienzsprünge des Mx bestreitet niemand.
 
Was ich ausd
Bright0001 schrieb:
?

Du hast den Anwendungsfall doch selbst ausgesucht:

Und darauf habe ich auch geantwortet. Im verlinkten Artikel findest du auf Seite 3 das Leistungsrating, auf dem Platz 1. und 2. von Ryzens besetzt sind.

Was ich eigentlich ausdrücken wollte : oft werden Intel CPUs als allgemein weniger schnell dargestellt, weil sie eben im Gaming nicht so gut abschneiden. Im aktuellen CB Artikel wird aber gezeigt, dass das allgemeine Leistungsrating anders ausfällt.

Aber ja, im Gaming sind AMD CPUs momentan schneller, und da es bei Intel—Cpus noch diese « Qualitätsprobleme » gibt bei K-Modellen für die die Mainboardhersteller die aggressiven Bios-Einstellungen sein lassen sollen, sieht das Ganze nicht ganz rosig aus für Intel.
Aber wir reden hier von den Top-Modellen, und die sond ja nicht im Besitz von jedermann.
 
Cleaner57 schrieb:
IIm aktuellen CB Artikel wird aber gezeigt, dass das allgemeine Leistungsrating anders ausfällt.
Das Ergebnis im Geekbench ist halt für Intel deutlich besser, weil der große Cache der AMD X3D CPUs hier nicht so zum Tragen kommt wie in Games. Es gibt nicht viele gängige Benchmarks außerhalb von Games, die gut auf große Caches reagieren. Das einzige was mir aktuell einfällt ist der interne WinRAR Benchmark.
 
  • Gefällt mir
Reaktionen: Benjamin_Blume und Cleaner57
Zurück
Oben