Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte Anfang lesen [2|1]

Status
Für weitere Antworten geschlossen.
Man kann diese Resteverwertung auch possitiv sehen.
Die AMD-Boards verkaufen sich halt momentan besser. ;)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich würde vielmehr vermuten, dass die Margen der AMD-Boards wohl solche Rabatte schlicht nicht hergeben.
 
Ich würde vielmehr vermuten, dass die Margen der AMD-Boards wohl solche Rabatte schlicht nicht hergeben.

Wäre auch ein plausibler Punkt der mit reinspielen könnte, selbst das günstigste P45 von dieser Auswahl liegt bei rund 140,- Euro und ein DS4 ist nun wirklich nix besonderes http://preisvergleich.hardwareluxx.de/deutschland/a339154.html
Scheint also ein probates Mittel zu sein um überteuerte (veraltete) Boards nen kleinen push zu geben.
 
Zuletzt bearbeitet:
So gibt wieder ne neue ATi Karte ... cb prescht wieder mit einem Spitzentest nach vorne und testet die nageneue ATi Karte mit den modernsten Treiber, den sie auftreiben konnten :fresse:

Treiberversionen

* Nvidia GeForce 185.68 (GTX 275, 9800 GT)
* Nvidia GeForce 182.46 (GTX 260²)
* Nvidia GeForce 181.22 (GTX 295, GTX 285)
* Nvidia GeForce 180.48
* ATi Catalyst 8.60-090316a1 (HD 4770, HD 4830, HD 4850)
* ATi Catalyst 8.592.1 (HD 4890)
* ATi Catalyst 9.3 (HD 4870 1GB)
* ATi Catalyst 8.11
Also was der Käse soll, weiss wohl nur cb allein, v.a. hätten sie genügend Vergleichsbenches von Ihren Cat. 9.4 Artikel bei der alten 9800GT haben sie auf wundersame Weise ja auch neuen Treiberwerte aufgetrieben ... komisch auch, dass die 4890er ebenfalls nen uralt Treiber bekommt.

Hat sich geklärt, siehe unten.

ciao

Alex
 
Zuletzt bearbeitet:
Man kann diese Resteverwertung auch possitiv sehen.
Die AMD-Boards verkaufen sich halt momentan besser. ;)

Ich glaube auch, dass sie sich besser verkaufen...
Schon alleine weil Intel boards in der (angestrebten) gleichen Preisklasse oft tendenziell teurer sind (finde ich). Besonders im unteren Preissegment.
Greift man da nicht lieber zum preiswerteren Produkt?

Es ist vllt. auch gar nicht so einfach super objektive Bewertungen zwischen AMD und Intel abzugeben. Wenn ein AMD Prozessor z.B. im Gamen besser ist und ein Intel bei Super-PI (oder was auch immer -> Beispiel) kann es ja sein, dass ein Anwender z.B. einen Bereich mehr benötigt (die jeweilige Optimierung muss man natürlich auch betrachten).
Deshalb gibt es ja auch anwendungsbezogene Bewertungen.
Dass es oft zwiespältige Testergebnisse von verschiedenen Redaktionen gibt kann ich allerdings nur bestätigen.

btw.:Ich hab mir hier jetzt fast alles durchgelesen. Sehr interessante Diskussion hier :d
 
Zuletzt bearbeitet:
öhm ist der 8.60 nicht gleich einer mit 9.xx?
Achso, Du meinst die internen Versionsnummern ?
Ok ... hab ich nicht gecheckt, da bei den Jungs eh das große Treiberchaos herrscht, hab ich nicht darauf geachtet.

Sollten sie dann aber wirklich anders hinschreiben ..

Wenns so ist, nehm ich natürlich alles zurück :)

ciao

Alex
 
Diese interne Versionsnummer hat der aktuelle 9.4
Treiber-Paketversion 8.60-090316a1-078237C-ATI
 
Zuletzt bearbeitet:
Diese interne Versionsnummer hat der 9.4
Treiber-Paketversion 8.60-090316a1-078237C-ATI

Na dann wars ja der Neueste, also falscher Alarm :)
Da müssen sich die Jungs bei cb nur vorwerfen lassen, dass sie den Versionsstand selten dämlich angeben :asthanos:

ciao & Danke

Alex
 
Der beste Benchmarktest sitzt immer noch vorm Rechner. Der subjektive Eindruck des Users ist IMHO mehr Wert als jeder Test.
Aber zugegeben, ein Benchmark ist wie die Bildzeitung und RTL ---Meinungsmache!
 
Über CPU Tests kann man sich ja wirklich in letzter Zeit kaum noch beschweren, hier mal wieder ein absoluter Brüller von THG auf der GPU Seite:

http://www.tomshardware.com/reviews/radeon-geforce-roundup,2297-13.html

In einem "High End Graphics Card Roundup"

1. Crysis brauch man scheinbar nicht, das wurde durch das unglaublich bahnbrechende "the last remant" ersetzt (67% PCGames). Noch witziger sind die dabei herauskommenden Ergebnisse bzw. wie schlecht diese für ATI ausfallen und damit das Gesamtrating versauen.

Nicht nur die Spielauswahl verwundert, auch die Ergebnisse an sich. Auch wenn ATI bei dem Spiel nicht gut aussieht, bei PCGH ist es nicht annähernd so schlimm:

http://www.pcgameshardware.de/aid,6...Grafikkarten-Test/Rollenspiel-Adventure/Test/

2. HAWX wird getestet, aber nicht mit DX 10 bzw 10.1 bei ATI, NEIN, es wird extra auf DX9 zurückgeschaltet... OHNE WORTE
 
Zuletzt bearbeitet:
Das mit der Milliardenstrafe ist ja jetzt eh schon länger bekannt.

Allerdings ist es echt relativ interessant, wenn man sich zusätzlich noch die Kommentare der User im THG bei dem Text von "The Last Remnant" durchliest, die verstehen auch alle nicht wieso und warum welche Titel gewählt wurden.

Zusätzlich kommen dann noch Spiele wie "Tom Clancys Endwar" zum Einsatz, wo das Game bei 30FPS limitiert, wie man anhand der Diagramme sehen kann. Da stellt sich natürlich auch die Frage, warum so ein Spiel dann genommen wird, denn sinnvoll ist das wohl kaum und es hinterfragt die Seriösität ganz klar.
 
Der subjektive Eindruck des Users ist IMHO mehr Wert als jeder Test.
Hmmm ... am besten von jemanden, der nur ne HD4770 hat. Die ist dann subjektiv schneller als eine GTX285 und das bei besserer BQ ... woher nehmt ihr immer solchen Quatsch?
 
Ich bin zwar schnell dabei, Anandtech für ihre Artikel zu kritisieren. Und das imo auch zurecht. Ausnahmsweise können sie aber auch mal anders, wie man hier nachlesen kann.

Abseits der üblichen und bei weitem nicht immer repräsentativen Benchmark Praktiken geht es dabei um Virtualisierung und praxisbezogeneren Workloads im Vergleich zu VMmark. Während frühere Tests nahezu doppelte Performance für Nehalem suggerierten und Anandtech sich zu Aussagen wie "Xeon 54xx and anything older are hopelessly outdated virtualization platforms, and the Xeon X55xx make any other virtualization platform including the latest Opteron 'Shanghai' look silly" hinreissen liess, wird das nun klar widerlegt. Bei gleicher Taktrate liegen Shanghai und Nehalem (ohne SMT) praktisch gleichauf, Nehalem mit SMT etwa 20% vorn. Selbst Harpertown liegt nicht allzu weit dahinter.

Das sollte zum einen klar stellen, dass AMDs letzte Server Generation eben bei weitem nicht so abgeschlagen hinter Nehalem liegt. Zum anderen aber auch, dass man mit Istanbul vermutlich nicht nur gleichziehen, sondern in einigen Bereichen auch vor Nehalem liegen könnte. Zumal die interessanten nächsten Server Plattformen, San Marino und Maranello, erst noch kommen. Sockel F ist schliesslich auch schon 3 Jahre alt und HT1 mittlerweile arg am Limit.
Selbst Sockel 771 einzumotten, lohnt sich in vielen Bereichen noch nicht, da man mit Nehalem komplett wechseln müsste, für überschaubare Zugewinne.

Warum nicht immer so Anandtech?
 
Ich würde mal den Genuss von Seite 9, speziell Absatz 3 empfehlen ;)

http://it.anandtech.com/IT/showdoc.aspx?i=3567&p=9

Der Zusammenhang zwischen einerseits überraschend konkurrenzfähigen "alten" Xeons und andererseits "nur" 20% führenden Nehalems ist der Gleiche, kurz das Wichtigste:

"The effect of fast CPU interconnects, NUMA, and massive bandwidth increases will be much less in a virtualized environment where you limit each application to four CPUs. In this situation, if the ESX scheduler is smart (and that is the case) it will not have to sync between L3 caches and CPU sockets. In our native benchmarks, the application has to scale to eight CPUs and has to keep the caches coherent over two sockets. This is the first reason for the less than expected performance gain: the Xeon 5570 cannot leverage some of its advantages such as much quicker "syncing"."

Genau dieser beschriebene Interconnect zwischen den einzelnen CPUs ist beim Nehalem extrem schnell, bei den Core 2 Xeons recht langsam und beim Shanghai irgendwo im Mittelfeld und in den meisten Fällen der ausschlaggebende Punkt für die großen Unterschiede gewesen. Ist kaum Datenaustausch wie in diesem Beispiel nötig, fällt weder die Core 2 Architektur zurück, noch kann sich der Nehalem absetzen.

Mir scheint, hier wird mal wieder nur an Hand des Ergebnisses zwischen der Bewertung "gutes Review" und "schlechtes Review" entschieden... Fachlich richtig sind beide Artikel, die eben einfach unterschiedliche Anwendungsfälle darstellen.

Ergänzung: Hinzu kommt übrigens noch eine ESX Problematik, in der aktuelleren Version 4 soll der Nehalem wohl nocheinmal 25% durch die Nutzung von Extended Page Tables gewinnen können - im Gegensatz zum Shanghai.
 
Zuletzt bearbeitet:
Mir scheint, hier wird mal wieder nur an Hand des Ergebnisses zwischen der Bewertung "gutes Review" und "schlechtes Review" entschieden...
Nein. Wie ich schon schrieb, der Punkt ist, dass hier Virtualisierung weitaus praxisbezogener getestet wurde.
Und die Interconnects spielen hier auch keine Rolle. Ob du es bemerkt hast oder nicht, Anandtechs Betrachtung bezieht sich auf den Unterschied nativ vs virtualisiert. Das war aber gar nicht das Thema. Das Thema war ausschliesslich Virtualisierung bzw eben VMmark vs vApus.
Deine Einschätzung zu ESX kann ich auch nicht teilen. AMD besitzt ja ein vergleichbares Feature wie EPT, nur nennt es sich dort RVI. Und laut Anandtech bringt das zumindest unter vApus maximal 20-25%.
 
KalleWirsch schrieb:
Die Reviewer im Netz werden immer abhängiger von den Herstellern aus diversen Gründen. Vor allem weil die Werbepreise so im Keller sind. Da alle nur noch über geizhals einkaufen, bleibt oft für Werbung bei Herstellern und Händlern kein Geld mehr. Hersteller, die dann mal Werbung machen, will man auch nicht vergraulen usw.


Ich habe schon ein paar Reviews bei den Gurus geschrieben und werde dies bei Gelegenheit auch wieder tun. Als sogenannter "Insider" kann ich nur meine Sicht der Dinge präsentieren, die da wäre:

Ich habe es mir und dem Team zur Auflage gemacht, dass ich ehrlich und objektiv testen und schreiben darf, egal woher das Sample kommt. Der Tag an dem ich mein Testergebnis als Autor nicht mehr veröffentlichen darf, ist der letzte in meiner (noch kurzen) Karriere als Redakteur.

Es wird oft von solchen Abhängigkeiten gesprochen, was ich recht interessant finde. Abhängig ist nämlich nur der, der sich abhängig macht. Solange es ein Hobby-Projekt ist das Team nicht auf Gewinn sondern nur auf ein ausgeglichenes Haushaltsbuch aus ist, kann man schreiben was man möchte - so es gerechtfertigt ist. Ich habe es noch nicht erlebt, dass eine positive Wertung erwünscht oder gar erzwungen wurde. Ob das bei gewinnorientierten Unternehmen anders ist, kann ich natürlich nicht sagen.
 
Nein. Wie ich schon schrieb, der Punkt ist, dass hier Virtualisierung weitaus praxisbezogener getestet wurde.
Und die Interconnects spielen hier auch keine Rolle. Ob du es bemerkt hast oder nicht, Anandtechs Betrachtung bezieht sich auf den Unterschied nativ vs virtualisiert. Das war aber gar nicht das Thema. Das Thema war ausschliesslich Virtualisierung bzw eben VMmark vs vApus.

Bitte nochmal lesen. Es steht doch genau da:

"The effect of fast CPU interconnects, NUMA, and massive bandwidth increases will be much less in a virtualized environment where you limit each application to four CPUs."

Bei dieser Begrenzung brauchst du praktisch keinerlei Datenaustausch zwischen den einzelnen CPUs. Genau das ist aber der Pluspunkt des Nehalem und der Minuspunkt der Core 2 - Vorgänger. Und so, oh Wunder, liegt der eine weitaus weniger als gewohnt vorne, der andere weitaus weniger als gewohnt zurück.

Deine Einschätzung zu ESX kann ich auch nicht teilen. AMD besitzt ja ein vergleichbares Feature wie EPT, nur nennt es sich dort RVI. Und laut Anandtech bringt das zumindest unter vApus maximal 20-25%.

RVI war bei Shanghai bereits aktiv. Dessen knapp 20% (wo siehst du 25%?) sind also schon "drin".
 
Zuletzt bearbeitet:
Na da müssen wir aber die Frage klären ob es denn üblich oder unüblich ist jeder Applikation maximal 4 CPUs zuzuweisen.

Wie ich es auffasse, scheint das relativ üblich zu sein in einer normalen Virtualisierungsumgebung und damit sieht der Nehalem unter realen und normalen Bedingungen halt nicht mehr so gut aus wie noch beim "optimierten" VMark.
 
Das träfe dann in gleicher Weise aber auch auf die guten Ergebnisse der Core 2 - Xeons zu. Die EPT-Problematik bleibt davon natürlich unbeeinflusst, mit ESX 4 sind es damit dann etwa 40-50% Vorsprung des Nehalem bei gleichem Takt.
 
Wobei wiederum ESX4 praktisch nicht genutzt wird und momentan real ESX 3.5 der Standard ist.

Der Test zeigt nur das diese "100% schneller" VMark Benches einfach nur aufgeblasen sind. Unter realen Bedingungen ist ein Nehalem ca. 20-30% schneller als ein Shanghai aber dafür auch deutlich teurer. Bei gleichbleibenden Bedingungen wird dann der Istanbul wiederum schneller sein.

Es geht nur darum das der Nehalem halt doch nicht von einem anderen Stern kommt wenn es um Virtualisierungsleistung geht gegenüber der Konkurrenz, was bisher gerne suggeriert wurde.
 
Wer sagt das ESX 4 nicht genutzt wird? Die Zukunft, und deinen Server nutzt du ganz sicher mehr als die nächsten 2 Wochen, ist es ganz klar. Genauso wie die Anzahl der Kerne pro VM immer weiter steigt, weil du ganz einfach immer mehr Kerne zur Verfügung hast, aber nicht immer in gleichem Maße mehr VMs.

Das die Core 2 wie Shanghai-Server bei bisherigen Szenarien dagegen noch recht gut dastehen, ist doch ein völlig anderer Punkt.
 
@Undertaker
Lies du doch bitte erstmal sorgfältig.
It seems like all the advantages of the new platforms such as fast CPU interconnects, NUMA, integrated memory controllers, and L3 caches for fast syncing have evaporated. In a way, this is the case. You have probably noticed the second flaw (besides ignoring the hypervisor) in the reasoning above. That second flaw consists in the fact that the "native scores" in our server CPU roundup are obtained on eight (16 logical) physical cores.
Erstmal bezieht sich Anandtechs Vergleich auf Harpertown und nicht Shanghai. Schnellere Interconnects, NUMA, IMC und L3 hat AMD nämlich genauso. Und der zweite Grund ist lediglich die Erklärung, wo Unterschiede nativ vs virtualisiert entstehen. Das hat alles erstmal grundsätzlich nichts mit der Virtualisierung von Shanghai und Nehalem zu tun. Dafür sind die Infrastrukturen zu ähnlich.
Auch mit deiner Bemerkung zu den 4 CPUs hast du wohl etwas falsch verstanden. Hier wurden 4 VMs zu je 4 CPUs getestet, sozusagen 16 virtuelle CPUs. Das ist praktisch wie gemacht für einen 2P Nehalem Server. Dass Nehalem hier irgendwo "begrenzt" werden würde, kann ich nicht nachvollziehen. Ein System für native Nutzung kann logischerweise mehr als diese 4 CPUs nutzen, aber das ist auch nicht Sinn des Artikels bzw von Virtualisierung.
So wie ich das dem Artikel entnehme, entstehen die Unterschiede eben dadurch, dass vApus deutlich praxisbezogenere Workloads testet.

RVI war bei Shanghai bereits aktiv. Dessen knapp 20% (wo siehst du 25%?) sind also schon "drin".
Also exakt hat Anandtech 22% ermittelt. Und das liegt für mich zwischen 20 und 25%. Wo siehst du knapp 20%?
Und dass RVI aktiv war, geht aus dem vorherigen Test auch nicht zweifelsfrei hervor. Oder ich habe irgendetwas übersehen. So wie ich das den Kommentaren entnehme, ist RVI bei Version 3.5 default off, oder zumindest was 32 Bit Hosts betrifft. Erst mit Version 4 soll das wohl automatisch aktiviert werden. Anandtech testete zudem eine inoffizielle VMmark Version. Auch da bleiben Zweifel.
Lange Rede, kurzer Sinn. Du kannst erstmal nicht davon ausgehen, dass Shanghai mit Version 4 nicht auch zulegen kann.

Das träfe dann in gleicher Weise aber auch auf die guten Ergebnisse der Core 2 - Xeons zu.
Das kommt noch hinzu, richtig. Auch der ist bei weitem nicht so abgeschlagen gegenüber Nehalem. In gewisser Weise spiegelt sich zumindest ansatzweise die Situation im Client Bereich wieder.

Die EPT-Problematik bleibt davon natürlich unbeeinflusst, mit ESX 4 sind es damit dann etwa 40-50% Vorsprung des Nehalem bei gleichem Takt.
Wie gesagt, das ist erstens zweifelhaft und zweitens wohl irrelevant. Istanbul steht ja praktisch vor der Tür. Der sollte auch einiges mehr an Performance haben.
 
@Undertaker
Lies du doch bitte erstmal sorgfältig.

Erstmal bezieht sich Anandtechs Vergleich auf Harpertown und nicht Shanghai. Schnellere Interconnects, NUMA, IMC und L3 hat AMD nämlich genauso.

Und genau in diesem Punkt der Anbindung ist der Nehalem nocheinmal deutlich schneller als der Shanghai. Es ist eine schöne Analogie, dort wo sich Shanghai von Harpertown absetzen kann, liegen auch die großen Vorteil der Nehalem-Reihe.

Auch mit deiner Bemerkung zu den 4 CPUs hast du wohl etwas falsch verstanden. Hier wurden 4 VMs zu je 4 CPUs getestet, sozusagen 16 virtuelle CPUs.

Nein, denn genau das ist doch der Punkt! Keine VM muss auf Ressourcen mehrerer CPUs zugreifen. Ist das der Fall - praktisch durchaus relevant, wenn eine besonders Leistungsfressende VM einen Großteil der Ressourcen erhält - spielt aber genau diese Zugriffsgeschwindigkeit die Hauptrolle der resultierenden Performance. Mögliche Ergebnisse in einem solchen Szenario hat der erste Test von Anandtech gezeigt.

So wie ich das dem Artikel entnehme, entstehen die Unterschiede eben dadurch, dass vApus deutlich praxisbezogenere Workloads testet.

Oder eben praxisfernere. Das einzig korrekte Adjektiv in diesem Zusammenhang ist "andere".

Also exakt hat Anandtech 22% ermittelt. Und das liegt für mich zwischen 20 und 25%. Wo siehst du knapp 20%?

"The effect of RVI is pretty significant: it improves our vApus Mark I score by almost 20%."

almost = beinahe ;)

Und dass RVI aktiv war, geht aus dem vorherigen Test auch nicht zweifelsfrei hervor. Oder ich habe irgendetwas übersehen.

Hast du:

"The table below tells what mode the VMM (Virtual Machine Monitor), a part of the hypervisor, runs. To refresh your memory:"

Dann die Tabelle Seite 9, sowie:

"Thanks to being first with hardware-assisted paging, AMD gets a serious advantage in ESX 3.5: it can always leverage all of its virtualization technologies."

Und auf Seite 8:

"All tests run on ESX 3.5 Update 4 (Build 153875), which has support for AMD's RVI. It also supports the Intel Xeon X55xx Nehalem but has no support yet for EPT."

RVI war an.

Lange Rede, kurzer Sinn. Du kannst erstmal nicht davon ausgehen, dass Shanghai mit Version 4 nicht auch zulegen kann.

Das bestreitet auch keiner, dazu braucht es Benches. Es geht nur um den Punkt RVI/EPT: Bringt ~20/25%, war an/aus. Das Version 4 darüber hinaus nun weitere Performanceverbesserungen durch andere Optimierungen bringen kann steht außer Frage, aber die könnten sowohl pro Nehalem als auch pro Shanghai sein, für beide oder für keinen - das ist ein vollkommen anderer Punkt. Bitte nicht vermischen.
 
Und genau in diesem Punkt der Anbindung ist der Nehalem nocheinmal deutlich schneller als der Shanghai.
Ohne konkrete Belege ist so eine Aussage nichts wert. Ich gehe auch mal davon aus, dass dem nicht so ist. Womit Nehalem gegenüber Shanghai Vorteile hat, ist eigentlich vor allem Bandbreite und Speicher. Opterons sind momentan ja immer noch an HT1 und DDR2 gebunden.

Nein, denn genau das ist doch der Punkt! Keine VM muss auf Ressourcen mehrerer CPUs zugreifen.
Und was genau soll das mit VMmark vs vApus zu tun haben? So wie ich das verstehe, kamen bei VMmark 6 VMs zum Einsatz, bei vApus 4. Keine VM muss also bei ausreichend cleverer Anwendungslogik, was ich einfach mal voraussetze, auf mehrere Prozessoren zugreifen. Weder bei VMmark noch bei vApus.
Generell dürfte die Interprozessorkommunikation aber auch nicht der entscheidende Punkt sein. Es dürfte eigentlich nur wenige Szenarien geben, wenn überhaupt, wo pro VM mehr als ein Prozessor bei einem 2P System genutzt wird. Auf solchen Systemen laufen idR mehrere VMs, so dass das Verhältnis eher Richtung eine VM pro Kern tendiert.
Systeme werden zudem so konfiguriert, dass hier ungünstige Szenarios vermieden werden. Und Features wie NUMA helfen auch dabei, die Kommunikation so gering wie möglich halten.
Anstatt dich verzweifelt an diesen Punkt zu klammern, lies dir lieber mal Seite 2 und 3 durch. Da wird näher darauf eingegangen, wodurch die Unterschiede zustande kommen.

Oder eben praxisfernere. Das einzig korrekte Adjektiv in diesem Zusammenhang ist "andere".
Wenn zB SPECjbb weniger als 1% den Hypervisor in Anspruch nimmt, hat das für mich wenig mit der Praxis zu tun. Das schreibt ja auch Anandtech zurecht. Ich möchte den Entwicklern von vApus grundsätzlich auch erstmal keine Inkompetenz unterstellen.

"The table below tells what mode the VMM (Virtual Machine Monitor), a part of the hypervisor, runs. To refresh your memory:"

Dann die Tabelle Seite 9, sowie:

"Thanks to being first with hardware-assisted paging, AMD gets a serious advantage in ESX 3.5: it can always leverage all of its virtualization technologies."

Und auf Seite 8:

"All tests run on ESX 3.5 Update 4 (Build 153875), which has support for AMD's RVI. It also supports the Intel Xeon X55xx Nehalem but has no support yet for EPT."

RVI war an.
Das steht aber nirgendwo explizit. Nur weil Support vorhanden ist, muss RVI noch lange nicht aktiv gewesen sein. Dazu auch ein Kommentar unter dem Artikel:
I was under the impression that ESX now choses RVI+SVM automatically, but that might have been ESX 4.0. I am going to check again on monday
Anandtech ist sich also selbst nicht sicher.

Das bestreitet auch keiner, dazu braucht es Benches. Es geht nur um den Punkt RVI/EPT: Bringt ~20/25%, war an/aus. Das Version 4 darüber hinaus nun weitere Performanceverbesserungen durch andere Optimierungen bringen kann steht außer Frage
Es geht nicht um das "darüber hinaus". Der RVI Support selbst kann, auch wenn er schon vorher aktiv gewesen sein sollte, trotzdem noch Verbesserungen bringen. Wie gesagt, Anandtech hat keine offizielle VMmark Version getestet.
 
Zuletzt bearbeitet:
Ohne konkrete Belege ist so eine Aussage nichts wert. Ich gehe auch mal davon aus, dass dem nicht so ist. Womit Nehalem gegenüber Shanghai Vorteile hat, ist eigentlich vor allem Bandbreite und Speicher. Opterons sind momentan ja immer noch an HT1 und DDR2 gebunden.

Du sagst es doch selbst, nur HT1. Punkt erkannt?

Und was genau soll das mit VMmark vs vApus zu tun haben? So wie ich das verstehe, kamen bei VMmark 6 VMs zum Einsatz, bei vApus 4. Keine VM muss also bei ausreichend cleverer Anwendungslogik, was ich einfach mal voraussetze, auf mehrere Prozessoren zugreifen. Weder bei VMmark noch bei vApus.

Und nochmal nachdenken. Nehmen wir an:

a) alle 6 VMs benötigen die gleiche Leistung

-> Jede bekommt bei einem 4-Sockel-System 1,5 CPUs. -> Keine Anwendungslogik kann hier Transferbedarf verhindern

b) eine "Killer-Applikation" frisst den Großteil der Leistung (praktisch wie bereits erwähnt durchaus relevant, viele VMs virtualisieren nur "Kleinkram")

-> Lass diese 50-75% der Gesamtleistung einnehmen, in jedem Fall muss bei Werten >25% die Last auf verschiedene Sockel verteilt werden -> Kommunikationsaufwand

Das steht aber nirgendwo explizit. Nur weil Support vorhanden ist, muss RVI noch lange nicht aktiv gewesen sein. Dazu auch ein Kommentar unter dem Artikel:

Anandtech ist sich also selbst nicht sicher.

Das ist die Defaulteinstellung. Noch einmal, im Test war es aktiv:

"The table below tells what mode the VMM (Virtual Machine Monitor), a part of the hypervisor, runs. To refresh your memory:"

Frei übersetzt, "Die Tabelle sagt dir, welcher Modus benutzt wurde". Eindeutiger geht es nicht. 20% Plus für den Shanghai, die Nehalem (bzw soll es dort sogar noch mehr sein) erst in ESX 4.0 erreicht.

Es geht nicht um das "darüber hinaus". Der RVI Support selbst kann, auch wenn er schon vorher aktiv gewesen sein sollte, trotzdem noch Verbesserungen bringen.

Genauso kann die 4.0 noch weitere Nehalem-spezifische Optimierungen aufweisen. RVI war in diesem Test an, EPT nicht. Shanghai hat davon ~20% profitiert. Dieser Profit fehlt dem Nehalem in jedem Fall noch, weitere Optimierungen darüber hinaus sind ein völlig_anderer_Punkt.
 
Muah...flame..alle reden keiner macht ;-)

LOL.. also zwische den Zeilen lese ich immer wieder geflame oder meine ich das nur?

Ich hab nicht wirklich viel Ahnung von Benches, besonders weil ich ausser die letzte Woche nie gebencht habe, weil mir die resultate schon immer vom Gefühl her komisch vorkamen, was aber keine unterstellung war und ist, hab seit zig Jahren keinen Intel mehr und kann daher die Resultate nicht selbst privat nachvollziehen, und meine Arbeitszeit ist zu kostbarauf der ARbeit um die Intels zu checken.

Zu den Tests : Ich pers. könnte nicht nachvollziehen, was jetzt so ein Prog testet und was nicht, und wie es testet... wie schon einer sagte, Auch tester haben meist keine ahnung, und würde selbst mit dem Quellcode nichts anfangen können.

Beeindruckend fand ich bisher aber wirklich immer die Testsysteme.. Das AMD benachteiligt ist unterschreibe ich dahingehend selbst als AMD-Fan nur bedigt,
weil ich nachvollziehen kann, das eine 100% übereinstimmung der Testsysteme nicht gegeben sein kann. Das fängt beim Motherboard an, führt über den Chipsatz, und hört beim Speicher auf.

Bei "Labor-Tests" über OC-Ergebnisse und Wärmeabgabe erwarte ich natürlich entsprechende Hardware, die beideitig gleich ist.. also selber Radi, selber Lüfter, selbe Pumpe, selbe Raumtemperatur, selbe Wassertemperatur.. alles andere ist für mich kein Test, sondern nur was geschrieben um seine beiträge voll zu bekommen ggf. die Redaktion zu beeindrucken mit wenig arbeit.

Zu den Tests über Leistung, muss natürlich ei angemessenes System her halten.. also ein I7 auf einem MoBo von 170 Euro von DFI gegen eine P2X4 auf einem Mobo von Biostar für 50 Euro und jeweils noch am besten andere Speicherriegel darfs nicht geben, und sobald ich sowas lese, ist die gewisse Platform für mich gestorben und wird aus den Favoriten gelöscht und evtl. Abos abbestellt ggf. sofort fristlos gekündigt, und ich besitze keine Abos mehr.. weder von PC-Welt, noch von Chip, PC-games usw ;-)

Zu den Benches wovon ich gleich 0 Ahnung habe kann man sich streiten..ich überfliuege die Tests meistens nur... aber wenn wirklich nötig, warum setzt sich nicht einer hin, und schreibt ein Benchprogramm was zu 100% sicher ist?
Wo es egal ist, das der I7 gecheatet wird oder was ich da mals gelesen habe, und die Physics von NVidia eigeschaltet wird. Wäre besser als ständig Schuldzuweisungen zu machen. Auch wenn mein CPU oft schlecht dasteht kann ich keine Schuldzuweisungen machen...

1000 mal hab ich nachgefragt, und ich habe zig Programme gehört die ok sein sollen, aber wo dann doch wieder gesagt wurde, das ist falsch ud benachteiligt den und den. Was für ein Programm soll man also holen, wenn es keins gibt, was zu 100% richtig benched, und solange jeder rumflamed das das jeweilige Prog scheisse ist sag ich nicht das die oder die adere Platform scheiss erzählt, weil sie keine Wahl haben.. Benches werden erwartet und egal mit was man benched, es wird immer Typen geben die in der Wunde rumstochern... Also solange sich keine hinsetzt und was gutes Programmiert brauch man gar nicht zu diskutieren was gemacht werden müsste, sodern man sollte es einfach dann tu wenn man es besser weis... ich wüsste es dank meiner 0-Ahnung icht was man tun muss was Benchen angeht und darauf bin ich stolz... unwissenheit kann schon ein trost sein ;-)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh