Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte ersten post lesen

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
AMD kann ja gerne das gleiche veranstalten.

Abgesehen davon das AMD das nicht so einfach wie Nvidia veranstalten kann, da sie nicht bei so vielen Spieleschmieden bzw. Titeln die Finger drin haben. Wünscht man sich als User/Leser/Konsument wirklich solche Methoden? Wollen wir uns wirklich auf solch ein Niveau einstellen und in Zukunft noch mehr hinters Licht führen lassen als ohnehin schon? Also ich habe keinen Bock drauf, dass sich sowas einbürgert und Testmagazine zu Marketinghuren für Hersteller mit dicker Kohle und Einfluss verkommen.

Deshalb halte ich hier Gleiches mit Gleichem "vergelten" für wenige angebracht und sehr kurzsichtig.
 
Zuletzt bearbeitet:
Lustig bei HWL finde ich die Balken :)

ZB 6 FPS Unterschied sind visuell so dargestellt als wären es 50 FPS :stupid:

 
Abgesehen davon das AMD das nicht so einfach wie Nvidia veranstalten kann, da sie nicht bei so vielen Spieleschmieden bzw. Titeln die Finger drin haben. Wünscht man sich als User wirklich solche Methoden? Wollen wir uns wirklich auf solch ein Niveau einstellen und in Zukunft noch mehr hinter Licht führen lassen als ohnehin schon? Also ich habe keinen Bock drauf das sich sowas einbürgert und Testmagazine zu Marketinghuren für Hersteller mit dicker Kohle und Einfluss verkommen.

Deshalb halte ich hier Gleiches mit Gleichem "vergelten" für wenige angebracht.



Falls AMD auch mit einem neuen Treiber daherkommt mit solchen Verbesserungen, sofern die Ergebnisse korrekt sind und die Spiele halbwegs aktuell, dann nur zu. Ich will nur sehen wie schnell die Karten wirklich sind.
 
Zuletzt bearbeitet:
Hmm, die Veröffentlichung von Test von verschiedenen Magazinen mit fast den selben Spielen etc. ist mehr als nur ein reiner Zufall. Ich finds net OK und es zeigt wie tief Nvidia schon gesunken ist, wenn man bedenkt was die noch für große Töne am Anfang des Jahres spukten.
Aber irgendwie vermisse ich PCGH. ;)
 
Lustig bei HWL finde ich die Balken :)

ZB 6 FPS Unterschied sind visuell so dargestellt als wären es 50 FPS :stupid:

Das ist leider bedauerlich das hier "unabhängige" Seiten solche Marketingtricks (verschieben der Skala um den "Abstand" deutlich größer Erscheinen zu lassen) mitmachen.
 
Zuletzt bearbeitet:
Lustig bei HWL finde ich die Balken :)

ZB 6 FPS Unterschied sind visuell so dargestellt als wären es 50 FPS :stupid:



Ich hab mich totgelacht als ich die langen Balken sah wenn die Grafik breiter gewesen
wär hätten se noch länger machen können. :haha::haha::haha:
Wenn der kein Weihnachtsgeld von Nvidia bekommt wärs gemein. :haha::haha::haha:
 
Zuletzt bearbeitet:
Ich würd einfach ne grössere Bandbreite an verschiedenen Tests (Testseiten) ranziehen ,anstatt nur 3-4 und dann eben darüber entscheiden oder eben ne Meinung bilden.
Bleibt ja sonst einem nix übrig.

Und wenn es dann immer noch besser aussieht für den einen oder anderen dann ists eben so,auch wenn das eine oder andere Spiel/die Anwendung eher für den Prozessor/Befehlsatz optimiert worden ist.

Bei einem gesunden Menschenverstand erkennt man auch sehr schnell ob ein Balken obwohl 1-2% Unterschied extra lang gemacht wurde oder nicht.
Das Problem ist nur bei Neukunden die sich überhaupt garnicht mit der Materie auseinander gesetzt haben,wobei auch in der normalen Werbung hier und da getrickst wird.

Wenn man genug kritisch gegenüber allem ist gibts da keine Probleme.
 
Zuletzt bearbeitet:
O M G

Das ist ja echt das Allerletzte. Vor allem, offensichtlicher gehts ja gar ncht mehr.
Die gleichen Tests von verschiedenen Redaktionen am gleichen Tag mit dem selben
"überragenden" Ergebnis für die Nvidia Grafikkarten.

Ich find's einfach nur widerlich, dass Nvidia zu solchen Maßnahmen greift.
Selbst schuld, dass der GT200 nicht das ist, was sie sich vielleicht erhofft haben.

Und von HWL hätte ich diese Verarschungsbalken nun auch nicht gerade erwartet...
 
Zuletzt bearbeitet:
Anstatt hier wieder wild rumzuspekulieren und Verschwörungstheorien aufzustellen wie böse ja Intel ähh NVidia doch ist, sollte man lieber mal abwarten bis sich jemand entsprechendes dazu äußert, sei es nun von CB oder HWLuxx, evtl schaut ja mal jemand der Verantwortlichen hier vorbei..
 
Problem ist doch eigentlich die Informationspolitik der Hardwareseiten und nicht das Verhalten von Nvidia, einen neuen Treiber, Hardware und noch nicht releasete Spiele zur Verfügung zu stellen - die Reviewseiten waren nicht an Qualitätssettings gebunden, konnten nach freier Wahl weitere Gegner aufstellen oder weitere Spiele testen. Die Zahlen wurden unabhängig ermittelt und spiegeln das reale Leistungsbild zum jetzigen Zeitpunkt und in diesen Spielen wieder.
Insofern relativiert sich das Bild doch wieder, gerade nachdem jetzt auch endlich ein paar Stellungnahmen gefolgt sind - wie manche hier gleich wieder von Verschwörungstheorien und Geldflüssen spekulieren ist doch reichlich lachhaft. Viel verwerflicher finde ich im übrigen die immer mehr in Mode kommenden "Benches" unter Aufsicht und auf vom Hersteller gestellten Gesammtsystemen.
 
Anstatt hier wieder wild rumzuspekulieren und Verschwörungstheorien aufzustellen wie böse ja Intel ähh NVidia doch ist, sollte man lieber mal abwarten bis sich jemand entsprechendes dazu äußert, sei es nun von CB oder HWLuxx, evtl schaut ja mal jemand der Verantwortlichen hier vorbei..

Vergiss es, da äußert sich keiner zu.
 
Hier auch: http://www.bjorn3d.com/read.php?cID=1414

Wird wohl mit dem Treiberrelease 180.48 zusammenhängen, der einige performance Steigerungen verspricht. Sieht man doch daran, dass die Tests mit 180.47 gemacht wurden, dürfte ja im wesentlichen der gleiche sein. NVIDIA hat sich da wahrscheinlich ein paar Vorgaben ausgedacht, im Gegenzug bekamen die reviewer den 180.47 und die reviewer durften loslegen. In den getesteten Spielen sind die NVIDIA Karten dann einfach so schnell wie es aussieht. AMD kann ja gerne das gleiche veranstalten.
Jetzt überlege mal...
Wenn ATi das mit der 2900XT gemacht hätte, wäre die wohl besser verkauft worden. Denn bei vorgaben ohne AA und hohes AF wäre die in ATi-Games immer auf Augenhöhe mit der 8800GTX gewesen.

Siehe hier, wo HL2 noch unter ATi stand^^
http://www.computerbase.de/artikel/...adeon_hd_2900_xt/21/#abschnitt_hl2_lost_coast

Nein, ich will so etwas nicht!
 
und warum haben dann alle seiten die gleichen setups?
 
Und bevorzugt wird auch keiner. Bin ja selbst Nutzer von AMD CPU, aber als AMD noch einen klaren Leistungsvorsprung vor Intel hatte, wurden die meisten Test auch mit AMD Prozessoren gemacht.
Es ist nun mal so das die Tester immer das schnellste und beste Material verwenden, das zu diesem Zeitpunkt auf dem Markt verfügbar ist ;)
 
Wenn man mal nicht nur selektierte Spiele anschaut, sieht der neue tolle Wundertreiber doch nicht so toll aus:

http://www.anandtech.com/video/showdoc.aspx?i=3462&p=4

Nix von allgemeinem davonziehen der GTX260 gegenüber der 4870. Reine Momentaufnahme bei von ATI noch nicht optimierten Spielen. Die wahre Leistung zeigt sich bei den leicht älteren aber von NV und ATI ausgereizten Spielen.
 
Also bringt der Treiber wieder nur einige Shaderreplacements und das wars. NV-Treiber sind für gewöhnlich schon von Anfang an zu 95% an der max-Performance, auch bei ATI werden die Steigerungen immer geringer. Sprünge wie bei der x1000 Serie sind bei neueren Karten wohl nicht mehr zu erwarten. Wenn man bedenkt, dass die x1900 mittlerweile doch recht nah an der 8800GTX ist - das ist schon hart. Die X1900XTX ist meiner persönlichen Erfahrung nach auch schneller als die HD2900XT bei vielen Apps.
 
Zuletzt bearbeitet:
Recht nah heißt verhältnismässig nah, nicht gleich ;). Das ist kein Blödsinn. Die kloppt sich heutzutage mit der alten GTS. Ist beides total outdated.
 
Recht nah heißt verhältnismässig nah, nicht gleich ;). Das ist kein Blödsinn. Die kloppt sich heutzutage mit der alten GTS. Ist beides total outdated.


Dann belege dies mal wo und in welchen Spielen. Wohin man auch schaut, der Abstand der X1900 zur 8800 GTX ist riesig.
 
Man muss nur mal einen Blick auf die neueren Spiele werfen, UT3 oder Stalker z.B. im Fall von CB:

http://www.computerbase.de/artikel/...eon_hd_3650/16/#abschnitt_unreal_tournament_3

Unter 1600x1200 mit AA/AF 90% Rückstand auf eine 8800GTX - der übliche Generationssprung eben. In alten Games, wo die Leistung allerdings auch kaum gebraucht wird, steht sie natürlich noch etwas besser da. Eine X1900XT sollte übrigens nocheinmal bis zu >20% hinter der X1950XTX liegen, speziell mit AA.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh