Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte Anfang lesen [2|1]

Status
Für weitere Antworten geschlossen.
Es wird halt gerade das hitzig diskutiert, wo NV überhaupt noch die Nase vorne hat. Was reine Preis/FPSLeistung angeht macht doch NV nirgendwo mehr einen Stich. Woran soll sich denn ein NV Fan noch festhalten, wenn nicht am Stromverbrauch, Cuda/PhysX und die angeblich bessere "Bildqualität".

Zu 3870 Zeiten hat sich niemand dafür interessiert das diese im IDLE deutlich sparsamer war als eine 8800GT. Da wurde das Argument genauso gekonntert wie heute das ATI Lager argumentiert: man kann manuell heruntertakten und dann ist z.B. eine 4870 sparsamer im idle als eine GTX260.

Mich würde mal interessieren wer wirklich dafür verantwortlich war das die News geändert wurde. Einsicht einen Fehler gemacht zu haben scheint es jedenfalls nicht gewesen zu sein was mich böses für die nächsten Grafikkartentests ahnen lässt.

Aber wenn wir schonmal bei dem Thema sind:

http://www.tomshardware.com/de/Grafikkarten-Vergleich,testberichte-240338-12.html

THG tut sich mal wieder mit Rosinenpicken heraus indem ein schrottig bewertetes, miserables Spiel neu in den Benchmarkparcour gekommen ist und jeder der die Ergebnisse sieht, weiß warum das der Fall ist. Auch witzig wie sich der Autor in den Kommentaren versucht herauszureden er könne ja nichts für die "katastrophalen" ATI Treiber.

Das aber genauso Nvidia Probleme bei manchen Spielen hat

http://www.computerbase.de/artikel/...iele_direct3d_101_test/7/#abschnitt_stormrise

wird geflissentlich ignoriert um die Mär von den oh so tollen und optimierten nvidia treibern und den oh so schlechten und außer bei top titeln grottigen ati treibern zu nähren.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zu 3870 Zeiten hat sich niemand dafür interessiert das diese im IDLE deutlich sparsamer war als eine 8800GT. Da wurde das Argument genauso gekonntert wie heute das ATI Lager argumentiert: man kann manuell heruntertakten und dann ist z.B. eine 4870 sparsamer im idle als eine GTX260.

Mittlerweile scheint aber sogar das Problem mit dem Bildflackern behoben zu sein, es gibt zumindest von Sapphire ein Bios für die HD4870 welches Speichertaktänderungen ohne Bildflackern zulassen soll...
Also demnach würde ein anpassen der idle Speichertaktraten nix im Weg stehen, was die HD4870 dann wohl knapp über einer 260GTX (216) 55nm Karte platzieren dürfte...

Flächendecked kann man aber wohl vom User kein Biosflash verlangen...
 
angeblich bessere "Bildqualität"

Die Qualität ist definitiv besser, Stichwort brilineare Filterung - das ist aber wie schon beim G70/71 immer eine Frage des persönlichen Anspruches. Ich hatte/habe G71 wie RV770 und in beiden Fällen kein Problem mit der Bildqualität.

Zur Zeit sind die Angebote im Bereich der HD4870/4890 bzw. GTX260/275 doch ziemlich ähnlich:

HD4870 und GTX260/216 kosten nahezu gleich viel und sind nahezu gleich schnell. Die GTX bietet etwas mehr OC-Spielraum, den geringeren Verbrauch und Vorteile bei der Bildqualität (Hybridmodi und Filterung), die HD schnelles 8xMSAA (was allerdings nur arg begrenzte Vorteile zu 4xMSAA besitzt), die Features (DX 10.1 vs. PhysX) nehmen sich wenig - imho ein kleiner Vorteil für die GTX insgesamt.

Die GTX275 büßt verglichen zur HD4890 den Verbrauchsvorteil unter Last ein und kostet auch ein wenig mehr, liegt dafür aber auch etwas vor der Leistung der Konkurrenz. Allerdings nicht viel, hier ist wohl die HD4890 leicht im Vorteil.

Je nach Gewichtung verschiedener Faktoren - z.B. Leistung @ OC, Stromverbrauch, Treibereigenarten - liegt mal die eine und mal die andere Karte vorne, ein klarer P/L Sieger lässt sich nicht ausmachen.
 
Also sowas ist mir noch nie auf gefallen ich fühle mich betrogen und verarscht ich dachte das es ein paar boards gibt die unabhängig testen aber das dann auch noch ungleiche sogar schlechtere Hardware bei AMD Tests verwendet wird ist eine Sauerei und ich finde wenn wirklich intel dahinter steckt solten sie sich schämen wenn sie so überzeugt von sich sind haben sie sowas nicht nötig möge der bessere gewinnen!

@redfirediablo

:d das die dich bannen hätte ich dir direkt sagen können is ja klar wenn man sowas über ein Board erzählt aber was heißt unbelegt?
Alle deine zweifel hast du irgendeinen Artikel oder Thread und das sie bei AMD andere Hardware verwendeten steht ja auser frage...
Was ich die höhe finde das nur weil die ATI billiger sind sie direkt als Qualitativ schlechter hingestellt werden, statt das er sagt das AMD/ATI mit ihren günstigen Preisen gegen NV halten wollen....

aber hier in den test sieht man das meine cpu wohl übelst bremsen muss xD ist immer letzte naja is ja scho alt.
 
Zuletzt bearbeitet:
@ Undertaker

Du hast das Spulenfiepen beim Vergleich vergessen ^^

Trifft zwar scheinbar nicht alle aber ich will nicht wissen bei wie vielen, die meinen ihre fiept nicht, mittlerweile schon das Hörvermögen es gar nicht mehr zulässt diese Frequenzen wahrzunehmen. Die Jugend von heute ;-)

Desweiteren ist die GTX260 tatsächlich Karte von NV die noch am besten gegenüber der Konkurenz dasteht. Alles was darüber und vor allem alles was darunter kommt stinkt gewaltig ab. Es ist immer das gleiche Spiel: 1-2% Mehrleistung für einen deutlichen Aufpreis bei NV.

Selbst die GTX275 ist doch nur eine Alternative für NV Liebhaber wenn die 4890 für 173 Euro über den Tresen geht.

Mir wäre mal ein Kommentar über den THG Artikel lieb, würde auch dem Thema des Threads näherkommen.
 
Zuletzt bearbeitet:
@ Undertaker

Du hast das Spulenfiepen beim Vergleich vergessen ^^

Trifft zwar scheinbar nicht alle aber ich will nicht wissen bei wie vielen, die meinen ihre fiept nicht, mittlerweile schon das Hörvermögen es gar nicht mehr zulässt diese Frequenzen wahrzunehmen. Die Jugend von heute ;-)

Dann fiepen ja vielleicht auch die Radeons, und es hört nur keiner? ;)

Selbst die GTX275 ist doch nur eine Alternative für NV Liebhaber wenn die 4890 für 173 Euro über den Tresen geht.

Allerdings ist dann auch eine OC-260GTX für <150€ attraktiver als die HD4890...
 
Ich hatte bisher zwei Radeon HD 4870 und eine GTX260² im Rechner und letztere konnte man aus 5m Entfernung noch als störend warnehmen die Radeons hingegen waren lautlos. Bei der GTX funktionierte mit zwei Monitoren das heruntertakten im Idle nicht somit war die Karte dann nicht mal mehr sparsamer als die HD 4870. Bei den GTX260 in 55nm Fertigung ist das Spulenpfeiffen eher die Regel als eine Ausnahme das kann jeder in den entsprechenden Sammelthreads nachlesen. Der GT200 ist meiner Meinung nach sowieso ein Flop, ist prinzipiell ein größerer GT92. Der RV770 der deutlich weniger Transistoren beherbergt arbeitet unter Volllast sparsamer, hat eine deutlich höhere Single- und Double Precision Rechenleistung. In meinen alten Core i7 System lief die Radeon HD 4870 bei jeden Spiel und bei jeder Auflösung schneller als die GTX260 auch wenn es hierbei auch an der Plattform lag aber im Endeffekt zählt was schneller ist.
 
Zuletzt bearbeitet:
Bitte nicht mit "die Nvidias" kommen. Laut CB-Umfrage fiepen 40% überhaupt nicht, von den fiependen ist nur rund die Hälfte auch 2D oder bei niedrigen Frameraten betroffen. Und bitte nicht Pseudo-Argumente von wegen die Leute hören es nicht, darauf war meine Antwort bezogen.

Nun, was soll ich zu THG sagen? Das Spiel kenne ich nicht, aber der Benchmark läuft bei mir recht gut, also wirklich ein Treiberproblem.
 
Zuletzt bearbeitet:
Jungs ihr dreht Euch mal wieder im Kreis:

Die Aussage, das alle GTX-2** fiepen, ist Unfug. Diskussionslos.

Warum Unfug?

Ich hatte:

3x GTX260 216SP 65nm, XFX & Zotac
2x GTX280, Gainward & XpertVision
2x GTX285, PNY & EVGA

Alle waren Referenz Nvidia Design

Alle Karten haben gefiept, die 55nm Modelle fiepen sogar noch stärker

Das wird jetzt auch nicht besser, wenn jeder seine Meinung auf jeder Seite 3x kundtut.

ciao

Alex
 
Zuletzt bearbeitet:
Bitte nicht mit "die Nvidias" kommen. Laut CB-Umfrage fiepen 40% überhaupt nicht, von den fiependen ist nur rund die Hälfte auch 2D oder bei niedrigen Frameraten betroffen. Und bitte nicht Pseudo-Argumente von wegen die Leute hören es nicht, darauf war meine Antwort bezogen.

Nun, was soll ich zu THG sagen? Das Spiel kenne ich nicht, aber der Benchmark läuft bei mir recht gut, also wirklich ein Treiberproblem.

Sorry aber die CB-Umfrage kannste auch net mitzählen, die is nicht repräsentativ:kotz:
 
Das ist jetzt auch einseitig betrachten und nur die halbe "Wahrheit", wenn überhaupt. Unter Last ist eine HD4890 z.B. ein gutest Stück sparsamer als eine GTX275 (die fast den Verbrauch einer GTX280/285 besitzt), im Idle ist eine GT200-Karte natürlich sparsamer.
Wenn man eine Klasse tiefer geht, Mainstream, gegen eine HD4670 ist kein Nvidia-Kraut gewachsen. Stromverbrauch (Idle/Last) und Effizienz in dem Segment konkurrenzlos.

DX10.1 und ATi Stream als Gegenstück zu Nvidias Features blendest du in dem Statment auch völlig aus.

Wo ist die 4890 unter last ein "gutes Stück" sparsamer? Ich denke, du kennst alle Links von u.a. CB usw.. Da sind meist keine 5W dazwischen.. Aber in idle sind es gleich 30W, die eine 4890 mehr "verschwendet"..

Und ja, die HD 4830 und auch die 4670 sind super Karten, denen kein Nvidia Kraut gewachsen ist! Dagegen habe ich aber auch nie etwas gesagt.

Und zwecks DX10.1 und Steam.. Ja, daraus kann mal was werden, aber mir fallen spontan mehr CUDA/PhysX Anwendungen ein als DX10.1 Spiele.. Von Stream ganz zu schweigen..

Also wo ist da eine Benachteiligung seitens der Tester?


Und zum Spulenfieper der GTX 260 und der Flimmern der 4870/4850 kann ich nur soviel sagen: Ich habe bisher 4 GTX260 im Umkeis verbaut und keine hat gefiept, aber dafür ließ sich von den 5 4870er nur eine wirklich runter takten, sodass sie in idle an die GTX 260 ran kam.. (Übrigens mal ganz davon abgesehen, dass man die GTX 260 auch noch etwas tweaken kann und es ja wohl nicht sein kann, dass man hier selber Hand anlegen muss bei den ATi Karten..)

Klar, das ist keineswegs repräsentativ, das sehe ich alleine an den Beiträgen in vielen Foren, aber so ein Glück/Pech kann man eben auch haben..

Und wenn von Qualtität gesprochen wird, sind wohl meist die Treiber gemeint. Da hatte ATi mit dem >4GB Problem und den Nichtruntertakten der 2. GPU in letzter Zeit eben leider mehr Probleme als Nvidia... Aber auch das wird sich sicher wieder ändern, das ist dann aber ein anderes Thema.
 
Wo ist die 4890 unter last ein "gutes Stück" sparsamer? Ich denke, du kennst alle Links von u.a. CB usw.. Da sind meist keine 5W dazwischen.. Aber in idle sind es gleich 30W, die eine 4890 mehr "verschwendet"..

Klar kenne ich diese Tests, aber ich kenne auch Tests von HT4U, die nicht nur einfach Volllast testet, sondern sich die wahnsinnige Mühe machen die Leistungsaufnahme in Spielen zu messen:

http://ht4u.net/reviews/2009/zotac_geforce_gtx_275/index12.php

Zugegeben die Zotac GTX275 ist hier etwas hungriger als ein durchschnittliches GTX275 Modell, aber unbestritten ist, das gewöhnliche GTX275 Karten in etwa auf GTX280/285-Niveau liegen.

http://ht4u.net/reviews/2009/leistungsaufnahme_grafikkarten_games/index3.php
http://ht4u.net/reviews/2009/leistungsaufnahme_grafikkarten_games/index4.php

Eine HD4890 arbeitet in der Praxis viel effizienter als durch Volllast-Tests suggeriert wird.

Und ja, die HD 4830 und auch die 4670 sind super Karten, denen kein Nvidia Kraut gewachsen ist! Dagegen habe ich aber auch nie etwas gesagt.

Das ist das Problem, die finden keine Berücksichtigung und deshalb kann man mit der pauschalen Aussage von CB nicht einverstanden sein.

Und zwecks DX10.1 und Steam.. Ja, daraus kann mal was werden, aber mir fallen spontan mehr CUDA/PhysX Anwendungen ein als DX10.1 Spiele.. Von Stream ganz zu schweigen..

http://www.pcgameshardware.de/aid,6...-CUDA/Physx-und-DirectX-101/Grafikkarte/News/

Mir ehrlich gesagt nicht, bei Spielen scheint es ausgeglichen zu sein (6 vs. 6), von 3DMark hat man keiner einen Nutzen und andere Anwendungen (Videobearbeitung, Wissenschaft, etc.) gibt es für Stream auch:

http://www.amd.com/us/products/technologies/stream-technology/consumer/Pages/entertainment.aspx
http://www.amd.com/us/products/technologies/stream-technology/consumer/Pages/science.aspx

AMD scheint aber die Stream-Sache bisher PR-technisch noch nicht so aufzublasen wie Nvidia.


Also wo ist da eine Benachteiligung seitens der Tester?

Verstehe den Satz jetzt nicht, es ging doch um die News und darum das deine Behauptung CB würde "eher die Wahrheit" sagen, so nicht tragbar ist. Argumentationen und Belege habe ich dazu geliefert.
 
Zuletzt bearbeitet:
@herby

Brille abnehmen.
che new hat die richtigen Links angebracht, die deutlich darlegen, was Sache ist.
Was das runtertakten der 4870 angeht, steht wohl eher das eigene Unvermögen im Wege.... .
Habe bisher selber mehr als ein dutzend Rechner mit der 4870 erfolgreich "behandelt".
 
Zuletzt bearbeitet:
Folgende bereits erhältlichen Spiele ziehen einen Vorteil aus DirectX 10.1:

Folgende Applikationen ziehen unter anderem einen Nutzen aus CUDA oder GPU-Physx:

Sorry, aber wenn du so anfängst, dann kann ich das auch. Ich hoffe, du hast jetzt korrekt gelesen..

Und die testen ein Spiel, wo die GTX 275 immer (teils recht deutlich) vor der 4890 liegt.. Okay, ein Punkt für dich, da wird AMD wirklich benachteiligt..

che new schrieb:
Das ist das Problem, die finden keine Berücksichtigung und deshalb kann man mit der pauschalen Aussage von CB nicht einverstanden sein.

Okay, so kann man es sehen. Allerdings geht CB nicht auf diesen Bereich ein, sondern testet zu 95% High-End bzw. das, was eben dies sein soll.

Aber lies dir dann halt mal auch das Fazit zur 4770 durch:

Code:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4770/25/#abschnitt_fazit

Klar pro ATi.. Oder siehst du das anders?


HardlineAMD schrieb:
Was das runtertakten der 4870 angeht, steht wohl eher das eigene Unvermögen im Wege...

Och nö, nicht du auch noch hier.. Reichst du nicht mit deinen ständigen Anpöbeleien im Fußball-Thread, wo dich die Hälfte schon ignoriert?? Wenn du dich schon aufregen willst, dann doch bitte über das "Unvermögen" von ATi, dass die Karten sowas nicht von Haus aus können, wo es ja "so einfach" zu sein scheint..
 
Zuletzt bearbeitet:
Um auch nochmal die Links von che new aufzugreifen.

Wo ist die 4890 unter last ein "gutes Stück" sparsamer? Ich denke, du kennst alle Links von u.a. CB usw.. Da sind meist keine 5W dazwischen.. Aber in idle sind es gleich 30W, die eine 4890 mehr "verschwendet"..
Nope. HT4U hat 22,4 W zugunsten der GTX 275 unter Idle, 15,2 W zugunsten der HD 4890 unter Last (Furmark) gemessen (siehe hier). Unter realen Bedingungen, also Spielen, dürften die Unterschiede unter Last noch mehr für die HD 4890 sprechen, da AMD hier weniger nah an die Furmark Werte rankommt. Siehe zB hier und hier. Ist zwar eine GTX 285, aber während beide Karten in Furmark nahezu gleich auf liegen, benötigt die HD 4890 durchschnittlich ansonsten etwa 24 W weniger. che new hat mit seiner Aussage also völlig recht. Zumal man die Leistungsaufnahme unter Idle manuell noch deutlich senken kann, unter Last hingegen weniger.

Ähnlich sieht das bei xbitlabs aus, die die HD 4890 mit 20 W weniger unter Last gemessen haben. Witzigerweise braucht dort die Radeon sogar unter Idle bzw 2D 7 bzw 4 W weniger als die GTX 275. Da scheint es wohl von Exemplar zu Exemplar deutliche Unterschiede zu geben. Insofern sollte man das nicht alles über einen Kamm scheren. Wie auch immer, Last spricht ganz klar für AMD.

Klar pro ATi.. Oder siehst du das anders?
Wo ist das pro ATI? Sollen sie schreiben, die HD 4770 ist eine schlechte Karte? Das ist sie nun mal mitnichten. Im Gegenteil, hier werden eher pro nVidia Pseudo Argumente gebracht ("CUDA/PhysX-Vorteil"). Aber nach dem, was sich Wolfgang jetzt geleistet hat, wundert mich das überhaupt nicht mehr. CB scheint wohl mehr oder weniger nur F*****s zu beschäftigen. Und dabei geht es mir nicht um Marken. Sie sind oftmals nicht in der Lage, ausreichend sachlich und fachlich Artikel zu verfassen.
 
Kennst du eine mit mehr Umfrageteilnehmern?

Nö, aber wer sagt das alle die dort abgestimmt die Wahrheit gesagt haben?

Hast schon Recht, nVidia is schon wesentlich Hochwertiger, besonders seit der 55nm Umstellung, Verallgemeinerung ftw:kotz:
 
Ähnlich sieht das bei xbitlabs aus, die die HD 4890 mit 20 W weniger unter Last gemessen haben. Witzigerweise braucht dort die Radeon sogar unter Idle bzw 2D 7 bzw 4 W weniger als die GTX 275. Da scheint es wohl von Exemplar zu Exemplar deutliche Unterschiede zu geben. Insofern sollte man das nicht alles über einen Kamm scheren. Wie auch immer, Last spricht ganz klar für AMD.

Das ist ein gutes Stichwort und kann wirklich gut möglich sein...
ht4u.net und PCGH haben da zusammen mal Tests mit ner HD4870 X2 gemacht, weil sie nicht glauben wollten, das der Lastverbrauch im Furmark wirklich so extrem weit über 300W liegt...

Dabei raus kam, das ein Kaufmodell aus dem freien Handel ne ganze Ecke weniger verbraucht hatte, als das Ursprünglich getestete ES Modell der selben Karte...
Man sollte dementsprechend wohl Releasereviews ein wenig mit Vorsicht genießen, weil die Redaktionen für derartige Tests ja oft Vorserienkarten bzw. Testsamples oder was auch immer bekommem...
 
Nö, aber wer sagt das alle die dort abgestimmt die Wahrheit gesagt haben?

In wie weit ändert sich das Ergebnis, wenn 20% mit "Ja" lügen und 20% derer mit "Nein"?

Hast schon Recht, nVidia is schon wesentlich Hochwertiger, besonders seit der 55nm Umstellung, Verallgemeinerung ftw:kotz:

Es ist schön das du mir Worte in den Mund legst, aber von Diskussionskultur ist das weit entfernt. :wink:
 
In wie weit ändert sich das Ergebnis, wenn 20% mit "Ja" lügen und 20% derer mit "Nein"?



Es ist schön das du mir Worte in den Mund legst, aber von Diskussionskultur ist das weit entfernt. :wink:

Deine Contra-AMD Haltung is nicht zum aushalten:kotz:

EOD
 
Nvidia CEO meint: Intel betrügt und AMD ist zu langsam

Quelle: PCGH

Die Aussage stimmt zu 100%

Wenn Nvidia meint das AMD zu langsamm sei, warum helfen sie AMD nicht?
 
Zuletzt bearbeitet:
Vielleicht weil AMD auch ne winzig kleine Grafiksparte hat, hiess glaube ich früher mal ATI oder so und ist der größte NVidia-Konkurrent :rolleyes:

Mal im Ernst: Das hat erstens nicht direkt was mit dem Thema zu tun und zweitens: In welcher Form schwebt dir denn Hilfe vor ?
 
Warum meckert eigentlich keiner, wenn Intel benachteiligt wird? CB bencht mit einer 98GTX+, die bremst den Core-i7 massiv. Gemein - oder etwa nicht? :coolblue:
 
vielleicht weil der i7 mit den 2xx GTX nicht so gut läuft ;) ?

Der Fehler wurde doch schon vor einiger Zeit bemerkt und nicht gelöst soweit ich weiss.

Ich erinnere an den Tomshardware Artikel wo das getestet wurde.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh