Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte Anfang lesen [2|1]

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja, aber was soll der Witz mit der 9800er Karte ...

Mit den Nachkommestellen täuschen sie da ne Genauigkeit vor, die absolut nicht geben ist.

ciao

Alex

Wieso der Durchschnitt hat mehrere Nachkommastellen, da selten eine glatte Zahl raus kommt. Bei den minimalen und maximalen Werten stehen ja ganze Werte.

Trozdem ist dort AMD deutlich vorne. Sie hätten ja auch anders Benchen können. (kp, ob eine stärkere Karte was gebracht hätte)
 
Das seh ich auch so, aber genau deswegen ist der pauschalisierende erste Satz von CB inakzeptabel.

Dem stimme ich zu, falls mit "qualitativ" in der Tat die physische Qualität der Bauteile gemeint ist. Wobei die Furmark-Problematik natürlich schon einen etwas bitteren Beigeschmack hat, aber solange es nur eine Anwendung und ein Benchmark noch dazu ist...

Wieso der Durchschnitt hat mehrere Nachkommastellen, da selten eine glatte Zahl raus kommt. Bei den minimalen und maximalen Werten stehen ja ganze Werte.

Trozdem ist dort AMD deutlich vorne. Sie hätten ja auch anders Benchen können. (kp, ob eine stärkere Karte was gebracht hätte)

Mit so einer schwachen GPU verkommt ein Review viel zu sehr zu einem Test von z.B. PCIe Bandbreite und Latenz sowie Treibereigenheiten, die sinnvollen Benchmarks versteckt CB leider etwas:

http://www.computerbase.de/artikel/...0_975_extreme_edition/26/#abschnitt_far_cry_2 (Runterscrollen bis zu den maximalen Details)

Wenn man jetzt hier sieht, dass 640x480 auf dem X4 955 4FPS weniger liefert als 1280x1024, sagt das schon sehr viel über die Genauigkeit von Messungen in GPU-Limit aus...
 
Zuletzt bearbeitet:
Wenn man jetzt hier sieht, dass 640x480 auf dem X4 955 4FPS weniger liefert als 1280x1024, sagt das schon sehr viel über die Genauigkeit von Messungen in GPU-Limit aus...

CB mach ja sehr genau Angaben, vorallem beim ersten Test, sodass man sehr gut nachvollziehen kann, wieso es 4FPS weniger sind:rolleyes:.
Ich vermute mal, dass bei 640*480 auch AA und AF an war, während beim ersten Test in 1280*1024 nur mittlere Einstellungen gewählt wurden.
 
Meines Wissens testet CB immer mit maximalen Details, wo das stand finde ich aber auf die schnelle nicht. Das AA/AF in 640x480 genutzt wurden, in 1280x1024 aber nicht und das ganze dann auch noch unerwähnt blieb, ist aber schon eine sehr abwegige Spekulation.
 
Der erste Satz zeigt mal wieder wie kompetent CB ist :lol:
 


Also das wundert mich aber :confused:
ich hab in den letzten 10 jahren ong. genauso viele ATi karten wie nVidia karten gehabt, Die ich dann statt zu verkaufen (wenn ich ne neue graka habe) in der verwandschaft weiter reiche.
Jetzt rate mal von welche marke noch "alle" laufen , und von welche marke schon einige verreckt sind :rolleyes:

Achso ich bin kein fanboy , ich kaufe was mir gefällt marke spielt keine rolle. :wink:

Ex
 
In dem Artikel hat der Autor Qualität mit Performance verwechselt :rolleyes:
 
Dem stimme ich zu, falls mit "qualitativ" in der Tat die physische Qualität der Bauteile gemeint ist.

Das ist ja gerade das Problem, die Aussage von CB ist weder präzisiert noch differenziert.

Was die BQ (AF) angeht, es wäre glaube ich das erste mal in der Geschichte, dass sich ein Hersteller aufgrund einer leicht schlechteren BQ seiner Grafikkarten gezwungen sieht die Preis tiefer anzusetzen (Nvidia hätte zu Zeiten der Geforce 7000-Reihe die Karten dann quasi verschenken können). Die Argumentation (wenn von CB so gedacht) wäre nicht schlüssig. Die niedrigeren Preise von AMD haben eher etwas mit unterschiedlicher Leistung und Fertigungskosten zu tun, ggf. noch mit Marktstrategie (Marktanteile zurückholen).


Wobei die Furmark-Problematik natürlich schon einen etwas bitteren Beigeschmack hat, aber solange es nur eine Anwendung und ein Benchmark noch dazu ist...

Auch hier, welche Karten sind denn überhaupt betroffen, das komplette ATi-Portfolio? Das dürften maximal die HD4870 & X2 betreffen. Was ist aber mit der sehr effizienten HD4600-Reihe oder mit der mit hochwertigen Bauteilen ausgestatteten HD4890? Besteht im Vergleich zur HD4870 noch eine Gefahr mit 5 digitalen Phasen statt nur 3?

Egal was man da nun hineininterpretieren oder spekulieren möchte, man gerät mit einer solchen allübergreifen Aussagen immer in eine Sackgasse.
 
Zuletzt bearbeitet:
Also ich habe fast das Gefühl, der CB Autor wollte etwas anderes ausdrücken. Die Formulierung war aber ein Griff ins Klo.
 
imho ist das Absicht damit mehr Leute den Artikel lesen und darüber geredet wird.
 
Yep. Ist ja leider nicht das erste mal, sondern mittlerweile Methode.
 
Was die BQ (AF) angeht, es wäre glaube ich das erste mal in der Geschichte, dass sich ein Hersteller aufgrund einer leicht schlechteren BQ seiner Grafikkarten gezwungen sieht die Preis tiefer anzusetzen (Nvidia hätte zu Zeiten der Geforce 7000-Reihe die Karten dann quasi verschenken können).

Wenn du dich noch an die Zeit der G70/71 zurück erinnern kannst, die ganzen Pro NV Anhänger haben diese Tatsache mit der schlechteren BQ ja immer als gewäsch bzw. unwichtig abgestempelt...
Als dann der G80 raus kam, wars genau anders rum, so nach dem Motto, AMD bekommt es mit dem R600 ein halbes Jahr nach dem G80 nichtmal hin die gleiche BQ zu liefern ;)

Was will ich damit sagen?
Das schwächen bei NV erfahrungsgemäß in der Vergangenheit für deutlich weniger Aufregung und Gerede gesorgt haben als bei ATI bzw. jetzt AMD...



Auch hier, welche Karten sind denn überhaupt betroffen, das komplette ATi-Portfolio? Das dürften maximal die HD4870 & X2 betreffen. Was ist aber mit der sehr effizienten HD4600-Reihe oder mit der mit hochwertigen Bauteilen ausgestatteten HD4890? Besteht im Vergleich zur HD4870 noch eine Gefahr mit 5 digitalen Phasen statt nur 3?

Keine Ahnung warum das Argument sich immernoch so hartnäckig hält...
Also ich hab mittlerweile schon einige RV770 Karten in der Hand gehabt, und Furmark rannte bis jetzt auf jeder, selbst die X2 macht inkl. OC über Stunden (bei umbenannter exe) stabilen Betrieb ohne Fehler...
Kann ich also nicht nachfollziehen...
 
Wolfgang(CB) schrieb:
Oh man, kommt mal alle wieder runter. Hier wird nichts gelöscht, auch nicht in der News. Und zwar, weil der Satz einfach eine berechntigung hat.

Wenn zum Beispiel die GTX 260 und HD 4870 genau denselben preis höätten, würde ich die GTX 260 vorziehen. Da ich das Gesamtpaket einfach minimal besser finde. Dasselbe gilt für die GTX 275 vs. HD 4890. Da sind die Nvidia-Karten einfach besser, auch wenn der Unterschied nur klein ist, wie es auch in den dazugehörigen Artikeln steht.

Und das weiß auch ATi, weswegen sie den Preiskampf sehr agressiv gestalten, um dann wieder vorne oder gleich auf zu sein. Ich sehe da jetzt echt nicht so das Problem drin.
Viele Reviews zeigen, das die verglichenen Karten jeweils ihre Vor- und Nachteile haben aber in der Gesamtbetrachtung gleichwertig sind. Nur bei CB ist das scheinbar anders...

Das der Communitiy aber vorwiegend die reißerische und mehrdeutige Formulierung der News nicht gefällt, blendet der "Redakteur" vollkommen aus.

:kotz:
 
Viele Reviews zeigen, das die verglichenen Karten jeweils ihre Vor- und Nachteile haben aber in der Gesamtbetrachtung gleichwertig sind. Nur bei CB ist das scheinbar anders...

Das der Communitiy aber vorwiegend die reißerische und mehrdeutige Formulierung der News nicht gefällt, blendet der "Redakteur" vollkommen aus.

:kotz:

ja, ich habe den eindruck, er hat gar nicht verstanden worum es den meisten leuten eigentlich geht.
vor allem scheint man jetzt aus trotz die meldung auch so zu lassen...
 
sorry, aber da müßten spätestens jetzt seine anderen redakteur kollegen eingreifen, und das richtig stellen.....das ist ja schon üble nachrede was der da macht :fire:
 
Keine Ahnung warum das Argument sich immernoch so hartnäckig hält...
Also ich hab mittlerweile schon einige RV770 Karten in der Hand gehabt, und Furmark rannte bis jetzt auf jeder, selbst die X2 macht inkl. OC über Stunden (bei umbenannter exe) stabilen Betrieb ohne Fehler...

Das würde ich besser nicht machen, denn unabhängig von der Kartenqualität an sich wird dabei mehr Strom über den PCIe und die Stromstecker vom Netzteil gezogen, als per Standard zulässig ist.
 
Erlaubt mir auch meinen Senf dazuzugeben :-)

also ich würde mir gar nicht so den Kopf drüber zerbrechen wer nun den Tick mehr Leistung für 10€ weniger hat... Meiner Meinung sind die Karten meist gleich gut (natürlich gleichwertige Vergleichen!)...

@ExGent
dafür das du kein "FanBoy" bist, ist dein Beitrag aber ganzschön lastig :wink:

Bei mir hat noch !nicht! eine nVidia den Geist aufgegeben, bis auf eine, wo der Fehler aber an Gainward lag! So kann man die Qualität nicht vergleichen!

Soweit ich informiert bin können Grafikchips nicht immer gleich gut sein, manche haben "Fehler" und so kann es passieren das eine Karte früher hops geht als die andere...

achja bevor ichs vergesse zurück zu dem Redakteur...
CB News vom 09.06 schrieb:
Da die ATi-Hardware qualitativ nicht immer ganz an die Nvidia-Konkurrenz heran kommt, versucht man den Nachteil durch einen günstigen Preis wieder wett zu machen, was bei der Radeon-HD-4800-Serie auch hervorragend funktioniert
In dem Satz steckt meiner meinung nach schon ein Stück Wahrheit (vllt. auch zwei *g*)... Die ATi sind im vergleich zu den nVidia meist günstiger (wobei man das warscheinlich nur mit gleichen Treiber ernsthaft messen könnte) und das spricht nunmal meist für die ATi Karten. Der Grund wird (ohne eine vergleichbare ATi eingebaut zu haben) sicher nicht an der "Qualität" liegen sondern ATi möchte die Kunden durch den Preisuntershcied einfach auf sich lenken...

Ich hoffe niemand nimmt mein Statement böse auf, sondern als realist...
 
Zuletzt bearbeitet:
Verletzte Eitelkeit ist mMn der Grund weshalb dieser Kurs jetzt gefahren wird. Sich den Fehlgriff bei der Formuilierung oder die Anmaßung einzugestehen, ist nun quasi ein Ding der Unmöglichkeit. Er empfindet das wohl auch als Angriff.
 
verletzte eitelkeit hin oder her, aber ich kann doch nicht behaupten das ATI qualitativ schlechter ist als nvidia.....und das müßten auch seine kollegen kapieren :motz:
 
Das würde ich besser nicht machen, denn unabhängig von der Kartenqualität an sich wird dabei mehr Strom über den PCIe und die Stromstecker vom Netzteil gezogen, als per Standard zulässig ist.

Ein ordentliches NT muss das abkönnen, und selbst wenns abraucht, wirds halt getauscht, sollte denke ich kein Problem darstellen...
Zumahl die Belastung des PCIe Slots ja laut Messungen bei PCGH ein paar anderen in dem Fall immer bei maximal 75W bliebt, also für das Board kein Problem... ;)
 
Wenn du dich noch an die Zeit der G70/71 zurück erinnern kannst, die ganzen Pro NV Anhänger haben diese Tatsache mit der schlechteren BQ ja immer als gewäsch bzw. unwichtig abgestempelt...

Und? Zu Zeiten der 3000er Serie war die Leitungsaufnahme in idle plötzlich das Wichtigeste auf der Welt.. Seit der 4000er Serie ist es aber wieder vollkommen egal und fast zu einem Feature geworden, weil man ja "untertakten" kann, was aber nichtmal immer funktioniert..

@ duplex:

Ich sehe in dem Satz kein Problem, eher die Wahrheit. Alleine der Stromverbrauch der ATi Highend Karten ist ein Nachteil, von CUDA/PhysX ganz zu schweigen..
Da hilft es auch nix, dass z.B. die 4870 X2 gleichauf mit der GTX 295 liegt. Deswegen wird über den Preis gegangen bei AMD (seit der 3000er Serie). Die machen das doch nicht aus Freundschaft zu ihren Kunden oder sowas.. Früher haben ATi Karten ebenfalls wesentlich mehr gekostet (X1950TX, X850XT PE), warum aber jetzt nicht mehr?
 
Ein ordentliches NT muss das abkönnen, und selbst wenns abraucht, wirds halt getauscht, sollte denke ich kein Problem darstellen...

Kontakte und Kabel sind aber nur für bestimmte Stromstärken ausgelegt. Wenn diese wie in Furmark so deutlich überschritten werden, kann schnell ein Kabelbrand entstehen - nochmal, ich würde solche Experimente lassen.
 
Ich sehe in dem Satz kein Problem, eher die Wahrheit. Alleine der Stromverbrauch der ATi Highend Karten ist ein Nachteil, von CUDA/PhysX ganz zu schweigen..

Das ist jetzt auch einseitig betrachten und nur die halbe "Wahrheit", wenn überhaupt. Unter Last ist eine HD4890 z.B. ein gutest Stück sparsamer als eine GTX275 (die fast den Verbrauch einer GTX280/285 besitzt), im Idle ist eine GT200-Karte natürlich sparsamer.
Wenn man eine Klasse tiefer geht, Mainstream, gegen eine HD4670 ist kein Nvidia-Kraut gewachsen. Stromverbrauch (Idle/Last) und Effizienz in dem Segment konkurrenzlos.

DX10.1 und ATi Stream als Gegenstück zu Nvidias Features blendest du in dem Statment auch völlig aus.
 
das bezog sich auf die alte Variante.

Was man deinem Post aber nicht ansieht. Ich wäre vorsichtig mit dieser Art von Meinungsäußerung, die sich bei dir schon als Faktum ließt. Es ist immer eine Frage der Formulierung. Ich will gar nicht wissen wie oft derartig inhaltlich falsche Sätze in News oder Reviews gelangen ohne bemängelt zu werden. Wolfgang kann einem fast schon leidtun, dass er hier so heftig eins auf den Deckel bekommt.

Ich kann dir nur raten duplex: Trage deine Kritik fair und sachlich an den Mann. Oder noch besser, werde selbst Redakteur und mach es richtig.
 
Ich habe soeben Beiträge entfernt, die zu weit ausgeholt waren.

Diskutiert und Kritisiert sachlich, ihr wisst nicht ob der Auto heimlich mit ließt.
Denn das kann schnell böse enden.
 
Und? Zu Zeiten der 3000er Serie war die Leitungsaufnahme in idle plötzlich das Wichtigeste auf der Welt.. Seit der 4000er Serie ist es aber wieder vollkommen egal und fast zu einem Feature geworden, weil man ja "untertakten" kann, was aber nichtmal immer funktioniert..

Das sehe ich ein wenig anders, wobei ich sagen muss, das mir der Stromverbrauch sowieso schnurtz ist.
Übrigens, schau mal auf Direktmessungen der HD4890, da bekommst dein idle Verbrauch wieder unterhalb von NV ;)

Wobei ich auch glaube, das gerade die idle Verbrauchsproblematik derzeit ein wenig zu überspitzt gehandelt wird.
Bei AMD gibts seit den R580er Modellen einen 2D Modus, die ersten NV Modelle, welche derartiges konnten waren wenn ich mich recht entsinne späte G92 Chips.
Ist klar, das dann erstmal zu heutiger Zeit die HD3xxxer Karten in den Himmel gelobt wurden, was Verbrauch angeht. Beim RV770 wurde man hingegen etwas entäuscht.

Wobei man auch hier wieder Schadensbegrenzung von AMD erkennen kann, denn ein Hauptgrund des hohen idle Verbrauchs ist der volle Speichertakt der GDDR5 Speicher bei den HD4870 Karten. Der eben auf dem Takt bleibt, weil es sonst beim Wechseltakt zu Bildflackern kommen kommt.
Die HD4850 mit GDDR3 zeigt wie es hätte laufen können, mit ca. 25W weniger idle Verbrauch.

Da hilft es auch nix, dass z.B. die 4870 X2 gleichauf mit der GTX 295 liegt. Deswegen wird über den Preis gegangen bei AMD (seit der 3000er Serie). Die machen das doch nicht aus Freundschaft zu ihren Kunden oder sowas.. Früher haben ATi Karten ebenfalls wesentlich mehr gekostet (X1950TX, X850XT PE), warum aber jetzt nicht mehr?

Spätestens seit AMD mit im Boot sitzt bei ATI hat sich die Strategie geändert, man baut jetzt nicht mehr absolute HighEnd GPUs um jeden Preis, wie damals noch zu Zeiten vor dem R600 sondern setzt auf P/L Sicht sehr gute Karten.

Kleinere GPUs lassen sich günstiger Herstellen, wenn die Leistung dann aber dennoch stimmt und das Gesamtpaket ebenfalls, kommt NV mit den großen Chips eben nicht mehr mit bei den Preisen bzw. muss Verlust machen (was ja sogar offiziell von NV Partnern bestätigt wurde)



Wobei ich den geänderten Satz zwar mittlerweile besser finde, aber eben noch nicht ganz zutreffend, da er wieder allgemein von ATI spricht, und nicht speziell von den Produkten wie er eigentlich meint...
Denn allgemeingültig hat die Aussage nach wie vor keine Richtigkeit.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh