Wird AMD permanent gegenüber Intel in Reviews benachteiligt? Bitte ersten post lesen

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
böse Zungen werden da sicherlich hinzufügen: "... aber wird dürfen die Testkarten behalten und Nvidia ordert 5 Monate Bannerwerbung auf PCGH."

:lol: Ein Schelm der Böses dabei denkt :lol:
 
Zitat:

böse Zungen werden da sicherlich hinzufügen: "... aber wird dürfen die Testkarten behalten und Nvidia ordert 5 Monate Bannerwerbung auf PCGH." ;)
Für den Verlust den Nvidia seit dem erscheinen der AMD 4 er Karten hat kann man schon einiges tun. Sieht man an den Langen Balken der Benches ja sehr gut. :lol:
 
Zuletzt bearbeitet:
In meinem Rechner werkelt zwar noch eine GeForce. Das wird vorerst aber die letzte gewesen sein. nVidia schiesst sich mit solchen Aktionen nur selbst ins Bein. Anstatt solcher blamablen PR Aktionen hätten sie lieber etwas mehr Ressourcen in ein vernüntfiges Produkt gesteckt als den viel zu grossen und ineffizienten GT200. Vielleicht kapieren sie ja irgendwann, dass Performance heutzutage bei weitem nicht mehr alles ist.
 
Naja, aber dafür haben Sie endlich den Idle Verbrauch in den Griff bekommen.
 
Wenn ja, dann hält ATI da schön den Deckel drauf.
Dabei sollte PP2 viel effizienter mit dem Verbrauch umgehen wie die erste Generation.
 
Ich vermute fast, dass das ein Fehler direkt im Silicon ist. Dass PP2 funktioniert, sieht man ja zB recht gut bei der HD 4670.
 
In meinem Rechner werkelt zwar noch eine GeForce. Das wird vorerst aber die letzte gewesen sein. nVidia schiesst sich mit solchen Aktionen nur selbst ins Bein. Anstatt solcher blamablen PR Aktionen hätten sie lieber etwas mehr Ressourcen in ein vernüntfiges Produkt gesteckt als den viel zu grossen und ineffizienten GT200. Vielleicht kapieren sie ja irgendwann, dass Performance heutzutage bei weitem nicht mehr alles ist.

Nur Mist, das du Müll erzählst.

Der GT200 hat noch immer die höchste Performance (Single Chip). Die GPU verbraucht überhaupt nicht viel Strom wenn man die Leistung in Relation setzt.

Aber hey, Hauptsache ein Posting ne.
 
Zuletzt bearbeitet:
Der GT200 hat noch immer die höchste Performance (Single Chip). Die GPU verbraucht überhaupt nicht viel Strom wenn man die Leistung in Relation setzt.
GT200 ist 125% grösser als RV770. Bringt aber nur 10-20% mehr Leistung. Der Vergleich der Leistungsaufnahme der Top Modelle mit Single Chip geht auch klar an ATI. Von den restlichen Features, DX10.1, SM4.1, HD Wiedergabe, etc ganz zu schweigen. Wenn es nur geringe Unterschiede gäbe, wäre das ja kein Problem. Aber bei diesen Dimensionen kann man nur sagen, der GT200 ist eine wirtschaftliche Fehlkonstruktion. Und das hat der Markt auch zurecht abgestraft. Da kannst du dich von mir aus stur stellen. Keine Ahnung, ob du solch ein nVidia Hardliner bist. Das ändert an den Fakten rein gar nichts.
 
Der Vergleich der Leistungsaufnahme der Top Modelle mit Single Chip geht auch klar an ATI.

Was ist das auch für ein sinnfreier Vergleich? Schon die GTX260-216 ist schneller als alle Single-Chip RV770-Modelle und verbraucht weniger als eine 4870. Bzgl. Energieeffizienz ist der GT200 hier genauso überlegen wie die 9800GTX+ der 4850 - und nur das ist für mich als Käufer interessant, was juckt mich als Käufer die Größe des Die? :confused:
 
Was ist das auch für ein sinnfreier Vergleich? Schon die GTX260-216 ist schneller als alle Single-Chip RV770-Modelle und verbraucht weniger als eine 4870. Bzgl. Energieeffizienz ist der GT200 hier genauso überlegen wie die 9800GTX+ der 4850 - und nur das ist für mich als Käufer interessant, was juckt mich als Käufer die Größe des Die? :confused:
Überlege mal deine Wortwahl... Besser vielleicht, aber "überlegen" ist die nicht.
Kann sein, dass die NV unter den ATi im Stromverbrauch liegen, aber der Abstand ist in der Leistungsklasse eh zu vernachlässigen.
Und gerade in der Leistung können die ATi gut mit halten bzw. ist in manchen Situationen auch mal schneller. Da aber bei ATi jeden Monat ein neuer Treiber kommt, nehme ich auch solche Tests (CB, etc.) eher gelassen hin.
Ausschlaggebend ist doch der Preis und die Leistung und gerade da holt NV auf, aber zu welchem Preis?
 
Auch ATI hatte Zeiten mit weit größeren Dies, man denke an den R600 ;) Zumal die Frage besteht, wieviel davon durch die extrem hohen Margen der Tesla-Karten kompensiert wird, denn genau für die wurden ja u.a. die platzfressenden DP-SPs integriert - anscheinend war so eine Lösung immernoch günstiger, als zwei getrennte Chips aufzulegen.
 
Gehts denn jetzt um den R600? ...der wurde doch auch schon zur genüge durch diskutiert.
Jeder Hersteller hat mal ein weniger gutes Produkt, obwohl ich den R600 gar nicht so schlecht fand. Hatte ne 2900pro auf 3870er takt und der Verbrauch gegen eine 8800GTS-640 war auch zu vernachlässigen.

Dir 4800er Reihe liegt auch hinter NV, kostet aber weniger... NV hat das gleiche Problem, wie ATi mit dem R600 und kann den Preis nicht unendlich nach unten korrigieren.
Während ATi mit dem Preis kalkuliert hatte, standen in den Erwartungen von NV andere Preise als jetzt. ...und gerade das ist doch das Beste für uns jetzt.

Was mich aber stört, ist die Art und Weise, wie das NV handhabt... statt sich auf den Hosenboden zu setzen, machen die solch eine komische PR-Aktion. Her es gibt von beiden Herstellern, für jede Auflösung eine gute Karte. Weshalb ich eine 4850/9800GTX+ in einer 1920er Auflösung deplatziert finde. Sicher ist die 9800GTX+ in den 5 Games mal nicht so schlecht, in anderen reicht auch die nicht bei der Auflösung.
 
Jetzt überlege mal...
Wenn ATi das mit der 2900XT gemacht hätte, wäre die wohl besser verkauft worden. Denn bei vorgaben ohne AA und hohes AF wäre die in ATi-Games immer auf Augenhöhe mit der 8800GTX gewesen.

Ne das stimmt so nicht ganz... wenn dann eher andersrum. Die R600er Karten hatten eine grottenschlechte Filterleistung, weshalb sie beim verwenden von 16xAF exorbitannt eingebrochen sind. AA war zwar auch ein Problem, wegen der wohl teils defekten ROPs, aber das ließ sich über die Shader recht gut kompensieren. Zumahl die R600 und RV670 GPUs bei 8xAA deutlich weniger eingebrochen sind als die G80 und G92 Karten von NV ;)

Was ist das auch für ein sinnfreier Vergleich? Schon die GTX260-216 ist schneller als alle Single-Chip RV770-Modelle und verbraucht weniger als eine 4870. Bzgl. Energieeffizienz ist der GT200 hier genauso überlegen wie die 9800GTX+ der 4850 - und nur das ist für mich als Käufer interessant, was juckt mich als Käufer die Größe des Die? :confused:

Das stimmt auch nicht, die HD4870 brauch unter Last so ziemlich genau 130W, die 192er GTX brauch schon 136,1W, die 216er noch mehr...
Die GTX280 im übrigen brauch 178W.

Werte Nachzulesen auf XBitlabs.com, kein Bock jetzt Links rauszusuchen, wers wissen will, selbst nachlesen.
 
Die GTX260-216 ist sparsamer als die GTX260-192, die Spannung konnte gesenkt werden (afair auf 1,07V?), evntl. wurden auch generell kleinere Optimierungen vorgenommen (das aber reine Vermutung).

http://www.computerbase.de/artikel/...60_216_shader/25/#abschnitt_leistungsaufnahme

Ne das stimmt so nicht ganz... wenn dann eher andersrum. Die R600er Karten hatten eine grottenschlechte Filterleistung, weshalb sie beim verwenden von 16xAF exorbitannt eingebrochen sind. AA war zwar auch ein Problem, wegen der wohl teils defekten ROPs, aber das ließ sich über die Shader recht gut kompensieren. Zumahl die R600 und RV670 GPUs bei 8xAA deutlich weniger eingebrochen sind als die G80 und G92 Karten von NV ;)

Das übrigens ein Modus, den generell kein informierter NVidia-Nutzer einsetzt: Der Qualitätsunterschied ist schon generell minimalst verglichen zu 4xAA, bei ATI aber zumindest kaum langsamer. Auf einer Geforce nimmt man dagegen den kaum langsameren, aber durch SSAA weit hübscheren 8xS Modus (4xMSAA + 1x2SSAA)
 
Zuletzt bearbeitet:
@fdsonne
Meinte eigentlich ohne AA und ohne hohes AF... hab mich dn nicht richtig ausgedrückt.

@Undertaker 1
Sag mal... dir ist schon klar, dass du jede Diskussion ins OT leitest in dem du immer gegen einen Post argumentierst. ...ist das zwanghaft?
Aber ich antworte ein letztes Mal...
Genau, wie das flimmern, winkelabhängiges AA auf den 7000er NV-Karten sind sichtbare Unterschiede oft nur Einstellungssache bzw. überhaupt nur im direkten Vergleich sichtbar. Ich habs damals gesagt (als ich ne 7900GT hatte) und sage es heute.
Kaum einer hat zwei Rechner (ATi und NV), der die gleiche Szene Minuten lang auf zwei Monitoren vergleicht.
Mag sein, dass SSAA weit hübscher ist, aber wenn du zockst, fällt dir das nicht auf ;)
Vielleicht bist du ja so sensibel und du siehst es, ich bins nicht...

Wenn du dir ne 9800GTX+ oder HD4850 für 1920er Auflösung holst, dann mach das.
Bis 1680 max. und selbst da haben genannte Karten Probleme in Qualitätseinstellungen.
Wenn man nur alte Games zockt, mag das zu verschmerzen sein, aber die min. Frames ind den 1920er Tests sprechen da ne andere Sprache.
 
Zuletzt bearbeitet:
Da muss ich Dir Recht geben, mit einer 9800 GTX+ inkl. max Qualität bringt eine 9800er keine Spielbaren fps mehr zustande.
 
Die GTX260-216 ist sparsamer als die GTX260-192, die Spannung konnte gesenkt werden (afair auf 1,07V?), evntl. wurden auch generell kleinere Optimierungen vorgenommen (das aber reine Vermutung).

http://www.computerbase.de/artikel/...60_216_shader/25/#abschnitt_leistungsaufnahme



Das übrigens ein Modus, den generell kein informierter NVidia-Nutzer einsetzt: Der Qualitätsunterschied ist schon generell minimalst verglichen zu 4xAA, bei ATI aber zumindest kaum langsamer. Auf einer Geforce nimmt man dagegen den kaum langsameren, aber durch SSAA weit hübscheren 8xS Modus (4xMSAA + 1x2SSAA)

Messungen des Gesamtsystems sind total für den Po, und selbst CB vermutet nur, das die VGPU Spannung gesenkt wurde, stehen tut das nirgends.

Und zum AA, es ging nicht darum, was besser aussieht oder ob es Sinnvoll/Sinnfrei wäre es einzusetzen, sondern darum, das die R600 GPUs bei 8xAA weniger stark eingebochen sind als die G80 GPUs.

@sommerwiewinter
ja genau so hab ichs doch auch verstanden, ohne AA und mit hohen AF, aber da liegt ja das Problem, der prozentuale Einbruch bei AF ist größer bei den R600 Karten als bei AA... Was an der sehr geringen Filterleistung der Karten liegt...
 
Das ganze ist der Versuch, mit der entsprechenden Marktmacht zu versuchen ein schlechtes Produkt schönzufärben. Dabei finde ich, die Auswahl der Benchmarks vorzuschreiben aber schon ein starkes Stück. Die PCGH gibt sogar offiziell zu von diesem Statement, von NV entsprechend manipuliert zu werden.

Der G200 ist beschissen ggü. den jüngsten ATI-Produkten, das kann man drehen und wenden wie man will, genau wie der R600 beschissen ggü. dem G80 war. Natürlich sind das die schnellsten SingleChips, da kann man sich aber ein Eis für backen, wenn man an dem Teil genau garnichts verdient. Für seine Grösse wird das Monster viel zu billig verkauft und das war garantiert auch nicht so geplant. Man wurde vom RV770 eiskalt erwischt.
MMn ist der Schuldige ausgerechnet die Skalartechnik, da das mehr Überhang bei mehr Recheneinheiten erzeugt. AMDs 5er Vektoreinheiten müssen letztendlich beim RV770 weniger Platz brauchen als 2 von NVs Skalareinheiten. Bei den wenigen Einheiten, die im G80 bzw. R600 verbaut waren, wirkte sich das noch nicht negativ aus. Vektoreinheiten müssen also bis zu einem bestimmten Grad in jedem Fall effektiver sein, weil man weniger Implementierungsaufwand hat. Der Verwaltungsaufwand steigt entsprechend, je mehr Einheiten verwaltet werden müssen. Durch geschickte Anordnung kann man einiges sparen, aber letztendlich zählt, wieviele Einheiten insgesamt versorgt werden müssen.
Je mehr Einheiten das also werden und je grösser der Chip wird (im Verhältnis zum Fertigungsprozess), desto mehr Chip-Fläche geht für Verwaltungsoverhead drauf und desto schneller ist ein Design mit Vectorprozessoren. Ob jetzt die Zahl 5 in der Hinsicht der Weisheit letzter Schluss ist, sei mal dahingestellt, aber man wird sich bei AMD schon dabei was gedacht haben, wenn man sogar Vec5-Einheiten zur Verfügung stellt.
Als Schlussfolgerung daraus lässt sich auch nichts Gutes für die Zukunft daraus ableiten. Der 55nm G200 bringt schonmal keinen thermischen Vorteil, wie allerorten zu Lesen war und taugt nur als Ersatz für den G200 und der 40nm Refresh kommt 1.) zu spät, wird sich also zeitig mit dem RV870 messen lassen müssen, und 2.) ist von dem noch eine schlechtere pro-Shader-Effizienz zu erwarten.
Bei NV ist erst mit dem G300 Besserung in Sicht - blöderweise kommt der erst Ende des Jahres und die wage schonmal zu prophezeien, dass der auch wieder Vektoreinheiten hat und keine Skalareinheiten mehr...
 
Zuletzt bearbeitet:
@HOT
du meinst also NV greift die Technik von AMD auf und baut auch Vectoreinheiten? Angeblich soll ja mit dem G300 bzw. der Nachfolgegeneration der jetzigen allgemeingesagt eine neue Architektur einzug erhalten, zumindest laut aktuellen Gerüchten...
 
Die werden keine Technik kopieren, sondern eigene Vektoreinheiten entwerfen. Aber ich halten die G21x für die letzten Skalarchips im Grafikmarkt. Der Nachteil des grösseren Verwaltungsoverheads hat NV da doch eingeholt.
 
Genau, wie das flimmern, winkelabhängiges AA auf den 7000er NV-Karten sind sichtbare Unterschiede oft nur Einstellungssache bzw. überhaupt nur im direkten Vergleich sichtbar. Ich habs damals gesagt (als ich ne 7900GT hatte) und sage es heute.
Kaum einer hat zwei Rechner (ATi und NV), der die gleiche Szene Minuten lang auf zwei Monitoren vergleicht.
Mag sein, dass SSAA weit hübscher ist, aber wenn du zockst, fällt dir das nicht auf ;)
Vielleicht bist du ja so sensibel und du siehst es, ich bins nicht...

Mal ernsthaft: Wenn du meinst, den Unterschied von Supersampling - das nebenbei noch eine bessere Texturfilterung bewirkt und nicht nur reine Kantenglättung - nicht zu sehen, was willst du dann bitte überhaupt mit dem minimalen Unterschied von 8xAA zu 4xAA anfangen?

Wenn du dir ne 9800GTX+ oder HD4850 für 1920er Auflösung holst, dann mach das.
Bis 1680 max. und selbst da haben genannte Karten Probleme in Qualitätseinstellungen.
Wenn man nur alte Games zockt, mag das zu verschmerzen sein, aber die min. Frames ind den 1920er Tests sprechen da ne andere Sprache.

Persönlich senke ich zunächst die Qualitätseinstellungen und erst dann die Auflösung falls nötig - ein Fluch der TFTs. Wenn in diesem Szenario eine 9800GTX+ deiner Meinung nach zu langsam ist, würdest du im gleichen Atemzug auch Karten wie der 4870 (+7%) diese Eignung dafür absprechen - imho kann man das so nicht sagen.

Nun sind wir aber schon wirklich sehr weit OT...
 
@ HOT

Interessante These :bigok:
 
@Undertaker 1: Wie kommst du eigentlich immer auf diese lächerlichen 7%? Meinst du, dass sich einer eine hd4870 holt um dann in 1240 x1024 ohne AA und AF spielt?! Mit so einer Karte spielt man dann schon in HD Auflösung und mit 8AA und 16AF. Zumindest ist diese Einstellung in sehr vielen Spielen möglich und auch gut spielbar! Und siehe da: auf einmal ist eine hd4870 80% vorne!
 
@Undertaker 1: Wie kommst du eigentlich immer auf diese lächerlichen 7%? Meinst du, dass sich einer eine hd4870 holt um dann in 1240 x1024 ohne AA und AF spielt?! Mit so einer Karte spielt man dann schon in HD Auflösung und mit 8AA und 16AF. Zumindest ist diese Einstellung in sehr vielen Spielen möglich und auch gut spielbar! Und siehe da: auf einmal ist eine hd4870 80% vorne!

Zu 8xAA und dessen Sinnhaftigkeit hatte ich mich bereits geäußert ;) Da nutzen die meisten wohl selbst 2xAA öfters, und speziell auf Geforce-Karten greift dann wohl jeder nur noch zu 8xS. Es ging ferner nur um den Fakt, ob eine 9800GTX+ für HD-Auflösungen reicht - und ja, das tut sie auf Grund der genannten Differenz lächelnd - denn bevor man als TFT-Nutzer die Auflösung senkt, stellt man zuvor logischerweise AA aus, alles andere macht wenig Sinn.
 
solltest aber dazusagen, dass eine 9800gtx+ für hd Auflösungen ohne AA/AF reicht... aber eine hd4870 für hd Auflösungen mit AA/AF reicht, meinst nicht? Sonst ensteht der Eindruck du wolltest sagen, eine 9800gtx+ wäre auf dem gleichem Niveau, bzw. leicht darunter wie eine hd4870?!
 
solltest aber dazusagen, dass eine 9800gtx+ für hd Auflösungen ohne AA/AF reicht... aber eine hd4870 für hd Auflösungen mit AA/AF reicht, meinst nicht? Sonst ensteht der Eindruck du wolltest sagen, eine 9800gtx+ wäre auf dem gleichem Niveau, bzw. leicht darunter wie eine hd4870?!

Zweifellos :) Unter AA ist die 4870 lächelnd erheblich schneller, durch den geringen Unterschied ohne hingegen (das Zuschalten von AA kostet selbst bei der 4870 weit mehr als die erwähnten 7%) kann man der Karte aber keinesfalls die Eignung für genannte Auflösungen absprechen.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh