Undertaker 1
Enthusiast
- Mitglied seit
- 23.08.2004
- Beiträge
- 5.699
Imho ein sehr gutes und treffendes Statement.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
ihr wieder mit euren Uraltkarten ;-)
http://www.pcgameshardware.de/aid,6...n_Nvidia-Grafikkarten_Stellungnahme_von_PCGH/
da sorgt jemand vor ^^
böse Zungen werden da sicherlich hinzufügen: "... aber wird dürfen die Testkarten behalten und Nvidia ordert 5 Monate Bannerwerbung auf PCGH."Wir wurden weder für das Erstellen des Artikels noch für die Ergebnisse im Artikel von Nvidia bezahlt.
böse Zungen werden da sicherlich hinzufügen: "... aber wird dürfen die Testkarten behalten und Nvidia ordert 5 Monate Bannerwerbung auf PCGH."
Für den Verlust den Nvidia seit dem erscheinen der AMD 4 er Karten hat kann man schon einiges tun. Sieht man an den Langen Balken der Benches ja sehr gut.Zitat:
böse Zungen werden da sicherlich hinzufügen: "... aber wird dürfen die Testkarten behalten und Nvidia ordert 5 Monate Bannerwerbung auf PCGH."
In meinem Rechner werkelt zwar noch eine GeForce. Das wird vorerst aber die letzte gewesen sein. nVidia schiesst sich mit solchen Aktionen nur selbst ins Bein. Anstatt solcher blamablen PR Aktionen hätten sie lieber etwas mehr Ressourcen in ein vernüntfiges Produkt gesteckt als den viel zu grossen und ineffizienten GT200. Vielleicht kapieren sie ja irgendwann, dass Performance heutzutage bei weitem nicht mehr alles ist.
GT200 ist 125% grösser als RV770. Bringt aber nur 10-20% mehr Leistung. Der Vergleich der Leistungsaufnahme der Top Modelle mit Single Chip geht auch klar an ATI. Von den restlichen Features, DX10.1, SM4.1, HD Wiedergabe, etc ganz zu schweigen. Wenn es nur geringe Unterschiede gäbe, wäre das ja kein Problem. Aber bei diesen Dimensionen kann man nur sagen, der GT200 ist eine wirtschaftliche Fehlkonstruktion. Und das hat der Markt auch zurecht abgestraft. Da kannst du dich von mir aus stur stellen. Keine Ahnung, ob du solch ein nVidia Hardliner bist. Das ändert an den Fakten rein gar nichts.Der GT200 hat noch immer die höchste Performance (Single Chip). Die GPU verbraucht überhaupt nicht viel Strom wenn man die Leistung in Relation setzt.
Der Vergleich der Leistungsaufnahme der Top Modelle mit Single Chip geht auch klar an ATI.
Überlege mal deine Wortwahl... Besser vielleicht, aber "überlegen" ist die nicht.Was ist das auch für ein sinnfreier Vergleich? Schon die GTX260-216 ist schneller als alle Single-Chip RV770-Modelle und verbraucht weniger als eine 4870. Bzgl. Energieeffizienz ist der GT200 hier genauso überlegen wie die 9800GTX+ der 4850 - und nur das ist für mich als Käufer interessant, was juckt mich als Käufer die Größe des Die?
Jetzt überlege mal...
Wenn ATi das mit der 2900XT gemacht hätte, wäre die wohl besser verkauft worden. Denn bei vorgaben ohne AA und hohes AF wäre die in ATi-Games immer auf Augenhöhe mit der 8800GTX gewesen.
Was ist das auch für ein sinnfreier Vergleich? Schon die GTX260-216 ist schneller als alle Single-Chip RV770-Modelle und verbraucht weniger als eine 4870. Bzgl. Energieeffizienz ist der GT200 hier genauso überlegen wie die 9800GTX+ der 4850 - und nur das ist für mich als Käufer interessant, was juckt mich als Käufer die Größe des Die?
Ne das stimmt so nicht ganz... wenn dann eher andersrum. Die R600er Karten hatten eine grottenschlechte Filterleistung, weshalb sie beim verwenden von 16xAF exorbitannt eingebrochen sind. AA war zwar auch ein Problem, wegen der wohl teils defekten ROPs, aber das ließ sich über die Shader recht gut kompensieren. Zumahl die R600 und RV670 GPUs bei 8xAA deutlich weniger eingebrochen sind als die G80 und G92 Karten von NV
Die GTX260-216 ist sparsamer als die GTX260-192, die Spannung konnte gesenkt werden (afair auf 1,07V?), evntl. wurden auch generell kleinere Optimierungen vorgenommen (das aber reine Vermutung).
http://www.computerbase.de/artikel/...60_216_shader/25/#abschnitt_leistungsaufnahme
Das übrigens ein Modus, den generell kein informierter NVidia-Nutzer einsetzt: Der Qualitätsunterschied ist schon generell minimalst verglichen zu 4xAA, bei ATI aber zumindest kaum langsamer. Auf einer Geforce nimmt man dagegen den kaum langsameren, aber durch SSAA weit hübscheren 8xS Modus (4xMSAA + 1x2SSAA)
Genau, wie das flimmern, winkelabhängiges AA auf den 7000er NV-Karten sind sichtbare Unterschiede oft nur Einstellungssache bzw. überhaupt nur im direkten Vergleich sichtbar. Ich habs damals gesagt (als ich ne 7900GT hatte) und sage es heute.
Kaum einer hat zwei Rechner (ATi und NV), der die gleiche Szene Minuten lang auf zwei Monitoren vergleicht.
Mag sein, dass SSAA weit hübscher ist, aber wenn du zockst, fällt dir das nicht auf
Vielleicht bist du ja so sensibel und du siehst es, ich bins nicht...
Wenn du dir ne 9800GTX+ oder HD4850 für 1920er Auflösung holst, dann mach das.
Bis 1680 max. und selbst da haben genannte Karten Probleme in Qualitätseinstellungen.
Wenn man nur alte Games zockt, mag das zu verschmerzen sein, aber die min. Frames ind den 1920er Tests sprechen da ne andere Sprache.
@Undertaker 1: Wie kommst du eigentlich immer auf diese lächerlichen 7%? Meinst du, dass sich einer eine hd4870 holt um dann in 1240 x1024 ohne AA und AF spielt?! Mit so einer Karte spielt man dann schon in HD Auflösung und mit 8AA und 16AF. Zumindest ist diese Einstellung in sehr vielen Spielen möglich und auch gut spielbar! Und siehe da: auf einmal ist eine hd4870 80% vorne!
solltest aber dazusagen, dass eine 9800gtx+ für hd Auflösungen ohne AA/AF reicht... aber eine hd4870 für hd Auflösungen mit AA/AF reicht, meinst nicht? Sonst ensteht der Eindruck du wolltest sagen, eine 9800gtx+ wäre auf dem gleichem Niveau, bzw. leicht darunter wie eine hd4870?!