So, ein allerletztes mal werde ich deinen Stuss noch kommentieren. Nicht dass es mir Freude machen würde, aber manches kann man doch nicht so stehen lassen. In Zukunft werde ich das nur noch tun, wenn du kurz davor stehen solltest irgendwem mit deinem Geschwalle zu imponieren. Wie es ausschaut können sich die Leute aber in der Regel gut selber ein Bild davon machen wer Mist redet und wer nicht.
Wie üblich entbehrt Dein Posting jeder Grundlage und offenbart bestenfalls, wann Du in etwa die Schule verlassen hast, nämlich vor diesem berühmten Halbjahr, in dem andere die hohe Kunst der Prozentrechnung erlernten.
Ich habe mich nicht extra auf deine Rechnung bezogen (die mathematisch richtig ist), sondern wie schon einmal gepostet z.B. daran, dass du von nur einem Spiel oder einer technischen Gegebenheit auf das globale Leistungsvermögen der Karten schließt und dich verbissen an Dinge klammerst und propagierst die so keine absolute Richtigkeit besitzen.
Zwei Beispiele, wie sie sich in deinen Posts häufig finden:
Vorraussetzung: Die HDs sind den G80/92 in Sachen Texelfüllrate völlig unterlegen.
Rückschluss: Die HDs sind deshalb mit AFx16 in Stalker langsamer.
Fazit: Die HDs sind immer langsamer (Falsch!)
Vorraussetzung: DIRT liegt der RV670-Architektur sehr.
Rückschluss: Die HDs performen sehr gut in DIRT, besser als ein G92
Fazit: Die HDs performen immer besser (Falsch!)
Mir scheint es, als könntest du dir keine umfassende Einschätzung bilden. Bereits verlinkte Beweise (wie z.B. bei der AF-Qualität) negierst du völlig. Dinge die dir scheinbar recht geben (Rohrechenleistung) oder einen Screenshot überbewertest du in ihrer Bedeutung. Was man mit roher Rechenkraft oder Speicherbandbreite gewinnen kann hat doch der R600 gezeigt: Nicht immer viel. Ich verweise dabei wieder auf obige Beispiele. Die genannten Screenshots hat selbst der Ersteller als nicht geeignet für einen Vergleich bezeichnet. Sie sind zur Untermauerung deiner allgemeinen Aussagen
nicht geeignet.
Eine HD 3870 X2 hat exakt die Leistung zweier HD 3850 mit je 512 MB, die ihres GDDR3 wegen etwa 80% der Leistung einer HD 3870 erreicht.
Zwo mal 80 sind nun 160, und da nach Adam Riese 100*100/160 62,5 sind, erreicht die kleinste HD 3870 mit 777/1126 etwa 62,5% der Leistung einer X2.
Bei 20% mehr Takt, die ich hier bei 40 Grad fahre, erreicht die HD 3870 bereits über 70% der Leistung einer X2, die bekanntlich um etwas mehr als 30% schneller als eine 8800 Ultra ist.
Damit liegt eine HD 3870 vor der Ultra, und das stützt sich sogar auf alle bekannten Tests. Lesen und rechnen muß man natürlich schon können.
Leute wie Du dürfen sich natürlich verzweifelt an die Idee klammern, schräge Benches bei 777/1126 hätten irgendeinen Aussagewert über Karten, die mit deutlich mehr als 900/1300 laufen, oder mit 10% mehr VGPU und VRAM über 1100/1400 erreichen.
Hier machst du einen anderen Fehler. Diesmal liegt er schon in der Vorraussetzung: Eine 3870X2 ist nicht nur doppellt so schnell wie eine 3850 sondern doppelt so schnell wie eine 3870. Vieleicht sogar noch etwas mehr.
Die kleineren Speicherlatenzen, sowie 50Mhz mehr an GPU-Takt machen den GDDR4 wieder wett.
Das die 3850 nicht wegen des deutlich niedrigeren GPU-Taktes sondern hauptsächlich wegen des GDDR3 langsamer ist so auch mehr als zweifelhaft.
http://www.computerbase.de/artikel/...deon_hd_3870_x2/2/#abschnitt_technische_daten
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/april/hd_3870_gddr3_gddr4/
Wenn du darauf bestehst kann ich dir auch andere Links suchen.
Mit falschen Vorraussetzungen ist deine nobelpreisverdächtige Prozentrechnung natürlich relativ wenig wert.
Ist bestellt. Die Demo taugt nicht für sowas. Gibt allerdings keinen Grund, aus dem ein System, das CMR DiRT absolut souverän schultert, bei Crysis völlig versagen sollte.
Da wirst du dich aber wundern.
Meine 'ATI-fps' liegen bei mir wärend der gesamten Crysis-Demo mit AA und AF auf dem TFT bei 1280*1024 etwa doppelt so hoch wie Du hier behauptest. Mit knapp 12 fps läuft die Crysis-Demo auf meinem CRT bei 1920*1440.
Du weist genau was ich damit ausdrücken wollte: Dass du dich krampfhaft an die Überlegenheit deiner Karte klammer willst, komme was wolle. Du bist unbelehrbarer als 3 Meter Feldweg. Wenn eine 8800 Ultra mehr Frames liefert, "mircoruckeln" die eben. Basta!
Und dabei geht es weniger darum, wer den längsten hat, sondern eher darum, ob man anderen die Köppe zumistet, und Karten unterjubelt, die weit davon entfernt sind, noch irgendwelche 'Leistungskronen' erringen zu können.
Du hast die längste 3870, obwohl es darum ja garnicht geht, weis es das halbe Forum. Sie ist bei Vollast 40 Grad kühl, macht übr 900MHz ohne Voltmod und ist mucksmäuschen still. Ich kann mich nur nicht daran erinnern, das dich jemals wer danach gefragt hätte.
Bez. Leistungskrone: Sieh dir mal die Performanceratings auf von mir aus ALLEN Seiten durch die du findest. Wenn da einmal eine 3870 auf dem Spitzenplatz steht (alle Einzelwertungen zusammengezählt) und eine 8800 Ultra mitgetestet wurde, schick ich dir ne Flasche Wein. Ups, vergessen, sind alle vom grünen Teufel gekauft oder?
Mag sein, daß die preisgünstigeren Modelle der HD 3870 keine Geschwindigkeitsrekorde aufstellen, wofür sie ja auch ausgesprochen günstig sind, was ein ausgezeichnetes P/L-Verhältnis begründet,
Bis hierhin vollste Zustimmung.
aber die aufwendigeren Modelle sind ohne jeden Zweifel die derzeit schnellsten Einzel-GPU-Karten am Markt. Und das noch ohne Hardcore-Overclocking (Voltmodding), mit dem bekanntlich weitere 20% Leistungssteigerung erzielt werden können, mit der die Karten nur noch wenig hinter einer HD 3870 X2 oder einer 9800 GX2 zurückliegen.
Hier nicht mehr. Völliger Bullshit.
Ich behaupte ja auch nicht ein E7200 ist die schnellste Dualcore-CPU, auch wenn das nach Übertaktung sogar sein könnte. Wir vergleichen die Referenzmodelle sonst nichts.
Ansonsten empfiehlt sich (wie eigentlich überall): Wenn man keine Ahnung hat, einfach mal...
Nimms dir doch
bitte einmal zu Herzen!