ATi R600/RV6xx *Infothread* (Part 2)

Status
Für weitere Antworten geschlossen.
also wenn man ehrlich ist ist es (sollten die benches stimmen) mittlerweile echt lächerlich was ati/amd da abliefert... wenn man das ganze obektiv betrachtet ein komplettes disaster 7 monate zu spät und dann auch noch langsamer auch wenns nicht die xtx ist aber es ist die releasekarte und somit ist es die stärkste zum releasezeitpunkt....


alles in allem wirklich sehr ernüchternd sollte das alles stimmen...

Warte es doch ab, es wird viel spekuliert, bald erfahren wir alle was Sache ist :bigok:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
X3: The Reunion [1280x1024]
- 2900 XT: 118.5 fps
- 8800 GTX: 99.2 fps
- X1950XT: 97 fps
- 8800 GTS: 88.1 fps

X3: The Reunion [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 74 fps
- X1950XT: 65.4 fps
- 8800 GTS: 58.8 fps
- 2900 XT: 56.5 fps[/url]

hä? :hmm: 10 fps weniger als die 1950XT?
 
Hihi, falls (!) die Karte wirklich abkacken sollte, hat sich das Warten auf eine Preissenkung der 8800er GTS wohl nicht gelohnt, die steigt in Anbetracht der ATI-Karte höchstens. ^^

Wie war das denn in der Vergangenheit mit Preisverfall bei neuen VÖs? Hat man direkt nach VÖ schon was signifikantes gemerkt, oder erst 1 Woche darauf, oder noch später?
 
Anstatt hier einfach willenlos irgendwelche Testergebnisse zu interpretieren und Vermutungen aufzustellen, hätte es doch gereicht einfach mal eine nette Mail an die Herren von IT-Review zu schreiben. Dann hätte man auch erfahren, das der Treiber bei weitem noch nicht der war, der zum Launch da sein wird.

Man kann es sich auch schwer machen...
 
Zuletzt bearbeitet:
Anstatt hier einfach willenlos irgendwelche Testergebnisse zu interpretieren und Vermutungen aufzustellen, hätte es doch gereicht einfach mal eine nette Mail an die Herren von IT-Review zu schreiben. Dann hätte man auch erfahren, das der Treiber bei weitem noch nicht der war, der zum Launch da sein wird.

Man kann es sich auch schwer machen...

nur die frage ist, ob sie bis dahin noch soviel machen können...:confused:
 
Naja was solls. Laut nVidia soll ja auch schon bald die 8900GTX kommen. Dann sinkt die 8800GTX bestimmt etwas im Preis und man kann zugreiffen.

ATi hat aus meiner Sicht versagt. Das die Karte gut ist kann schon sein, aber das nach 7 MONATEN mehraufwand.
 
Naja was solls. Laut nVidia soll ja auch schon bald die 8900GTX kommen. Dann sinkt die 8800GTX bestimmt etwas im Preis und man kann zugreiffen.

ATi hat aus meiner Sicht versagt. Das die Karte gut ist kann schon sein, aber das nach 7 MONATEN mehraufwand.

Ich denke nicht dass noch eine 8900er (G81) kommt, ... im Winter solls ja schon der G90 kommen!
 
8900gtx!?
bald!?

soll das der g90 refresh sein oder was?
aber is ja egauch nich hierhin passend



nur warten mer ma noch 4 tage und dann sind wir alle schlauer
 
Naja was solls. Laut nVidia soll ja auch schon bald die 8900GTX kommen. Dann sinkt die 8800GTX bestimmt etwas im Preis und man kann zugreiffen.

ATi hat aus meiner Sicht versagt. Das die Karte gut ist kann schon sein, aber das nach 7 MONATEN mehraufwand.

aber wer kauft dann eine "veraltete" graka!? vielleicht kommt ja auch eine 8900gts...
 
Manchmal frage ich mich wie diese Benchmarks zustande kommen. Fake oder Dummheit?
Bin ja selber von einer ATI umgestiegen auf eine GTS und gerade in 1900x1200 ist der Unterschied sehr deutlich zu der x19xx.

Die ATI war eine der besten Karten die ich je besessen habe, aber muss sich der GTS deutlich geschlagen geben.

Eine x1900 XT @ 730mhz core und 820mhz Speicher muss sich einer GTS 640 deutlich geschlagen geben.
Den Vergleich habe ich selbst sehr deutlich gesehen weshalb ich ganz klar sagen kann: der Bench oben ist durch und durch nicht ernst zu nehmen.

Ich empfehle noch ein paar Tage abzuwarten bis ernstzunehmende Benchmarks kommen. Vielleicht ist die 2900 XT ja doch etwas besser als sie hingestellt wird.
 
Zuletzt bearbeitet:
alles scheiße :heul:
der verbrauch ist für mich ein richtiges k.o.-kriterium
auch wenn der verbrauch nur ein paar euro im jahr ausmacht, es geht auch ums prinzip

gruß klasse

Neja der Max. Verbrauch ist doch eher nebensächlich. Solange der idle Verbrauch gut ausfällt, dann ist doch alles in Butter.
Es interessiert doch auch den normalen Autofahrer nicht, wenn er mit dem Auto bei 250KM/h 25l/100k verbraucht werden, solange er in der Stadt nur 3l nimmt! Denn wie oft fährt man denn 250 im Gegensatz zum Stadtverkehr!
(Vorsicht, Beispiel leicht übertrieben)

man das bla mit dem 2d Modus nerft mich.

ihr glaubt doch nicht wirklich das der verbrauch um 100Watt oder mehr sinkt oder? alles andere sind pfenning beträge.... auch die höherer Verlustleistung vom r600 wird sich so gut wie gar ned in der stromrechnung bemerkbar machen, außer die kiste läuft non stop...

was heist "das bla mit dem 2D Modus"?
du musst auch immer was finden um den R600 schlecht zu machen, oder?
schau doch mal bei CB, da gibts Stromverbrauchsmessungen zwischen Last und idle.
http://www.computerbase.de/artikel/...force_8800_ultra/27/#abschnitt_stromverbrauch
nur mal so nebenbei, bei den stärkeren Karten sind durchaus 100W drin. Auch wenn dort das ganze System gemessen wurde und die CPU mit reinzählt, ... welche aber den kleineren Teil ausmacht, da 3DMark nur einen Kern nutzt, zumindest im 3D Test, im CPU Test wird aber die Graka nicht gefordert.

also wenn man ehrlich ist ist es (sollten die benches stimmen) mittlerweile echt lächerlich was ati/amd da abliefert... wenn man das ganze obektiv betrachtet ein komplettes disaster 7 monate zu spät und dann auch noch langsamer
ATi hat aus meiner Sicht versagt. Das die Karte gut ist kann schon sein, aber das nach 7 MONATEN mehraufwand.

Vllt solltet ihr mal aufhören andauernd "zu spät" zu schreien.
Es mag zwar sein das der R600 spät kommt, aber steht irgendwo geschrieben das ATI seine Produkte zeitgleich zu NV releasen muss? NEIN, da das Geld von der LowEnd oder Midrage Klasse kommt und die läuft immer noch gut!
Steht irgendwo geschrieben das ATI mit seinen Produkten den Konkurent überbieten muss? NEIN, da man auch Geld über P/L machen kann!
Weis gar nicht warum ihr euch immer an dem zu Spät Argument aufgeilt!

Wenn euch die Leistung zu wenig ist, dann kauft euch ne GTX, wenn euch die nicht reicht, dann baut ein SLI, aber hört auf hier andauernd solche Sinnfreien schlechtmachenden und stunkverbreitenden Beiträge zu verfassen.

So und jetzt wieder :btt:
 
kann mir schon vorstelle das ein R580 teilweise schneller sein kann als ein R600, aber das ist sicher ein treiberproblem.

die x1950xtx ist/war halt absolutes highend im vergleich zur hd2900xt. die x1950xtx ist/war halt die letzte ausbaustufe des R580 mit GDDR4 usw.

die benchmarks sind vernichtend und bestimmt keien fakes!
ich hoffe auf ein treiber-wunder, weil sonst kommt von nvidia bis ende jahr nichts mehr neues :heul:
 
ich glaub meinem Leistungsmesser mehr als das was bei cb steht....

im übrigen war das nicht mal ein flame gegen den r600 sonder eher das gegenteil. Wer lesen kann ist klar im Vorteil :d

im übrigen steht im cb artikel folgendes:
Ein sinkender Wirkungsgrad des PC-Netzteils könnte für die höhere Stromaufnahme der Ultra gegenüber der GTX im Idle-Modus ursächlich sein.

allein mit so einem Schlusssatz ist Messung komplett in frage gestellt.
 
Ich weis auch nicht was die dort genau messen, aber der Satz da den du zitierst klingt irgendwie unlogisch!?
Meine Messungen @ Home mit meinen Sys sagen mir das deren Werte auch ein wenig fragwürdig sind. Im idle bin ich 100W drüber über ihrem Wert (was an den 6 Platten + Lüftern + der zweiten CPU liegen kann) aber unter Last bin ich nur 50W drüber. Und ich teste den Lasttest immer mit 3xPrime + 3DMark06 um wirklich alle Komponenten auszulasten!

Wenn ein R600 es schafft im idle in etwa bei den Vorgängerkarten zu bleiben, dann ist doch alles in Butter.
Last interessiert sowieso weniger! Ich halte aber ne Absenkung der Leistungsaufnahme von Last auf idle auf 50% des Lastwertes für möglich.
 
Neja der Max. Verbrauch ist doch eher nebensächlich. Solange der idle Verbrauch gut ausfällt, dann ist doch alles in Butter.
Es interessiert doch auch den normalen Autofahrer nicht, wenn er mit dem Auto bei 250KM/h 25l/100k verbraucht werden, solange er in der Stadt nur 3l nimmt! Denn wie oft fährt man denn 250 im Gegensatz zum Stadtverkehr!
(Vorsicht, Beispiel leicht übertrieben)

die predigt ist unnötig, denn ich habe nirgends was von max.verbrauch geschrieben. im gegenteil, ich habe danach erläutert das auch für mich maßgeblich der idle-verbrauch im vordergrund steht
so richtig glaube ich nämlich nicht dran das der idle-verbrauch sehr gering sein wird - wir werden es ja bald wissen

fdsonne schrieb:
Vllt solltet ihr mal aufhören andauernd "zu spät" zu schreien.
Es mag zwar sein das der R600 spät kommt, aber steht irgendwo geschrieben das ATI seine Produkte zeitgleich zu NV releasen muss? NEIN, da das Geld von der LowEnd oder Midrage Klasse kommt und die läuft immer noch gut!
Steht irgendwo geschrieben das ATI mit seinen Produkten den Konkurent überbieten muss? NEIN, da man auch Geld über P/L machen kann!
Weis gar nicht warum ihr euch immer an dem zu Spät Argument aufgeilt!

wozu kommst du immernoch mit dem gewinn/verlust-scheiß. das haben wir doch schon ausgibig besprochen und es kam nie was raus.
es geht den leuten nunmal um leistung (hardwareluxx!) und sie sind eben enttäuscht über die leistung und das release-datum. ich selbst bilde mir ein urteil nach dem release, einige können es eben vorher nicht lassen, mit "gewinn/verlust" dagegen anzugehen ist komplett fehl am platze

gruß klasse
 
Es sollte auch keine predigt sein, sondern eher ein Hinweis bezogen auf deine Aussage. Damit hier endlich alle verstehen was mit dem Stromverbrauch los ist, und das der idle Stromverbrauch noch nicht fest steht!


es mag sein das du und viele andere hier enttäuscht seit, weil ihr mehr erwartet habt, aber schreibst du in jedem zweiten Post was von zu spät? Und R600 wird totaler Dreck?
Also ich sehe zumindest nix, oder hab ichs übersehen? Ich meine es geht doch auch ohne hier andauernd provozieren zu müssen und die ganze Zeit irgendwelche vllt auch negativen Fakten noch 100mal richtig laut zu betonen und jedes mal zu erwähnen das der von vielen heiß geliebte G80 ja alles besser kann!
Würde man die ganzen "ATI ist schei**" Posts löschen, wäre der Thread bestimmt nur noch halb so lang (mal abgesehen von dem ganzen anderem G80 Spam hier drin)

Übrigens, schon bekannt? Org. MSI R600 mit Wakü, wie soll man da CF betreiben???

klick mich für größer!
 
Zuletzt bearbeitet:
....es mag sein das du und viele andere hier enttäuscht seit,...
du solltest wirklich lieber das wesentliche lesen. ich habe nämlich nicht gesagt das ich enttäuscht bin, sondern "ich selbst bilde mir ein urteil nach dem release, einige können es eben vorher nicht lassen". überlese lieber diese kurz-interessierten, die nur mal eben schnell hier reinschauen, und zum wohle des post-counters, mal eben ihre in kurzer zeit gebildete meinung ablassen. (um nicht zu sagen: nachplaudern der richtigen miesmacher und fanboys)

gruß klasse
 
Übrigens, schon bekannt? Org. MSI R600 mit Wakü, wie soll man da CF betreiben???

Ich denke mal, wer wirklich eine WaKü auf dem R600 betreiben will, wird sich eine normale Karte kaufen, den Stockkühler runterschmeißen und nen gescheiteren WaKü-Block raufpflanzen.
Das Ding da, sieht nicht gerade sehr, wie soll ich sagen, vertrauenserweckend geschweige denn schick aus.
 
.... Und R600 wird totaler Dreck.....

das sehe ich nicht so. Immerhin gibts hier ein paar Leute die gesagt haben das der R600 der Wunderchip wird und den G80 mindestens um 20-50% übertrifft. Gemessen an dieser Aussage die ja nach deren Meinung sicher war weil angebliches Insiderwissen, ist der R600 scheiße.
Hätte also jemand wie w0mbat dieses Teil nicht so gehypt würden nun den Leuten die Kinnlade nicht bis zum Boden hängen.
In früheren Zeiten hätte man so jemanden gelyncht..
 
@klasse
joa du hast schon Recht eigentlich sollte man das überlesen und unkommentiert lassen. Aber manchmal nervts halt so doll das man irgendwas dazu schreiben tut. Wie ich hier schon oft sage bin ich auch der Meinung, man sollte erstmal offizielle Fakten/Benches abwarten bevor man irgendwas schlecht machen muss. Na mal schauen was wird.
Wann fällt NDA?
Am Montag 15Uhr? Dann sinds jetzt nur noch 100 Stunden und 1 Minuten :banana:

@MetaMorphX
Stimmt schon sieht irgendwie blöd aus die Wakü, aber für Leute die keinen kompletten Wakükreislauf haben, wäre sowas ja eigentlich Ideal, denn den Radi bekommt man schon irgendwo unter und der Rest ist direkt auf der Karte verbaut!
Oder auch OEM tauglich würde ich das Ding einschätzen!
Hinzugefügter Post:
das sehe ich nicht so. Immerhin gibts hier ein paar Leute die gesagt haben das der R600 der Wunderchip wird und den G80 mindestens um 20-50% übertrifft. Gemessen an dieser Aussage die ja nach deren Meinung sicher war weil angebliches Insiderwissen, ist der R600 scheiße.
Hätte also jemand wie w0mbat dieses Teil nicht so gehypt würden nun den Leuten die Kinnlade nicht bis zum Boden hängen.
In früheren Zeiten hätte man so jemanden gelyncht..

Stimmt schon, das vorher hochgelobe hätte nicht sein müssen, aber im gewissen Sinne sind genau die Leute die es geglaubt haben, selber schuld. Denn ich zumindest sehe es als Fakt an, das man Benches erst kurz vor dem release glauben schenken darf. Und das gehype des "Wunderchips" geht ja jetzt schon mehrere Monate! Es war für mich also vorher klar das es Fakes sind, bzw. das die mit der Leistung am Ende wenig zu tun haben! Aus diesem Grund verstehe ich nicht das die Leute hier so leichtgläubig sind, ...
 
Zuletzt bearbeitet:
die msi-wakü ist ein komplettsystem und nicht dazu gedacht um in vorhandene kreisläufe einbezogen zu werden. sie sind halt wie die x1900XT toxic, gerichtet an enthusiasten die keine ahnung von wakü haben und unkompliziert auf den wakü-zug aufspringen wollen.
meiner meinung nach komplett fehl am platze, dann lieber riesige geil aussehende luftkühler oder modelle wie die "black pearl" 8800GTX

die schläuche gehen echt sehr in die breite, man kann sie aber etwas nach oben biegen. solche breite gehäuse gibt es ja kaum, selbst bigtower haben meist nur standardbreite.

gruß klasse
 
Ich finde solche Sachen gerade gut, man sollte nur noch etwas am Design werkeln und dort wenigstens noch so nen Plastikdeckel + ggf. ein Pic drauf machen. Denn so siehts blöd aus. Die Schläuche könnte man wohl auch kürzen.

Das Teil würde sich sehr gut in PCs machen die keine Wakü drin haben. Aber dennoch ne Top Karten haben wollen, die leise ist und sich vllt noch gut OC'en lässt. Oder auch in PCs die kein Platz für ne Wakü haben.
In Rechner die viel transportiert werden würde das auch gut rein passen. Des weiteren sollten solche Miniwaküs ja fast Wartungsfrei sein.

Man müsste mal die Temps wissen, ...
Aber ich denke das Teil wird im gegensatz zu der normalen Version extrem teuer sein das es sich schon fast nicht mehr lohnt!
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh