ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ach dein prescott sollte reichen solange du nicht in 1600x1200 max AA/AF hdr usw zockst,
und um so mehr grafik power die spiele brauchen um so mehr limitiert die grafik karte also ich denke dein prescott reicht noch, limiteren bei 1280x1024 würde deine cpu wohl nicht, jedenfalls nicht in unspielbaren bereichen

Reichts auch noch für Crysis?
 
boah kann ich nicht sagen,
schau dir mal test an ab wann ein P4 2,6 ghz versagt bei den aktuellen games oder frag mal jemanden der eine aktuelle high end karte hat und diese dann in einem alten P4 2,4 oder 2,6 ghz system mit Fear testet alle settings hoch 1280x1024 mit full aa/AF wenn das dann noch über 30 fps sind klappts wohl auch mit crisis.

@ flyer, weiss nicht was du meinst
die limiterung lässt sich ausstellen
hier quake 3 benches mit aktuellen karten

http://www.tweakpc.de/hardware/tests/graka/xpertvision_7600GT_sonic/s04.php?benchmark=q3a&lang=


edit:
http://www.cooling-station.net/index.php?page=tests&id=132&seite=4
 
Zuletzt bearbeitet:
Weis man schon was die neue 8800gt/x kosten sollen? Mit meinem 3ghz prescott werden aber wohl stark unterfordert sein oder?

Sorry aber das wäre absolut schwachsinnig einen G80 mit einem uralt 3Ghz P4 zu kombinieren. Selbst die aktuelle Generation ist schon zu schnell für diesen Prozessor.

Die Grafikkarte kann so nichtmal ansatzweise ihre Performance auspielen...
 
Da hst Du vollkommen recht, Night meint, das ein 3 GHz PRescott mit einer G80 nicht limitiert, das ist doch lächerlich...
 
also
spreche grad mit jemandem im icq

er will mir nicht glauben dass bei quake 3 bei ner graka wie fx5800ultra und x1900xtx gleich viele fps sind bei settings von 640x400 low details alles aus (niedrigste einstellung)

denn die grakas werden so unterfordert dass die cpu limitiert.
er sagt die x1900xt muss mehr fps haben, is aber nicht so

von mir aus im test

5800ultra
6800ultra
7800gtx

quake 3 low details niedrigste auflösung 640x400 kein aa kein af alles aus

die cpu wird limiteren und bei allen grakas wird ungefähr die selbe fps anzahl raus kommen,
er wills mir nicht glauben, kann mich mal jemand bestätigen ?
.
EDIT (autom. Beitragszusammenführung) :

.
Da hst Du vollkommen recht, Night meint, das ein 3 GHz PRescott mit einer G80 nicht limitiert, das ist doch lächerlich...

dass ist so nicht ganz korekt,
in meinem satz steht sie wird nicht ins unspielbare limiteren, sprich unter 30 fps
 
Zuletzt bearbeitet:
Ich habe heute irgentwo mal gelesen, dass Crysis im D3D10 Pfad die Geometrieshader nutzen könnte und wahrscheinlich auch nutzen wird.
(War glaube ich ein aktuelles Interview)

Was denkt ihr ? Die Geomtrieshader könnten vllt zersplitternde Bäume oder sowas berechnen...oder wenn irgentetwas zerberstet.


Meint ihr, dass ein Opteron @ FX60 auch schon den G80 bremsen würde?
Bin am überlegen mir die Woche ein E6400 System aufzubauen um diesen dann gleich mal an das Maximum zu bringen.
 
Meint ihr, dass ein Opteron @ FX60 auch schon den G80 bremsen würde?
Bin am überlegen mir die Woche ein E6400 System aufzubauen um diesen dann gleich mal an das Maximum zu bringen.

was meinst du mit ausbremsen ?
unspielbar also unter 30fps in max details fullaa/af hoher auflösung usw ?
ich denke da würde ein 3000+ noch mindestens 30 fps geben ;)
 
Naja, wenn ich mir dann einen G80 holen will, möcht ich nicht, dass mein Opteron (DC 2,7Ghz) den G80 ausbremst...nicht, dass dann einer mit ner 7900 GT und einem C2D meinen G80 mit Opteron plattmacht :rolleyes:
Der G80 soll schon seine Muskeln spielen lassen können, wenn du verstehst was ich meine. :)
 
Naja, wenn ich mir dann einen G80 holen will, möcht ich nicht, dass mein Opteron (DC 2,7Ghz) den G80 ausbremst...nicht, dass dann einer mit ner 7900 GT und einem C2D meinen G80 mit Opteron plattmacht :rolleyes:
Der G80 soll schon seine Muskeln spielen lassen können, wenn du verstehst was ich meine. :)

hmm ich weiss noch nicht ganz was du meinst *fg*
willst du mir sagen "du willst nicht dass jemand mit einem C2D und einer 7900GT bei gleichen settings mehr fps hat"
falls ja kann ich dich getrost beruigen
ich denke selbst mit einem 3500+ also A64 @ 2,2 ghz hätteste mehr fps bei gleichen settings bei crysis. nur bei spielen wo die grafik karte total unterfordert ist wie quake 3 oder cs etc. würde der andere mit der 7900 dann mehr fps haben ;)

edit: vorraus gesetzt wir reden hier von high aa/af hohe auflösung usw details bei crysis :)
 
Zuletzt bearbeitet:
Na klar, von 2560*2048, 32-SLI-AA,16*AF oder höher und zusätzlichen Console-Erweiterungen, um die Sichtweite und die Details zu erhöhen :fresse:

Und den Apple TFT mit der 4K-Auflösung habe ich mir auch schon vorbestellt :fresse:

[Stellt euch mal vor, ihr habt wirklich dieses neue 4k-TFT von Apple...bei Vista hat ein Symbol, wenn ihr es auf normale Größe zieht, dann vllt ne Auflösung von 640*480 :fresse: ]


Teilweise-BTT: Ich hoffe Crysis kommt mit 7.1 Sound daher....denn sonst wäre dieses Spiel nicht das modernste, in diesem Bereich...und das könnten sich die Programmierer ja nicht leisten...diesen Titel zu verpassen...^^
Ein Spiel mit 7.1 Sound ist ja schon in Entwicklung...aber ich weiß nichtmehr welches ^^*
 
ach 5.1 benutzen ja nichtmal 50% der user, wieso dann 7.1 :)
 
Rate mal... ...weil mein 7.1 System sich anstrengen will. :)

Wenn Crysis sogar D3D10 unterstützt, möchte ich auch nicht auf einen perfekten Klang verzichten. Die Waffensounds klingen schonmal fett.
Fehlt nurnoch 7.1 Sound...Crysis unterstützt ja schließlich QuadCore...also genug Leistung für 7.1 und schwer zu programmieren sollte es auch net sein. :)
 
jo is leicht.
doom 3 mit 5.1 ist auch mega geil
weiss schon was du meinst, aber ich glaub die gehen nach masse
 
http://www.hardwareluxx.de/story.php?id=4559

hwluxx schrieb:
n den letzten Tagen mehren sich die Meldungen zu NVIDIAs nächster Grafikgeneration mit G80 GPU. Dies lässt auf eine baldige Vorstellung derselbigen hoffen. In einem Interview mit NVIDIAs PR-Chef Michael Hara mit den deutschen Kollegen von Golem erleuterte dieser nun genauer was es mit der "NVIDIA's Physics card" auf sich hat. ASUS stellte vor einigen Tagen das P5N32-SLI Premium mit drei PCI-Express x16 und NVIDIA nForce 590 Chipsatz vor. In der Pressemitteilung war nun auch die Rede von einer "NVIDIA's Physics card", für welche der dritte PCI-Express Steckplatz vorgesehen ist.

Michael Hara stellte nun richtig, dass es sich dabei nicht um einen speziellen Physikbeschleuniger aus dem Hause NVIDIA handelt. Vermutlich handelt es sich also um Physics-SLI, also eine Möglichkeit die Physik in einer einfachen Grafikkarte zu berechnen. Bereits im Frühjahr diesen Jahres stellte NVIDIA diese Möglichkeit der Öffentlichkeit vor, gab bisher aber keinen offiziellen Startschuss.

Doch Michael Hara spielte auch mit weiteren Andeutungen, die vermutlich auf den G80 abzielen. Denn NVIDIA denke darüber nach, die Physikberechnung durch die neue Unified Shader-Architektur durchführen zu lassen.

was hat nvidia vor ? kommt mir sehr nach der ati physic technik vor mit 3 karten :hmm:

aber wer will sich sowas ausmalen, 3 x 8800gtx :stupid:

das netzteil wird glühen, und der stromzähler dreht seine runden
 
ach king bill was du dir wieder zusammen malst :lol:
look mal die letzten 3 seiten, wurde schon drüber geredet
 
Der max_FPS steht in der Config auf 85 soweit ich mich erinnern kann, man sollte es auf 0 setzen.

Der genaue Befehlt lautet: com_maxfps

Diesen sollte man auf 125 oder 333 stellen, da somit weitere und höhere Sprünge möglich sind. Beim "benchen" ist der Wert allerdings egal, da er bei einer timedemo keinen Einfluss hat.
 
Der genaue Befehlt lautet: com_maxfps

Diesen sollte man auf 125 oder 333 stellen, da somit weitere und höhere Sprünge möglich sind. Beim "benchen" ist der Wert allerdings egal, da er bei einer timedemo keinen Einfluss hat.

willkommen im forum lol
hast du dich wegen der sache extra angemeldet :) ?
 
Aloha!

Danke :)

Ich hab mich eigentlich nur wegen der Suchfunktion angemeldet (hat auch geholfen, die neue Kiste steht fast).
 
*Thread push*

Die 1950 XTX hat 512MB GDDR4 @ 1000 Mhz...
ich erinnere mich daran gelesen zu haben, der R600 hat mind 1250 Mhz.

Womit rechnet ihr beim G80 ?

Es wurde ja immer 1200-1500 Mhz spekuliert. Samsung müsste auch schon längt 1500 Mhz Speicher in Masse produzieren können...nur ist die Frage, ob die das schon wollen !?

Ich denke aber auch, dass der G80 mind 1250 Mhz Speichertakt haben wird.

Was meint ihr ?

Schließlich brauch man heutzutage soviel Speicherbandbreite...besonders 2007...denkt nur an die hochaufgelösten Displays...ich sag nur 2560*2048...dann die neuen AA/AF Modi, mit denen man stark rechnen kann.
 
rechne auch mit 1250, aber mal ne frage am rande
zu viel speicherbandbreite bringt den karten doch nix bei hohen auflösungen mit aa/af wenn die pixelfüllrate und shaderleistung usw zu schwach sind,

als beisp.

eine 6800ultra hat genau so viel speicherbandbreite wie eine 7800GTX da beide gleich hoch getakteten ram.
nur stürtzt die 6800ultra bei gleichen settings mit viel AA/AF hoher auflösung eher ein weil sie weniger roh power hat.

also birngen es 1500 mhz gddr4 ram wohl nicht wenn die karten zu schwach sind um es ausnutzen zu können oder ?
 
Zuletzt bearbeitet:
Ich denke die Hersteller Konzentrieren sich lieber auf die Breite Masse und die spielt nun mal in 1280x1024 das sieht man doch schon daran das man für gut 60% aller Spieletitel irgendwelche configs umschreiben oder die ganze .exe datei im hexeditor verändern muss um mal in der richtigen WS auflösung spielen zu können
 
Spiele-Entwickler programmieren für die Masse !

NVIDIA und ATI _NICHT_ !

Die müssen Benchmarks gewinnen und versuchen den Grafik-Thron zu bekommen.


Wenn die G80-Karten 75% Schneller sind, kann man auch die 1500Mhz gut gebrauchen ;)

Besonders, wenn neue AA Modi kommen und Transparentes AA frisst sowieso sau viel !
 
Wie schon geschrieben, warte ich erstmal noch bis Mitte nächsten Jahres ab. Vor allem mit Vista (DX10) kann und möchte ich mich nicht so schnell anfreunden. Wieso gibt es kein DX10 Update für XP? Oder kommt da etwas, auch wenn es inoffiziell ist?
Außerdem rechne ich mit Bugs der ersten Karten. Daher habe ich mich nun entschieden, mir zwei 7950GT512 zu holen (650/1620), die mir die Zeit bis dahin überbrücken.

Ich bin trotzdem schon sehr gespannt auf die neuen Karten. Vor allem auf die Kühllösungen.
 
Die müssen Benchmarks gewinnen und versuchen den Grafik-Thron zu bekommen.

Aber auch nur, damit alle denken: "Die haben die schnellste Karte." - und dann wird "nur" 'ne Mainstreamkarte gekauft ...

Den größeren Umsatz machen Nvidia und ATI im Low-End- und Mainstream-Bereich. Die Benchmarkkrone ist eigentlich nur "Propaganda" - aber auch was für uns Freaks :coolblue:
 
mal kurz ne frache.
wann kommen denn jetz die neuen nvidias und atis??? gibts da schon release datum oder vielleicht schon bilder???

mfg
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh