ATI R600 [Spekulations Thread] (Part 2)

Status
Für weitere Antworten geschlossen.
Es ist doch total egal welcher Hersteller, hauptsache die Graka ist die schnellste bei bester Bildqualität.Wenn das jetzt halt ATI ist, was sich noch zeigen wird, wenn kümmerts.
ist eigtl. was über die Bildqualität bekannt im vergleich zur 8800ér?
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Da sind mir doch fps hin oder her erstmal egal wenn die Games Grafikfehler haben.

Das sind Treiberprobleme.
Die jetzigen Treiber scheinen mir "aufgepimpt" zu sein. Hier ein Pflaster, dort eins und hoffen, das nirgend etwas ausläuft.
Ich find's genauso scheiße, dass Nvidia sich schon 2 Monate Zeit lässt, vernünftige Treiber zu releasen.
 
Lovesuckz, du hast etwas widerlegt?

Was für ein Argument, nur weil 2 G71 soviel brauchen, bzw geringfügig mehr als ein R580/+. :haha:

Ich wette auch, es wird keine GX2 mehr geben, jede 2 Chip Karte ist im Grunde genommen eine Verzweiflungstat, sei es die Voodoo 5 Reihe, die Volari V8 Duo...

Wer das nicht einsieht, der ist zu sehr mit dem Herzen dabei, anstatt mal nachzudenken :rolleyes:
 
Naja das Problem haste aber auch bei ATI gehabt und bei meiner 6800Ultra beim Release war halt auch nen Game bei wo ich nur den Ton gehört habe und der Bildschirm schwarz.

Ich glaub nicht das sich das irgendwann wirklich ändern wird, manche merkens garnicht weil "ihre" Games nicht betroffen sind, andere widerum könnten an die Decke gehn.
Bist auf ner Lan fetteste Graka und schwarzer Bildschirm.:shot:
 
Lovesuckz, du hast etwas widerlegt?

Sehe meine Argumente, auf welche du nicht eingegangen bist.

Was für ein Argument, nur weil 2 G71 soviel brauchen, bzw geringfügig mehr als ein R580/+. :haha:

Ja.
Woran macht man sonst eine Verzweiflungstat fest?
Wie ich schon sagte: Für den Kunden ist es egal, wie die Leistung erreicht wird.

Ich wette auch, es wird keine GX2 mehr geben, jede 2 Chip Karte ist im Grunde genommen eine Verzweiflungstat, sei es die Voodoo 5 Reihe, die Volari V8 Duo...

Natürlich wird es in absehbarer Zeit keine GX2 mehr geben. Der G80 ist ein Monster. Stromaufnahme, PCB etc.
Der G71 Chip dagegen ist eher ein Baby. Daher war die GX2 als Massenprodukt auch keine Verzweiflungstat, da sie bis auf schlechte Profile keine Probleme mit sich brachte.

/edit: Ansonsten ist eine GX2 nichts weiteres als zwei normale Karten im SLI. Nur lauffähig in einem PCIe Slot.
Und wir wollen doch nicht behaupten, dass SLI/XFire Verzweiflungstaten wären.
 
Zuletzt bearbeitet:
Ja gut mach sein das ich falsch denk das sagen meine eltern auch immer, aber der r600 wird garantiert schneller sein weil er später released wird alles andere würde für Amd ein schlag ins Gesicht sein und treue Kunden nach nvidia locken.

****closed*****
 
Tja lovesuckz, du hast deine Meinung, ich habe die Meine.

Aber anscheinend willst du gar nicht verstehen, was ich sagen will.
 
nix closed oO
Was willst du?!
 
Aber anscheinend willst du gar nicht verstehen, was ich sagen will.

Ich verstehe sehr wohl.
Nur ist dies "Mehr GPUs = Verzweiflungstat" eben nicht richtig.
Wenn ich so argumentieren würde, wäre ein 512Bit Speicherinterface gegenüber 384Bit wohl auch eine Verzweiflungstat. Weil, aeh, breiter...
Oder mehr TMUs. Oder mehr Speicher. Oder,oder,oder.
Was zählt, zum dritten Mal, ist jedoch die Leistung, welche unter den Bedinungen erreicht wird.

Nochmal mein Erdebeispiel:
"Die Erde ist eine Scheibe."
"Nein, sehet, ich habe den Beweis, dass es keine Scheibe sein kann!"
"Tja das mag sein, aber das ändert nichts an der Tatsache..."
...

Eine GPU, die genauso viel Strom verbraucht wie zwei, ist wohl kaum "besser" oder eine "geringere" Verzweiflungstat.
 
die x1900xt war ein staubsauger, zumindest im 3d bereich!!!
bei der 1950 soll der lüfter ja etwas angenehmer sein!
die 8800er ist dagegen angenehm "leise" zu den andern karten kann ich leider nichts sagen da ich sie nicht besaß, wie wahrscheinlich die meisten hier..aber trotzdem drüber reden;)
aso die 5800ultra kenne ich von nem kumpel die ist min. genauso laut eher lauter als die 19er ati.ist schon etwas länger her..

fakt ist, das sich das spiel immer dann wiederholt wenn ein hersteller etwas abgeschlagen ist in der leistung und von haus aus schon an die limits gehen muss.könnte mir vorstellen das nv. dies vielleicht kurzfristig gegen den r600 mit einer art ultra variante auch tun muss.zumindest bis zum refresch.

hoffe das die ati an die bildqualliät alter tage anknüpft bzw. mit nv gleichzieht!
 
Was haben die Leute soviel Hoffnung in den G80 Refresh? Die wird doch nur minimal schneller sein, wer da den großen Sprung erwartet, der ist ein Träumer.

Achja ich erinnere nochmals an lJanuar 2006, als R580 gelauncht wurde, wieviele sagten G71 wird alles wegrocken und hat sogar 32pp? Eine X1900XTX war am Ende trotzdem schneller.

G81 wird höchstens die Lücke zum R600 schließen, nV hat überhaupt nicht das Zeug dazu, ATi bei einer 1 GPU Karte zu schlagen. Das probieren sie jetzt schon Jahre und es klappt nicht. Jedes ATi Gegnstük war bisher schneller...


Vollkommen Recht hast du, ich bin kein Fan von Nvidia oder vm Ati, aber ich schaue immer wer das beste Preisleistungverhältnis hat, meistens kaufe ich aber den besten :)
Nvidia ist günstiger als ATI/AMD, aber ATI war immer schneller als ein Nvidia.
 
Naja vor zirka ne´r Stunde ist mein Board abgeraucht, jetzt muss ich mir meinen neuen Rechner früher zusammenbauen wohl ohne Graka, sollte eigtl. erst im Februar sein.

Gottseitdank hab ich noch ne 2MB PCI Karte SIS, damit lach ich euch alle aus Ultra schnell!!! und das noch passiv.:shot:

P.S. Jetzt gurke ich auf´m P4 rum, wie gut das ich keine Signatur hab.
 
Zuletzt bearbeitet:
Ich verstehe sehr wohl.
Nur ist dies "Mehr GPUs = Verzweiflungstat" eben nicht richtig.
Wenn ich so argumentieren würde, wäre ein 512Bit Speicherinterface gegenüber 384Bit wohl auch eine Verzweiflungstat. Weil, aeh, breiter...
Oder mehr TMUs. Oder mehr Speicher. Oder,oder,oder.
Was zählt, zum dritten Mal, ist jedoch die Leistung, welche unter den Bedinungen erreicht wird.

Nochmal mein Erdebeispiel:
"Die Erde ist eine Scheibe."
"Nein, sehet, ich habe den Beweis, dass es keine Scheibe sein kann!"
"Tja das mag sein, aber das ändert nichts an der Tatsache..."
...

Eine GPU, die genauso viel Strom verbraucht wie zwei, ist wohl kaum "besser" oder eine "geringere" Verzweiflungstat.

Was hast du andauernd mit deinem Stromverbrauch? Das tut doch nichts zur Sache, die GX2 Reihe ist eine Verwzeiflungstat von nvidia, sich auf dem Thron breit zu machen, Speedthron wohlgemerkt.

Egal wieviel Strom sie brauchen...
 
Naja vor zirka ne´r Stunde ist mein Board abgeraucht, jetzt muss ich mir meinen neuen Rechner früher zusammenbauen wohl ohne Graka, sollte eigtl. erst im Februar sein.

Gottseitdank hab ich noch ne 2MB PCI Karte SIS, damit lach ich euch alle aus Ultra schnell!!! und das noch passiv.:shot:

P.S. Jetzt gurke ich auf´m P4 rum, wie gut das ich keine Signatur hab.

mit ein bisschen oc wirds schon reichen:haha:
 
Das is nen alter Dell, da muss ich wohl zum oc´n nen neues Bios proggen und den Lötkolben schwingen.:shot:
 
Und deswegen kam der 7950GX2, die hatte Laptop Ramsteine angeblich, deswegen der geringere Stromverbrauch als der alte GX2, oder liege ich da falsch?
Wie gut das ich mir auch kein 8800GTX gekauft habe, ich warte noch ein bisschen.
 
Was hast du andauernd mit deinem Stromverbrauch? Das tut doch nichts zur Sache, die GX2 Reihe ist eine Verwzeiflungstat von nvidia, sich auf dem Thron breit zu machen, Speedthron wohlgemerkt.

Kann es sein, dass du Gewisse Dinge nicht verstehst?
Wie die Leistung erreicht wird, ist doch vollkommen egal.
Was zählt, ist das, was hinten rauskommt.
Und wenn der eine eben über mehr GPUs geht, welche eine deutlich geringere Komplexibilität aufweißen, dann ist dies ein genauso vernünftiger Weg wie über ein deutlich komplexeres "Ein-Chip-Design" zu gehen.
Was bringt mir der r580, wenn er eben die physikalischen Nachteile mit sich bingt?
Genauso gut ist für einen eine GX2 nichts, da er keine Lust hat, SLI Profile anzupassen oder zu entwerfen.

Und ja: Stromverbrauch ist ein Merkmal, welches zeigt, wie Leistung zu stande kommt. Da der r580 nunmal komplexer als der G71 ist (dadurch auch seine Leistung gewinnt), muss damit gelebt werden.
 
Man sollte eigtl. immer warten bis beide ihre Karten draus haben, vor allem wenn wieder ne neue DX Stufe ansteht.Aber meistens juckts halt in den Fingern.
Es ist halt immer ne Glücksache bei der 6800ér war Nvidia im Vorteil.
Die 1800XT war auch nich so der Renner am Anfang, liegt ja halt auch an den Games und die 1900XTX rockte ganz gut.

Bis jetzt hatte ich Glück und hatte immer die beste Wahl getroffen.
 
Ja ich bin dumm!

Es ist eben nicht egal wie die Leistung zu stande kommt. Ich will eine normale 1 Chip Graka, die sich leicht kühlen lässt, wo ich keinen 120€ Wakühler brauche, weil ja gleich 2 Chips gekühlt werden müssen.

Aber ich klinke mich hier aus, ich werde meine Meinung nicht ändern, genausowenig wie du deine änderst...
 
Fear bei 2048x1536, 4xAA und 16xAF

8800GTX= 64.2 FPS
R600= 122.3 FPS

Ich kanns net glauben. :fresse: her mit 30" TFT :bigok:
 
Kann es sein, dass du Gewisse Dinge nicht verstehst?
Wie die Leistung erreicht wird, ist doch vollkommen egal.
Was zählt, ist das, was hinten rauskommt.
Und wenn der eine eben über mehr GPUs geht, welche eine deutlich geringere Komplexibilität aufweißen, dann ist dies ein genauso vernünftiger Weg wie über ein deutlich komplexeres "Ein-Chip-Design" zu gehen.
Was bringt mir der r580, wenn er eben die physikalischen Nachteile mit sich bingt?
Genauso gut ist für einen eine GX2 nichts, da er keine Lust hat, SLI Profile anzupassen oder zu entwerfen.

Und ja: Stromverbrauch ist ein Merkmal, welches zeigt, wie Leistung zu stande kommt. Da der r580 nunmal komplexer als der G71 ist (dadurch auch seine Leistung gewinnt), muss damit gelebt werden.

das hat intel auch mti der netburst architektur gedacht :fresse:

wie die leistung erreicht wird ist doch egal,
wichtig istwas hinten rauskommt!


und das war damals heiße luft.
 
@ Viva :wo haste das her ?
ich glaub der R600 soll im 80nm erscheinen oder ?

jop das ist aich der rghund warum die architektur jetzt gestorben ist bei Intel. Die Verlustleistung war einfach viel zu hoch trotz neuerer Fertigungstechniken... es war das einzig sinnvolle was neues zu entwickeln und nicht weiter an dder anderen architektur rumzudoktern...
 
@ Viva :wo haste das her ?
ich glaub der R600 soll im 80nm erscheinen oder ?

jop das ist aich der rghund warum die architektur jetzt gestorben ist bei Intel. Die Verlustleistung war einfach viel zu hoch trotz neuerer Fertigungstechniken... es war das einzig sinnvolle was neues zu entwickeln und nicht weiter an dder anderen architektur rumzudoktern...

Bei hartware habe ich es gelesen aber du hast Recht, es ist 80nm.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh