ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
ja, ich warte auch immer bis beide ihre neue gen rausgebracht haben und entscheide mich dann, normalerweise kam immer der mit bestem P/L ins haus, diesmal kommt aber nur auf die leistung an

falls crysis dann doch vor dem r600 release rauskommt, wirds garantiert nen g80
für et:qw und bf2142 wird meine 78gt erstma reichen, für crysis muss aber was neues her

das einzige was mich beim r600 etwas stört :"grösster und wärmster chip ever"
mal sehn was da auf uns zukommt, hoffentlich wird der neue kühler endlich leise sein ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich hab Angst vor den hohen Stromkosten und den teuren Netzteilen :( . Ansonsten ist der R600 Anfang nächstes Jahr sicher eine gute Sache. Hoffe nur dass meine künftige 7950 GX2 dann nicht so extrem im Preis fällt.
 
goldtitan schrieb:
Ich hab Angst vor den hohen Stromkosten und den teuren Netzteilen :( . Ansonsten ist der R600 Anfang nächstes Jahr sicher eine gute Sache. Hoffe nur dass meine künftige 7950 GX2 dann nicht so extrem im Preis fällt.


Naja... ich weiß ja net aber wenn der R600 wirklich in 65 NM produziert wird, dass anzunehmen ist wird der Stromverbrauch doch gesenkt oder??? Da von 95 bzw 80 Nm es doch schon einen sprung geben wird....
 
jetzt mal ganz ehrlich, ich versteh eure sorgen wegen dem stromverbrauch nicht

hier ne kurze rechnung (mit den werten von cb
sagen wir mal 12h office/inet +3h zocken pro tag
das ganze über 365tage bei 0,18€/kwh macht:

7900gt -> 163€
7950gx2 ->205€

bei 12h office + 6h zocken

7900gt -> 203
7950gx2 -> 260

also das sind grad mal 42€ bzw. 57€ unterschied pro jahr, also garnichts im vergleich zum preis einer HighEndGraka
und wer sich so ne graka leisten kann,kann auch die 42€/57€ mehr pro jahr verkraften
 
Zuletzt bearbeitet:
geht mir auch so, aber G80 überspring ich
 
dual-prozzi-fan schrieb:
Aber grade der R600 sollt doch net so heiß und stromsaugend werden oder? Da er ja in 65nm gefertigt wird.

Naja, die X1900 verbraucht auch deutlich mehr als ne X800 trotz kleineren Fertigungsprozess, kann man also nicht verallgemeinern. Aber die Stromkosten sind wohl wirklich nicht das Problem, wenn dann die Abwärme.
 
Die Stromkosten an sich wären ja ok. Aber ein 800Watt Netzteil kostet auch sein Geldchen :) . Zumindest kann man ja bei den kommenden Prozessoren damit rechnen dass die weniger Strom saugen.
 
Also meine nächste Karte wird eine ATI, erstmal ne X1900XT in Kürze, da ich noch ne 6800Ultra habe. Ich kaufe nie neue Karten beim Release. Wenn das mal alle tun würden, wären die Preise in 3Tagen schon gesenkt, aber was solls - viele im Forum haben den Kühlschrank noch bei Mutti! Ich denke mal, die User hier, die etwas älter sind, werden wissen was ich meine (sich mit 17 ne 7900GTX leisten?).
Aber Back to Topic:

Hatte bis jetzt immer NVIDIA (Ti4200,FX5900,6800Ultra & nForce2 - 4), aber was die sich in letzter Zeit marktpolitisch erlauben reicht mir:
Erst die Sache mit den DFI LP Ultra@SLI-Mod (geht noch,aber komplizierter), wenn die Produktionskosten sparen und 2 Chipsätze nur durch eine Lötstelle und ca. 30€! im Preis unterscheiden, soll sich Nvidia nicht wundern, wenn die Kunden die Kohle auch sparen.
Zweite Sache HDR + AA, immer noch nicht hinbekommen.
Drittens SLI auf Intelchipsätzen- gut ich bleibe bei AMD (deutsche Arbeitsplätze), aber wer ne Intel-CPU hat wird mit rotem Teppisch (wie passend in der Farbe) zu ATI geschickt.

Das ist wie bei BMW - beide waren mal gut, ruhen aber immer noch auf ihren Lorbeeren.

Edit: Teppich, obwohl Teppisch cool aussieht
 
Zuletzt bearbeitet:
Also ich hatte schon immer mal vor, mir 'ne ATI zu holen, aber irgendwie ist immer 'ne Nvidia draus geworden ...

Mal sehen - erst mal ein paar ordentliche Tests abwarten und dann schauen, wieviel Kohle man übrig hat.
 
GameBoy schrieb:
jetzt mal ganz ehrlich, ich versteh eure sorgen wegen dem stromverbrauch nicht

hier ne kurze rechnung (mit den werten von cb
sagen wir mal 12h office/inet +3h zocken pro tag
das ganze über 365tage bei 0,18€/kwh macht:

7900gt -> 163€
7950gx2 ->205€

bei 12h office + 6h zocken

7900gt -> 203
7950gx2 -> 260

also das sind grad mal 42€ bzw. 57€ unterschied pro jahr, also garnichts im vergleich zum preis einer HighEndGraka
und wer sich so ne graka leisten kann,kann auch die 42€/57€ mehr pro jahr verkraften
Da fällt mir nur ein:
Wer den Pfennig nicht ehrt, ist des Talers nicht wert.

Und wenn hier alle so denken würden, ist nen 800watt Netzteil in Zukunft zwingend notwendig :hmm:
 
so war das nicht gemeint, bei nem bestimmten verbrauch is bei mir ja auch schluss

nur heulen einige immer rum und machen ne karte schlecht, weil sie mehr verbraucht als die der konkurrenz, nur macht sich keiner darüber gedanken, wieviel unterschied das dann bei der stromrechnung wirklich ist, im verhältnis nämlich wenig
dazu war mein beispiel ja noch etwas "krass" ausgewählt, bei gpu klassen unter sich fällts ja noch etwas kleiner aus

ganz klar, ich will hier nicht zum höheren stromverbrauch aufrufen, ich achte bei mir im haushalt auch auf versteckte verbraucher, hab hier quasi nichts im standby;) , nur gings mir jetzt eher um den verbrauchsunterschied

jetzt nun aber wieder btt:)
 
XiAO DiDi schrieb:
Wer den Pfennig nicht ehrt, ist des Talers nicht wert.

Wer das aber tut, der kauft sich sowieso keine HighEnd-Grafikkarte, weil das P/L dort generell für'n Hintern ist. Also, HighEndUser => Nicht meckern über die 50 Ocken, beim Grakakauf hats ja auch nicht gekratzt.

gruß
Lord

PS: Gut, man kann ja auch davon ausgehen, dass das Geld nach dem Kauf der Karte dann alle ist :fresse:
 
AndrewStone schrieb:
Gibt´s hier eigenlich viele die jetzt noch treuer nVidia-Kunde sind aber dann wohl auf den R600 setzen, weil der keine getrennten Pixel- und Vertexshader mehr hat aber der G80 schon noch? Mir würds extrem schwer fallen auf ATI umzusteigen, auch wenn der R600 besser wäre als der G80.

Ich steige auf den R600 CF um. Passt einfach besser beim Conroe.

1. Der kommende nF5 Chipsatz taugt nichts.
2. SLI kommt nicht offiziell für den 975er Chipsatz
3. R600 ist ein echter DX10 Chip

ALSO R600 ;)
 
Dr. Wakeman schrieb:

Ich steige auf den R600 CF um. Passt einfach besser beim Conroe.

1. Der kommende nF5 Chipsatz taugt nichts.
2. SLI kommt nicht offiziell für den 975er Chipsatz
3. R600 ist ein echter DX10 Chip

ALSO R600 ;)


ich finde den R600 auch interessant, aber die fest zugewiesenen shader beim G80 könnten schneller sein. vielleicht das die karte auf die nvidia setzt...
 
Wann erscheinen den R600 und der G80?

Also meint ihr das der G80 nicht überzeugender wird als der R600?

Was sind den die Vorteile des G80 zum R600?

mfg Jocki
 
das kann dir keiner sagen ! also noch nicht :P

aber wenn dann mal die neuen grakas mit direct x 10 drausen sind , dauert das bestimmt ein halbes jahr bis das ganze in spielen umgesetzt wurde !


mfg
 
Der unterschied ist das der g80 "festgelegte" shader hat jeder hat seine zugeteilte aufgabe!
Der R600 ber hat sogenannte Unified-Shader dieser sind nicht festgelegt und könnne pixel und vertex shader sein!

Sprich das was gebraucht wird wird verwendet und das gibt den vorteil das die karte von der theorie eigendlich stromsparend und sehr leistungsstark sein müsste!Weil wenn keien shader gebraucht werden könnte man die theoretisch abschalten = kein stromverbrauch was beim g80 nicht möglich ist!
Der R600 verfügt über 64 Unified-Shader-Einheiten!Die zugleich Pixel oder vertex shader sein können :)

Mfg Avon

Ps: ich finde dne gedanken gang von ati sehr interressant und bin sehr gespannt darauf!
 
Ist denn schon bekannt, wieviele Pixel- und Vertexshadingeinheiten beim G80 vorhanden sein werden? Hab keine Muße, mir den ganzen Schotter hier drin durchzulesen...
 
Ist der R600 und G80 schon released wurden oder Daten von den Herstellern bestätigt wurden? Quellen?
 
Avon schrieb:
Der unterschied ist das der g80 "festgelegte" shader hat jeder hat seine zugeteilte aufgabe!
Der R600 ber hat sogenannte Unified-Shader dieser sind nicht festgelegt und könnne pixel und vertex shader sein!

Sprich das was gebraucht wird wird verwendet und das gibt den vorteil das die karte von der theorie eigendlich stromsparend und sehr leistungsstark sein müsste!Weil wenn keien shader gebraucht werden könnte man die theoretisch abschalten = kein stromverbrauch was beim g80 nicht möglich ist!
Der R600 verfügt über 64 Unified-Shader-Einheiten!Die zugleich Pixel oder vertex shader sein können :)

Mfg Avon

Ps: ich finde dne gedanken gang von ati sehr interressant und bin sehr gespannt darauf!


hmmm, woher hast du diese information?
das ist sehr unwahrscheinlich. du siehst die unified shader technik aus einer sehr beschränkten perspektive. eine abschaltung von einzelnen shadern ist nicht möglich.
der transistor count erhöht sich durch die unified shader architektur, was sogar einen höheren verbrauch verursacht. auch 3dcenter geht von einem sehr hochem verbrauch aus.
die "festen" shader sind anders aufgebaut und effektiver. aber es gibt theoretische umgebungen in denen unified besser sind. (wenn man 30 vertex shader braucht z.b)

wenn dich das interessiert dann lese die 3dcenter news durch.
 
Zuletzt bearbeitet:
so nun hätte ich auch mal ne frage: die infos sind ja noch recht wage. gibts schon irgendwo tests oder pics der karten?

passend zum 975Xer chipsatz hätte ich gern ne R600er karte im rechner (da sich nv ja gegen SLI@975X stellt und ich gern die möglichkeit hätte CF einzusetzen). erste tests des conroe gabs ja auch schon lange vor dessen erscheinen (XS-Forum). wie schauts bei den neuen grafikkarten aus? ebenfalls schon tests bekannt?
 
Lord schrieb:
Ist denn schon bekannt, wieviele Pixel- und Vertexshadingeinheiten beim G80 vorhanden sein werden? Hab keine Muße, mir den ganzen Schotter hier drin durchzulesen...
Würde ich auch gerne wissen. Weiß das einer?
 
es ist nicht bekannt wieviele shader der G80 haben wird. nicht mal spekualtionen gibt es wirklich.

es gibt auch keine Pics oder vorab tests der karten, das wäre auch äusserst ungewöhnlich in diesem bereich.
beim conroe ist es eine ausnahme, bzw. eine sehr gute werbecampagne von intel. es wurden CPUs an die richtigen leute verteilt...mund propaganda ist die billigste werbung, nicht umsonst hat intel viele marketing preise gewonnen.

ati wird ohnehin erstmal die x1950xtx raus bringen...
 
Hm, also wenn man SLI haben will sollte man zu ner AMD-CPU greifen und wenn man CF haben will eher zu Intel, so ein Dreck, schon wieder was das die Zusammenstellung meines neuen High-Ends-Systems einschränkt.-.-
 
hi leute wollte mir eigentlich mal ne neue graka kaufen die 66GT muss einfach mal weg. jetzt wollte ich fragen ob sich das lohnt auf den r600 oder g80 zu warten in hinsicht darauf dass die graka so 2-3jahre halten soll.
Danke


MFG Clankiller:wink:
 
AndrewStone schrieb:
Hm, also wenn man SLI haben will sollte man zu ner AMD-CPU greifen und wenn man CF haben will eher zu Intel, so ein Dreck, schon wieder was das die Zusammenstellung meines neuen High-Ends-Systems einschränkt.-.-
SLI geht auch auf intel, du brauchst eben gemoddete Treiber!und High-End wirste in nächster Zeit nur mit Intel haben was die Leistung angeht...und ner Wakü natürlich:fresse:

grüssLe HoVa
 
kommt drauf an wieviel du ausgeben willst...jetzt ne x1800xt oder bald nen g600 der wesentlich teurer??? ist aber auch einiges länger hält...
 
cl55amg schrieb:
es ist nicht bekannt wieviele shader der G80 haben wird. nicht mal spekualtionen gibt es wirklich.

FALSCH!

es gibt auch keine Pics oder vorab tests der karten, das wäre auch äusserst ungewöhnlich in diesem bereich.
beim conroe ist es eine ausnahme, bzw. eine sehr gute werbecampagne von intel. es wurden CPUs an die richtigen leute verteilt...mund propaganda ist die billigste werbung, nicht umsonst hat intel viele marketing preise gewonnen.

Aber es gibt inzwischen funktionierende Chips und geschwätzige nVidia-Mitarbeiter!

Lord schrieb:
Ist denn schon bekannt, wieviele Pixel- und Vertexshadingeinheiten beim G80 vorhanden sein werden? Hab keine Muße, mir den ganzen Schotter hier drin durchzulesen...

Die aktuellen Gerüchte besagen folgendes:

32 Pixel-Shader
16 Shader für Vertex und Geometrie

Quelle: http://uk.theinquirer.net/?article=32769

Demgegenüber ATI mit 64 Unified Shadern.

SFVogt schrieb:
Ist der R600 und G80 schon released wurden oder Daten von den Herstellern bestätigt wurden? Quellen?

Der G80 hatte vor Kurzem sein Tape-Out, d.h. daß er als funktionierendes Silizium existiert und am grundlegenden Design nichts mehr geändert wird. Allenfalls kleine Änderungen, die eher das Fertigungsverfahren betreffen wird es noch geben, um die gewünschten Yields bei hohen Taktraten zu erzielen.

Quelle: http://uk.theinquirer.net/?article=32856

Der ATI R600 hatte ebenfalls schon seit Tape-Out, und damit kann man die 64 Unified Shader ebenfalls als definitiv ansehen.

Quelle: http://uk.theinquirer.net/?article=32546

Alle Unklarheiten beseitigt?
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh