ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
ach spencer
schau dir mal eine 7600gs an
die brauch kaum w aber hat mehr power als jede 9800pro die 2 jahre älter ist und zudemm brauch die 9800pro auch gewaltig mehr strom
also du darfst nie von den topp modellen ausgehen die schlucken immer unnötig viel und nach 2 generationen ist der speed dann locker mit 1/3 oder weniger des stromes möglich

@bud spencer
die entwicklung von der du redest ist eben falsch und wird nicht endlos weitergehen
der C2D ist das beste beispiel dafür und auch die graka-hersteller werden wieder sparsamere GPU´s entwickeln...

Dann schau dir mal den Quadcore an... Und kommende Chips, ggf. mit 8 Cores. Die Tendenz ist eindeutig steigend. Klar ist der Speed auch nicht unermesslich.

Ich bleibe bei meiner Meinung, dass es zwar energieeffizientere Hardware geben wird, aber insgesamt wird der Stromverbrauch steigen. Warum kommst du wohl heute nicht mehr mit einem 200 Watt Netzteil klar?!
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hat er aus den super tollen und verlässlichen news gedeutet, die er auf der letzten Seite gelesen hat. ^^
 
Zuerst zur information das ich das mit dem externen Netzteil im zusammenhang mit dem G80 gelesen habe. NIVIDA wird wohl wie ATI auch ein sollches Monster bringen wie der R600, was anderes hab ich auch nicht erwartet, ehrlich gesagt! Zu 100% sicher ist diese info aber noch nicht! Hört doch auf zu Jammern von wegen VISTA kommt mir nicht ins Haus und ne sollche Stromfresser Graka schon mal gar nicht. Wenn ihr erst einmal Bechmarks und den speed die Optionen von Shader 4 erst einmal selber gesehen habt, rennt ihr doch zum nächsten Händler und holt euch selber diese Hardware, wollen wir wetten ? ;) Da kommt ne neue Gen an Graka GPUs die auch was neues Darstellen kann, ich glaub das ist noch nicht bei allen so rüber gekommen wenn man hier einige Posts liest. Ich für meinen Fall warte zuerst mal ab um zu sehen was beide, ATI wie auch NIVIDA da bringen, dagegen sperren tu ich mich jedenfalls nicht. :)

mfg
 
Und als hochpotente Übergangslösung bietet sich das NX7900GTO mit einem super Preis/Leistungsverhältnis geradezu an. Also abwarten und Kaffee trinken. Aber nur her mit den Gerüchten :d

Schaut mal, was ich gefunden habe:
http://uk.theinquirer.net/?article=34454 (False R600 rumours do the rounds)

Falsches Gerücht mit 3 Slot-Kühlung. Soll eher wie ein X1950 aussehen, vllt. ein potenterer Kühler. Zudem wird auch 180 Watt als Verbrauch angegeben, was bei der Leistung (die ich mir vorstelle) völlig gerechtfertig ist.

http://uk.theinquirer.net/?article=34479 (Nvidia delays G80)

Ggf. werden sie den Chip noch etwas tunen.
 
Zuletzt bearbeitet:
Ich würde mal sagen, wer glaubt, dass der R600 250 Watt fressen soll, der hat schon lange den Bezug zur Realität verloren. :shot:

Denkt doch mal nach. Warum sollte ATI und NVIDIA 200 Watt Karten herausbringen ? Um die Leistung zu steigern ? Davn träumt ihr...ich glaube kaum, dass beide Chipentwickler soviel Umkosten in kauf nehmen, ihren Ruf riskieren...kein normaler Mensch würde sich eine 200 Watt geschweigedenn 250 Watt Karte kaufen. Nur die wenigsten Freaks würden sich sowas kaufen...die Folge wäre, dass die Entwicklung solcher Schlachtschiffe sich nicht rentieren würde.

Wisst ihr was das heißt, 250 Watt ? 250 Watt auf 2-3 ~cm²...das kann kein normaler Luftkühler kühlen. Damit wäre auf der selben Fläche die doppelte abwärme...und euch ist schon bewusst, dass die aktuellenn Radeons schon 80-90°C oder sogar noch darüber gehen oder ? GLaubt ihr etwa, man könnte die doppelte Abwärme noch abführen ?

Wenn die Karten 2 GPUs haben, was sie ja eigentlich nicht haben soll, dann wäre der doppelte Verbrauch locker möglich...aber nicht mit einem Chip !!!

Teilweise sagen Gerüchte, der R600 wäre doppelt so heiß, also um die 160-180°C....wer sowas glaubt, glaubt noch an den Weihnachtsman...mehr sag ich nicht dazu.


Wenn ihr euch ein bisschen auskennen würdet, müsstet ihr ja wissen, dass die Sprünge von GPU-Generation zu GPU-Genertion is Sachen Stromverbrauch nicht groß waren. Sonst wären wir heute schon bei >1000 Watt für >eine< Grafikkarte, wenn es nach dem Motto der Gerüchte geht.

Eine G71 Karte, wurde vllt 70°C Warm, ich habe die genauen Zahlen nicht im Kopf. Man hätte die Anzahl der Shader schon locker auf 32 erhöhren können. Also 8 zusätzliche Shader + mehr Takt.
50% Mehrleistung wären schon damals mit dem G71 drin gewesen aber es gab ja die neuen GX2-Karten !

Wieso sollte Nvidia zB. 200 Watt brauchen ? Für eine 150% schnellere Karte als den G71 ? Warum sollte man soviel Leistung aus einer Karte quetschen, wenn sich schon jeder über 80% Mehrleistung freuen würde ? Um die Konkurenz zu besiegen`?-Niemals...die würden sich durch die Produktionskosten nur ins eigene Fleisch schneiden ! Das wäre eine Minusgeschäft...

Wenn der G80 tatsächlich 200 Watt brauchen sollte, dürft ihr mich gerne verbannen...aber die Wahrscheinlichkeit dafür ist mehr als gering ! ;)

Edit: Glaubt ihr, das es auch nur 1ner Person von 1000 gefallen würde, ein externes Netzteil für die Grafikkarte zu haben ? Wohl kaum...

Nochmal: Ich bezieh mich auf einen einzelnen Chip. Das eine Karte insgesamt soviel braucht, mit 2 Chips ist durchaus möglich.

Meinungen ?
 
Zuletzt bearbeitet:
yeah, ein deutschlehrer :d

komisch, ich dachte es geht hier um die neuen karten von ati/nvidia...
 
...Glaubt ihr, das es auch nur 1ner Person von 1000 gefallen würde, ein externes Netzteil für die Grafikkarte zu haben ? Wohl kaum...

Ich hab in meinem Gehäuse noch Platz frei für ein zweites Netzteil, und der PC hängt heute schon an einer 380V Kraftstromdose, von daher nicht mein Problem, Leute mit Midi Tower sehen jetzt eben alt aus. :lol:

Ein ATI Sprecher sagte jo einmal vor paar Monaten das die R600 GPU sehr stark eines INTEL Xeon CPU im aufbau ähnlich sei, das zur GPU. Mehr sagte der nicht dazu. ;)

mfg
 
@Nightspider
Du lehnst Dich mit Deinen Aussagen immer ganz schon weit raus. Ich würde da vorsichtiger sein, gerade weil auch Du keine gesicherten Infos hast. ;)

Denkt doch mal nach. Warum sollte ATI und NVIDIA 200 Watt Karten herausbringen ? Um die Leistung zu steigern ? Davn träumt ihr...ich glaube kaum, dass beide Chipentwickler soviel Umkosten in kauf nehmen, ihren Ruf riskieren...kein normaler Mensch würde sich eine 200 Watt geschweigedenn 250 Watt Karte kaufen. Nur die wenigsten Freaks würden sich sowas kaufen
Was glaubst Du denn, wer die Kundschaft für solche Karten ist? :hmm: Frag mal in deinem Freundeskreis und den Bekannten/Verwandten rum, wer alles eine XTX oder GX2 hat. ;)
Wisst ihr was das heißt, 250 Watt ? 250 Watt auf 2-3 ~cm²...das kann kein normaler Luftkühler kühlen.
Muß er das denn? Es gibt schon jetzt hervorragende Alternativ-Lösungen. ;)
Wenn ihr euch ein bisschen auskennen würdet,
Mit solchen Mutmaßungen wäre ich mit 100 posts in dem Forum hier vorsichtig. ;)
50% Mehrleistung wären schon damals mit dem G71 drin gewesen aber es gab ja die neuen GX2-Karten !
Vergiss es, wenns so wäre hätte nv's 7900GTX mit der X1900XTX den Boden gewischt und sie hätte 650€ gekostet.
Edit: Glaubt ihr, das es auch nur 1ner Person von 1000 gefallen würde, ein externes Netzteil für die Grafikkarte zu haben ? Wohl kaum...
Ob Dus glaubst oder nicht: Der Masse ist das egal! Der Mainstream kauft die Karte sowieso nicht und die Freaks haben kein Problem damit.
Edit: Siehe SOLDIER :d

Hier, die News schein sehr realistisch zu sein.

_G80 @ 80nm_
_500mio Transistoren_
_175 Watt_
Wenn Du diese Zahl glaubst, was läßt dich dann sicher sein, dass ein R600 nicht über 200W verbrät, wo doch die Transistoranzahl und die Power angeblich viel höher sein sollen :hmm: Banned :d
 
Zuletzt bearbeitet:
tja, könnte stimmen...

200 watt könnte der peak 3d load wert sein...


[G80 De-Mystified; GeForce 8800GTX/GT]

* Unified Shader Architecture
* Support FP16 HDR+MSAA
* Support GDDR4 memories
* Close to 700M transistors (G71 - 278M / G70 - 302M)
* New AA mode : VCAA
* Core clock scalable up to 1.5GHz
* Shader Peformance : 2x Pixel / 12x Vertex over G71
* 8 TCPs & 128 stream processors
* Much more efficient than traditional architecture
* 384-bit memory interface (256-bit+128-bit)
* 768MB memory size (512MB+256MB)
* Two models at launch : GeForce 8800GTX and GeForce 8800GT
* GeForce 8800GTX : 7 TCPs chip, 384-bit memory interface, hybrid water/fan cooler, water cooling for overclocking. US$649
* GeForce 8800GT : 6 TCPs chip, 320-bit memory interface, fan cooler. US$449-499

Quelle: http://www.vr-zone.com/?i=4007
 
Ah nein, nicht bannen :fresse:

Wenn Du diese Zahl glaubst, was läßt dich dann sicher sein, dass ein R600 nicht über 200W verbrät, wo doch die Transistoranzahl und die Power angeblich viel höher sein sollen Banned

Aber ich sagte auch, das 175 Watt schon sehr viel wären. Aber mehr als 200 würde selbst der R600 nicht brauchen. Wie gesagt, das wäre Selbstmord.

Du lehnst Dich mit Deinen Aussagen immer ganz schon weit raus.
Bin aber noch nie rausgefallen ! :bigok:

Was glaubst Du denn, wer die Kundschaft für solche Karten ist? Frag mal in deinem Freundeskreis und den Bekannten/Verwandten rum, wer alles eine XTX oder GX2 hat.

Ja aber nochmal 100% mehr Stromverbrauch alleine bei den Grafikkarten, würde den Kundenkreis nochmal mind. um ein Drittel schmälern, glaub mir.
Es gibt auch normale Menschen, die sich mal eine 450 Euro Graka aller 2 jahre kaufen...diese würden wegfallen, denn 50 € mehr Stromkosten pro Jahr wäre bissl heftig, für paar FPS mehr ;)

Muß er das denn? Es gibt schon jetzt hervorragende Alternativ-Lösungen.

Toll...für uns Wakü, für den Rest 'nen Backofen-Aufsatz? Kein Kundenkreis...5% aller HighEnd PCs haben vllt ne Wakü...(kA)

Mit solchen Mutmaßungen wäre ich mit 100 posts in dem Forum hier vorsichtig.
Es kommt nich auf die Größe an !

Vergiss es, wenns so wäre hätte nv's 7900GTX mit der X1900XTX den Boden gewischt und sie hätte 650€ gekostet.
Was denn ? Die 1900XTX etx. waren auch einiges größer als G70/71...in 90nm hätte NV im Gegensatz zu 110nm auch gut 16 Shader draufpappen können ^^ wäre höchstens für Nvidia teuer geworden...aber es geht nicht um den Preis, sondern auf das Machbare und es ging um die Watt Zahl für G80...also nicht immer Offtopic ! :fresse: ^^
Zudem hatte NV die GX2...also kein Grund für 32 Shader...

...man...wie ich dieses zitieren und argumentieren hasse...hab ich genug im Deutsch-Untericht :fresse:
 
Ein ATI Sprecher sagte jo einmal vor paar Monaten das die R600 GPU sehr stark eines INTEL Xeon CPU im aufbau ähnlich sei, das zur GPU. Mehr sagte der nicht dazu. ;)

mfg

Dann hat dieser Sprecher nicht die geringste ahnung von GPUs :rolleyes:

... und ein Xeon ist nix anderes als ein für SMP validierter Desktop Prozessor (P4 / C2D).
 
@ Anarchy

Soweit ich mich erinnern kann war es glaub ich der Marketingchef persönlich der die Arcitektur erklärte, ist mir schon klar was ein Xeon ist ... abwarten in 3 bis 4 Monaten wissen wir mehr. :drool:

mfg
 
...man...wie ich dieses zitieren und argumentieren hasse...hab ich genug im Deutsch-Untericht
Dann darfst Du uns nicht mit solchen Aussagen wie oben dazu anstacheln. :d

PS: Deine Zahlen oben sind haltlos, aber egal lassen wir das.....
 
@ Nightspider wie kommste auf 200W beim G80 ?
er wird 100% weniger verbauchen
die meisten quellen sprechen von höchstens 180W

bei ATI allerdings zwischen 200 und 250W
da haste recht, kaufen nur freaks :bigok:
aber um so mehr werden sie zum sammler stück :banana:
 
@ Nightspider wie kommste auf 200W beim G80 ?
er wird 100% weniger verbauchen
die meisten quellen sprechen von höchstens 180W

bei ATI allerdings zwischen 200 und 250W
da haste recht, kaufen nur freaks :bigok:
aber um so mehr werden sie zum sammler stück :banana:

Und heute bei """Wir müssen die deutsche Kultur und Sprache wahren !""":

>>Wie liest man richtig einen Post im Internet<< :angel: :shot:

Ich glaube nicht, dass der G80 200W braucht...aber einige Gerüchte sagen das ! ;)


Edit:

R600 doch "nur" 180 Watt ^^

http://www.gamestar.de/news/pc/hardware/ati/1464811/ati.html
 
Zuletzt bearbeitet:
Aber ich sagte auch, das 175 Watt schon sehr viel wären. Aber mehr als 200 würde selbst der R600 nicht brauchen. Wie gesagt, das wäre Selbstmord.

ach was selbstmord ? der R600 wird 100% mindestens 200W schlucken das ist von der architektur und den Transistoren schon mehr als deutlich absehbar !
wieso sollten 200W selbstmord sein ?
währen nur 20-25 mehr als beim G80 also alles ok
oder würden beide firma selbstmord machen weil die karten 80W mehr brauchen als die vorgänger ?
ich denke nicht !

Was denn ? die 1900XTX etx. waren auch einiges größer als G70/71...in 90nm hätte NV im Gegensatz zu 110nm auch gut 16 Shader draufpappen können ^^ wäre höchstens für Nvidia teuer geworden...aber es geht nicht um den Preis, sondern auf das Machbare und es ging um die Watt Zahl für G80...also nicht immer Offtopic ! :fresse: ^^
Zudem hatte NV die GX2...also kein Grund für 32 Shader...

Nvidia hätte nicht auf 32 pixel pipelines gehen können, wäre zuviel aufwant in der kurtzen zeit und auch schweine teuer hätte sich nie rentiert.
der GX2 hat 2 x 24 Pixel pipelines also reicht doch
oder redest du jetzt von pixel shadern ?
.
EDIT (autom. Beitragszusammenführung) :

.
Ich glaube nicht, dass der G80 200W braucht...aber einige Gerüchte sagen das ! ;)


Edit:

R600 doch "nur" 180 Watt ^^

http://www.gamestar.de/news/pc/hardware/ati/1464811/ati.html


jeden tag was anderes, ich gehe von den festen pcgh transistor berechnungen aus, scheint bisher die sicherste und unverwirrteste quelle.
G80 500 mio transitoren
R600 600mio transistoren
daher G80 180W
R600 200W
ist aber auch nicht sicher da niemand weiss wie effektiv die chips werden und ob 80nm doch was mehr strom spart als spekuliert.
ich finde dass sind werte die wir so stehen lassen können.

jeden tag diese unfug werte vom inq und co sind echt unrealistisch
diese 250W währen eh nie realisiert worden. da können noch so viele gerüchte kommen ich glaube nicht dran !
 
Zuletzt bearbeitet:
1. der R600 wird 100% mindestens 200W schlucken
--> arbeitest du bei ATI, dass du das so genau sagen kannst ?
2. oder würden beide firma selbstmord machen
--> a) man "macht" kein selbstmord :fresse:
--> b) firmen und nicht firma im plural :fresse:
--> c) weiste wieviel 80W mehr sind zur Vorgängerversion ? Du tust so, als wenn das normal wäre, von Generation zu Generation Oo

3. wäre zuviel aufwant
--> a) aufwand, nicht aufwant
--> b) ja ich sagte, das wäre zu kostspielig im Gegensatz zur GX2 aber sie hätten es machen können...es waren ja auch alle überrascht, als verkündet wurde, das der G71 auch nur 24 Shader hat !

...und Pixelshader kannst du ruhig zusammen schreiben ;)
...und paar Satzzeichen mehr, wie Punkt und Komma wären auch nett :fresse:

[du musst mich noch in deine Sig einfügen !] :xmas:
 
1. der R600 wird 100% mindestens 200W schlucken
--> arbeitest du bei ATI, dass du das so genau sagen kannst ?
2. oder würden beide firma selbstmord machen
--> a) man "macht" kein selbstmord :fresse:
--> b) firmen und nicht firma im plural :fresse:
--> c) weiste wieviel 80W mehr sind zur Vorgängerversion ? Du tust so, als wenn das normal wäre, von Generation zu Generation Oo

3. wäre zuviel aufwant
--> a) aufwand, nicht aufwant
--> b) ja ich sagte, das wäre zu kostspielig im Gegensatz zur GX2 aber sie hätten es machen können...es waren ja auch alle überrascht, als verkündet wurde, das der G71 auch nur 24 Shader hat !

...und Pixelshader kannst du ruhig zusammen schreiben ;)
...und paar Satzzeichen mehr, wie Punkt und Komma wären auch nett :fresse:

[du musst mich noch in deine Sig einfügen !] :xmas:


schau mal in meine sig
wer rechtschreib fehler findet darf sie behalten

ausserdem war niemand überrascht dass der G71 auch 24 pipes hat
ist eben nur ein refresh
die 9800pro hatte auch 8 pipes da nur refresh
die 5900 hatte auch nur 8 pipes da refresh, bekommst es wohl nicht gebacken mit dem unterschied bei neuer generation und refresh !
der X850 hatte auch nur 16 pipes da refresh !
und zum thema alles wurde bereits gesagt alle quellen habe ich angegeben und dass mit dem selbstmord hast du gesagt, habe dich zitiert !

solltest meine posts lesen dann würdest du nicht alles doppelt und 3 fach Posten !


edit: wie alt bist du ?

bist sicher noch n junger teenie sonnst würdeste nicht mit deinem deutsch krahm ankommen um dein ego zu stärken ;)
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh