ATI R600 [Spekulations Thread] (Part 1)

Status
Für weitere Antworten geschlossen.
Achso, .. es ist auf das System bezogen, ... das ist natürlich was anderes, ...
trotzdem sind 800W wohl übertrieben!

hallo? aus welchem grund solltest du dann ein 800/1000watt netzteil kaufen ;)

eine hand wäscht in der branche die andere:banana:

ich kann mir aber nicht vorstellen, daß wenn ati jetzt schon die X1950XTX mit GDDR4 ausrüstet(für nen akzeptablen Marktpreis) nvidia die neue generation mit GDDR3 bestückt...die preise von gddr4 ram können doch nicht mehr so hoch sein, bzw. nur die abnahme beider großer senkt den preis...

aber vielleicht machen sie es ja wie amd mit dem ddr2 ram - die haben damals intel auch mit den hohen ddr2 preisen verhungern lassen...performancemässig haben sie damit nichts verloren, von daher damals ein guter schachzug gewesen...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
aber vielleicht machen sie es ja wie amd mit dem ddr2 ram - die haben damals intel auch mit den hohen ddr2 preisen verhungern lassen...performancemässig haben sie damit nichts verloren, von daher damals ein guter schachzug gewesen...

Verhungern ? Intel ? Das ist mal absolut realitätsfremd ... Intel User mussten DDR2 kaufen und haben es getan - Ende. DDR2 hat auch den verkaufszahlen von Intel nicht geschadet sondern die miese Performance vom P4 bzw. P-D im vergleich zum A64.
 
GTX hat eine speicherbandbreite von 86GB/s
und die GTS 64GB/s nur wegen dem unterschiedlichen speicherinterface
was sollte ATI davon abhalten nicht auch auf ein großes interface zu setzen ?
ich denke diese 86GB/s werden übertrumpft
kann mich jemand aufklären was die hohe mhz anzahl bei US bedeuten soll ?
core und memory steht da aber wozu noch ein 3ter wert
 
was sollte ATI davon abhalten nicht auch auf ein großes interface zu setzen ?

Weil man dafür einen großteil der GPU abändern müsste ? Wenn ATI nicht schon am anfang ein SI > 256bit eingebaut hat ist das ünmöglich jetzt noch was dran zu drehen ohne die Karte bis ins Q2/07 zu verschieben.

PS :

http://www.dailytech.com/article.aspx?newsid=4444

With the release of the G80, NVIDIA will also release a new engine dubbed Quantum physics engine. Quantum Effects Technology is similar (at least in spirit) to NVIDIA's PureVideo Technology -- a dedicated layer on the GPU for physics calculations. A few documents alluding to this new engine appeared on public FTP mirrors late last week.

Quantum utilizes some of the shaders from NVIDIA's G80 processor specifically for physics calculations. Physics calculations on GPUs are nothing new; ATI totes similar technology for its Stream Computing initiative and for the Triple Play physics.

NVIDIA and Havok partnered up this year claiming that SLI systems would get massive performance gains by utilizing additional GeForce GPUs as physics processors. Quantum may be the fruits of that partnership, though NVIDIA documentation clearly states that Quantum will work just fine without SLI.

NVIDIA's documentation claims Quantum will specifically compete with AGEIA's PhysX, yet does not mention who is providing the middleware. Given that there are only two acts in town right now, it would be safe to say Havok has a hand in the Quantum engine.

Hell Yeah :teufel:



@US Takt -

nVidia hat seit der NV40 multiple Frequenzen innerhalb des Cores, man könnte dies nun ins absolute extrem steigen indem man die Shader enorm viel schneller laufen lässt als den rest :hmm:
 
Zuletzt bearbeitet:
So langsam kommen die News ....
Wobei ich das mit dem GDDR3 nicht glauben kann!
 
Zuletzt bearbeitet:
http://www.hartware.de/news_40848.html

Die News nochmal auf deutsch... ;)


Ich sag nur MEINE FRESSE ^^

ich kann mit dem wert echt nix anfangen @ anarchy

Der G80 der GeForce 8800 GTX verfügt über 128 Unified Shader Einheiten, die mit 1350 MHz laufen. Im Vergleich zur bisherigen Elite der High-End Grafikkarten sind das einige Shader-Einheiten mehr. So besitzt z.B. eine Radeon X1900 XTX 48 Pixel Shader und 8 Vertex Shader Einheiten und eine GeForce 7900 GTX 24 Pixel Shader und 8 Vertex Shader Einheiten.


was soll dann der core takt @ 575mhz bedeuten ?
blicke da nicht durch
 
Zuletzt bearbeitet:
Ist ja nur die Übersetzung von den andern News!

mal sehn was mit den 128 Unified Shader Einheiten @ 1350 MHz ist!
<br>
Hinzugefügter Post:<br>



Wohl dass der Chip mit 575MHz takten soll!

ein chip mit 1 mhz takt und 4 pixelpipelines konnte 4 pixel pro (sekunde??) berechnen oder ist dass nicht richtig ?
wenn jetzt die US die ja nix anderes sind als zusammengefasste pixelshader pixelpipelines und vertex shader einen takt von 1350mhz aufweisen, was soll dann richtig sein ? 1350mhz für die 128US oder 575mhz für die 128US ?
oder habe ich einen denk fehler ?
 
ei hab ne kurze frage wann erscheint den jetzt der g80????

...
1. du hast ferien
2. die ganze seite ist voll mit erscheinungs news....
3. die letzten paar seiten sind voll mit den erscheinungs news...
4. so unverschähmt faul zu sein ist nicht gerade gut....
 
1. du hast ferien
2. die ganze seite ist voll mit erscheinungs news....
3. die letzten paar seiten sind voll mit den erscheinungs news...
4. so unverschähmt faul zu sein ist nicht gerade gut....

na und was dagegen

und warum denn nur gddr3??
ati benutzt doch schon gddr4
 
Ist davon auszugehen, dass bei der neuen Generation 2x 16x-PCI-E mehr Performancevorsprung als bei den aktuellen Karten gegenüber 2x 8x-PCI-E bringt? Hat jemand zufällig den Computerbase-Link zum Vergleich?
 
na und was dagegen

und warum denn nur gddr3??
ati benutzt doch schon gddr4
Mit der breiten speicheranbindung braucht man nicht den viel teureren GDDR4 einkaufen da die Bandbreite mit dem billigeren und besser verfügbaren GDDR3 absolut ausreichend ist ...

GDDR4 kann man sich für den Refresh aufsparen ...
 
Verhungern ? Intel ? Das ist mal absolut realitätsfremd ... Intel User mussten DDR2 kaufen und haben es getan - Ende. DDR2 hat auch den verkaufszahlen von Intel nicht geschadet sondern die miese Performance vom P4 bzw. P-D im vergleich zum A64.

ab und zu über den tellerrand sehen schadet im allgemeinen nicht...
das intel deswegen nicht verhungert ist mir auch klar und natürlich war das überspitzt formuliert aber es hat intel mehr geschadet als geholfen.
und der a64 wäre nicht so erfolgreich gewesen, hätte man dafür neuen und vorallem teureren ddr2 ram kaufen müssen!
das es immer wieder nasen gibt die ein produkt nur wegen dem label kaufen ist auch klar aber amd hatte zu der zeit seinen riesen aufschwung.

back2topic

der liebe mod soll uns doch mal den theoretischen vorteil der zusammen gefassten pixelshader im vergleich zu bisherigen karten errechnen ;)
 
Mit der breiten speicheranbindung braucht man nicht den viel teureren GDDR4 einkaufen da die Bandbreite mit dem billigeren und besser verfügbaren GDDR3 absolut ausreichend ist ...

GDDR4 kann man sich für den Refresh aufsparen ...

sehe ich genauso, denn nvidia muss erstma die kosten die das 384bit speicherinterface verschlingt irgendwie wieder wet machen.
 
Aha...128 US-Einheiten...son scheiß hab ich lange nicht mehr gehört:wall: ...und dann denken alle, das es sich wirklich um einen USC-Chip handelt. Dann kann ich nicht mehr helfen.
Okay VR-Zone hat auch behauptet das der R520 32PPs hat, also kann man die Genauigkeit der Seite vergessen.
Andersherum bringt es nichts, einfach nur Unified Shader anzugeben, DX10 braucht eben US, d.h. das der G80 aber kein USC-Chip werden muss...

128 unified shaders clocked at 1350 MHz

Also ich gehe von 16 VS und 16 GS und dann noch 96 PS aus. Dann wären wir bei 128.

96 unified shaders clocked at 1200MHz

Also der G80 hat 32 PPs mit je 3 Pixelshader.
Der Geforce 8800GTS muss daher mit 24 Pipes arbeiten. Also 12 VS und 12 GS und dann nur noch 72 Pixelshader. Das wären dann genau 96. Das sieht nett aus.

Der CHIP ist doppelt so schnell wie der G70/G71.(ich rede vom CHIP)


mfg Nakai
 
Naja,... wenn dann doch GDDR3 wird der default schon 900 schafft, ist vlt auf 1GHz(2GHz) zu hoffen!
 
Liest jemand den Thread bei Beyond3D mit ?

Wenn die Jungs recht haben mit den Spekulationen wird die G80 ein Rechenmonster Sondergleichen :xmas:

... ich verklopp wohl direkt mein Aktuellen Rechner und spare auf G80 :fresse: und einen 20" TFT :fresse:
 
Zuletzt bearbeitet:
Gut ich weiß was ich machen werde, ich werde warten undzwar bis Mai 2007.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh