[Sammelthread]GeForce 9600GT/s (G94 ) News & Speculations Thread.

Status
Für weitere Antworten geschlossen.
Zuletzt bearbeitet:
Es ging wohl eher um die Aussage, das beim G92 das 256bit SI total bremsen würde.
Anders herum müsste es demnach nun aber heissen, das es bei den 38xx Karten nicht bremst bzw noch Luft da ist. Würde es da nämlich ebenfalls bremsen, wären die 38xx Karten ne ganze Ecke langsamer als ihre R600 Derivate mit 512Bit,deswegen ist die Aussage mit dem bremsen eher zweifelhaft.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
für die schätzungen des strom verbrauchs der 9600GT habe ich keine quellen.

ledeglich meinen verstand.

ich mach ein beispiel

8600GTS 32 shader 80nm 75w

9500GT 32 shader 65nm 35-40w

alles identisch nur kleineres herstellungs verfahren.

die 8500GT mit 16 shadern hatte auch so um die hälfte weniger

daher wird die 9600GT wohl von den daten schätzungsweise auch nur um die 80w benötigen. allerdings muss ich die 256bit speicherbreite mit einberechnen.

in allem also schätzungsweise 90w

Woher stammt Dein Wert zur 9500 GT ... ?

Wo beruecksichtigt Deine "Rechnung" die Zahl der Transistoren ... ? Der RV670 hat derer 666 Millionen, zum G94 habe ich keine (verlaesslichen) Angaben finden koennen.

Das GDDR4 (das auf den HD 3870er Boards verbaut wird) weniger Verlustleistung erzeugt als GDDR3 ist Dir sicher auch klar ... ?

Sorry, aber Deine Watt-Zahl entspringt weniger Deinem Verstand als einer bluehenden Phantasie. Da von "Beweisen" zu sprechen, ist schon arges Fanboy-Geplapper ...
 
Woher stammt Dein Wert zur 9500 GT ... ?

Wo beruecksichtigt Deine "Rechnung" die Zahl der Transistoren ... ? Der RV670 hat derer 666 Millionen, zum G94 habe ich keine (verlaesslichen) Angaben finden koennen.

Das GDDR4 (das auf den HD 3870er Boards verbaut wird) weniger Verlustleistung erzeugt als GDDR3 ist Dir sicher auch klar ... ?

Sorry, aber Deine Watt-Zahl entspringt weniger Deinem Verstand als einer bluehenden Phantasie. Da von "Beweisen" zu sprechen, ist schon arges Fanboy-Geplapper ...

du wirst sehen dass ich recht haben werde dass die 9500GT 40-50w benötigen wird. und die 9600GT 75-100w

wenn es bekannt ist kann ich dir ja eine pm schicken in der drin steht. "siehst du ich hatte recht ich bin eben der beste, danke danke meine fans"
;)

spaß beseite. du erwähnst GDDR4 ram auf HD 3870ern

ich spreche hier davon dass die 9600GT defenetiv weniger brauchen wird als eine HD 3850

und die transistor anzahl lässt sich einschätzen wenn man sich die unterschiede anderer karten anschaut

oder habe ich etwas falsch aufgefasst und du meinst was anderes ?
 
Keineswegs. Du bestaetigst nur, dass Dein gesamtes Zahlenwerk aus Schaetzungen, Vermutungen und Gefuehlen in der Magengegend herruehrt.

EDIT: Und Nein. Bitte, bitte keine PM.
 
@Nighteye

mach dir nicht draus, der eXtremist kann nicht anders, weil er sonnst neimanden hat, muss er hier aus die butze hauen!

BTT:

ich denke mal da die 9600GT ja schon mitte Februar komemn wird, sind die Benches schon recht nah, die karte wird eher durch Treiberabstimmun schneller!
 
ich finde das Geschätze auch bescheuert.

Zuerst : die 9600Gt wird schätzungsweise 75-80w benötigen

dann : daher wird die 9600GT wohl von den daten schätzungsweise auch nur um die 80w benötigen. allerdings muss ich die 256bit speicherbreite mit einberechnen.
in allem also schätzungsweise 90w

und zuletzt : du wirst sehen dass ich recht haben werde dass die 9500GT 40-50w benötigen wird. und die 9600GT 75-100w


Hoffentlich kommen bald die ersten Messwerte, damit wir Gewissheit haben.


Naja, ich freue mich jedenfalls sehr auf die Karte und bin echt mal gespannt was Sie verbraucht. 75Watt glaube ich kaum, wäre natürlich super.

Von der Leistung genau das was ich suche.
 
hbert, mach mal bitte den Erklärbär!
 
Erklärbär is gut. Also: ATI verwendet tatsächlich Shadereinheiten, die theoretisch fünf Instruktionen gleichzeitig verarbeiten können. Physikalisch sind und bleiben es aber demnach bei einer Angabe von 320 SEs nur 64 Stück.

Die Realität, nämlich die Pure Leistung, zeigt also, dass man die Architekturen von NVidia und ATI nicht als Leistungsindiz bewerten darf. Ebenso kann man ja auch nicht sagen: Ein mit 2,4 GHz getakteter X2 ist genauso schnell wie ein E6600.
 
dachte, die "pro Shader" Leistung sei bei nv höher?
haste aber gut erklärt! :bigok:
 
dachte, die "pro Shader" Leistung sei bei nv höher?
haste aber gut erklärt! :bigok:

Das führt meiner Meinung nach auch dazu, dass man GPU- und Speichertakt der beiden Hersteller nicht vergleichen darf. Könnte man das, wäre die Verhältnisse an der Leistungsfront ganz kräftig in die andere Richtung verschoben. Aber wer weiss. Vielleicht bringt die nächste oder übernächste GPU/CPU Generation wieder einige freudige Überraschungen ala C2D oder G80. Nur dann vielleicht von AMD/ATI?
 
Das führt meiner Meinung nach auch dazu, dass man GPU- und Speichertakt der beiden Hersteller nicht vergleichen darf. Könnte man das, wäre die Verhältnisse an der Leistungsfront ganz kräftig in die andere Richtung verschoben. Aber wer weiss. Vielleicht bringt die nächste oder übernächste GPU/CPU Generation wieder einige freudige Überraschungen ala C2D oder G80. Nur dann vielleicht von AMD/ATI?

der Phenom hat schon mehr leistung pro takt als der C2Q

also amd,s architektur ist efizienter als intel,s

nur ist intels ausgereifter weswegen sie momentan höhere taktraten schaffen.
 
hhm, ich warte mit so einer aussage erstmal auf erste seriöse benches. was bisher im netz rumspukte (niveau HD3850, evtl. bissel drüber) wäre IMHO ziemlich in ordnung).
 
Also laut den PCG-HW Benchen sieht es doch mal wirklich gut aus - wenn das so sein wird, bzw. mehr solcher Benches auftauchen, der Preis stimmt und sie sich gut oder passiv kühlen lässt hole ich mir mal eine um meine jetzige Karte abzulösen...

14. Februar als Release klingt auch mal nicht schlecht - dann fällt somit der Valentinstag flach :fresse:
 
Zuletzt bearbeitet:
@Stegan: Danke !


:btt:

wenn ich mir die werte so anschaue, und dann die 8800GS sehe, denke ich die 8800GS sollen jetzt noch schnell Verkauft werden ( 8800GT schrott GPUs ) um dann den 9600GT als ablöse und gegen den 3850 zu setzen.
Hinzugefügter Post:
hier sind einige Benches zu Aktuellen Games zu finden .

http://nueda.main.jp/blog/archives/003216.html
 
Zuletzt bearbeitet:
News:

9600GT launch date pushed back


Now bumping into the Chinese New Year

"[...] Nvidia has determined that a small percentage of the new GeForce 9600GT cards are suffering from a voltage transient on the NVDD power supply in certain applications. [...] might cause some systems to ‘hang’ in certain situations.
[...] take the proactive step of making some modifications, and they are going to hold shipments until these modifications to reduce the transients has been made, verified and tested.
[...] Nvidia is moving the launch date in order to make sure that their launch partners have enough time to get cards onto the shelves in order to make the new launch date.
The launch of the GeForce 9600GT has now been pushed back until February 21st. While we don’t know all of the details of the modifications that they are making [...]"

Quelle: fudzilla.com


.
 
@eXtremist,
bitte keinen neuen Flamethread heraufbeschwören :)

Noch hat der Thread einen gewissen "Inhalt" !
-Ich finde das sollte auch so bleiben.


P.S. Der Thread liest sich aber fliessend! :fresse:

Hardwarekenner ist sich sicherlich dessen bewusst,
das dieser Design..... Thread keinen Pulitzerpreis erhalten wird.
 
ist das die eigentliche 9800gx2?? also heißt die jetzt 8900gx2? ist ja eig auch viel logischer!!!

gruß

jan
 
naja, wenn die das mit dem internen SLI diesmal ordentlich gebacken bekommen, warum nicht?

Und 8900GX2 klingt schon logischer/weniger verwirrend.
 
Grund für Verschiebung:

9600 GT erst am 21. Februar?


nVidia will Launch der neuen GeForce um eine Woche verschieben

"[...] Der Launch wurde nun laut aktuellen Gerüchten jedoch auf den 21. des kommenden Monats verschoben - angeblich gibt es wieder mal Probleme mit der Spannungungsversorgung. Die GeForce 9600 GT ist als Nachfolgemodell der aktuellen GeForce 8600 GTS gedacht und kommt mit einem 650 MHz schnellen Chip sowie 900 MHz schnellem Grafikspeicher."

Quelle: hardware.net


.
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh