nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread]

Status
Für weitere Antworten geschlossen.
die wird nochmehr strom fressen, 512 Bit SI + hungrige DDR5 speicher

:haha: Interessante Gedanken, aber stimmt leider nicht. Ein großes SI frisst nicht mehr oder weniger Strom als seine kleineren Artverwandten und GDDR5 ist im Vergleich mit GDDR3 sogar stromsparend.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nein, die Übertragungsrate wird bei wohl gleichem Takt auf 1000MB/sec gesteigert, sprich 500MB pro Richtung...

Das ist halt die frage,wie ist dort die herangehensweisse?

Wenn der takt u die lanes gleich bleiben,welche methode wird genutzt um bei 3.0 die bandbreite trotzdem fast zu verdoppeln:confused:

Vielleicht sollten wir das aber im technik thread weiterdiskutieren,weil es nur indirekt zum g300 passt:d

Und die Stromschleuder GTX280 kommt mir garantiert net in die Kiste...
Glaubst du daran,das die GTX 380 keine stromschleuder wird unter vollast:p

Durch denn 40nm prozess kann man die leistungsaufnahme nur bedingt senken,manchmal gelingt das besser,manchmal bringt der shrink aber auch keinen vorteil ( siehe 55nm G200)

Sicherlich wird nvidia den chip optimieren,nur angesichts von 512 shadereinheiten,die wahrscheinlich auch noch schneller takten genauso wie der core selbst,bleibt ein geringerer verbrauch wohl eher wunschdenken.Zumindestens was die erste generation des chips anbelangt:wink:

Worauf man hoffen kann ist,das die leistungsaufnahme in etwa gleich bleibt zum G200 u das ist schon eine wage vermutung;)

Oder mit froggis worten "spekulatius":p
 
Zuletzt bearbeitet:
:motz:

sry. habe ich übersehen!

Dennoch eine schöne Meldung :d

Kann man sich auch zweimal anschauen :p
 
:haha: Interessante Gedanken, aber stimmt leider nicht. Ein großes SI frisst nicht mehr oder weniger Strom als seine kleineren Artverwandten und GDDR5 ist im Vergleich mit GDDR3 sogar stromsparend.

Neja bedingt hat er schon recht, durch ein breiteres SI werden mehr Speicherchips verbaut, welche wiederum in Summe mehr Strom benötigen, als ein kleineres SI.
Wenn man so will, müsste das ganze sogar 1:1 linear verlaufen, sprich die Speicherchips in Summe müssten bei 512Bit SI genau doppelt so viel Leistungsaufnahme haben wie die Speicherchips bei 256Bit mit gleichem Takt und gleicher Architektur...

Praktisch gesehen aber nimmt sich das wohl nicht soo viel, vor allem, da bei kleinem SI ja idR die Speicher höher Takten als mit größerem SI.

Das ist halt die frage,wie ist dort die herangehensweisse?

Wenn der takt u die lanes gleich bleiben,welche methode wird genutzt um bei 3.0 die bandbreite trotzdem fast zu verdoppeln:confused:

Vielleicht sollten wir das aber im technik thread weiterdiskutieren,weil es nur indirekt zum g300 passt:d

Wie und was genau, weis ich so aus dem Hut nicht, aber lässt sich sicher rausbekommen.
Ich sag aber mal so, ich gehe stark davon aus, das läuft analog zum PCIe 1.x zu 2.0 Umstieg, denn dort wurde die Datenrate Pro Lane und Richtung ja ebenfalls bei gleichem Takt verdoppelt.


Glaubst du daran,das die GTX 380 keine stromschleuder wird unter vollast:p

Durch denn 40nm prozess kann man die leistungsaufnahme nur bedingt senken,manchmal gelingt das besser,manchmal bringt der shrink aber auch keinen vorteil ( siehe 55nm G200)

Das zeigt doch nur, das ein nachträglicher nakter Shrink einer GPU eher wenig Sinn aus Stromsparsicht macht...
AMD hats damals vor gemacht, wie man einen ordentlichen Shrink bringt (R600->RV670)
 
Ich sag aber mal so, ich gehe stark davon aus, das läuft analog zum PCIe 1.x zu 2.0 Umstieg, denn dort wurde die Datenrate Pro Lane und Richtung ja ebenfalls bei gleichem Takt verdoppelt.

Ja moment mal ist es nicht so das die taktfrequenz des pcie slots zwischen 1.x u 2.0 auch verdoppelt wurde um die höheren transferraten zu erreichen:wink:

Oder bin ich jetzt auf dem holzweg:confused:

Edit

Machen wir hier weiter zu der pcie slot diskussion,weil es dort besser passt;)

http://www.hardwareluxx.de/community/showpost.php?p=12045741&postcount=157
 
Zuletzt bearbeitet:
Man darf aber ned vergessen das beim pci-e 3.0 auch der 20% overhead wegfällt.

@Froggi
Die Aussage von Scully ist auch ned so verkehrt das die CPU nicht ausreichen wird aber indirekt.Weil das grosse prob beim zukünftigen Grakas wird nicht der pci-e 2.0 oder sogar 3.0 das prob sein sondern der chipsatz.Spricht AMD's HT3 oder Intels QPI wird limietieren.Man wird nicht drum herumkommen pci-e controlle in die CPU zu integrieren weil der schneller ist als AMD oder Intel lösungen und da werden sich die 2 durchaus wehren dagegen.
 
hast du eine Quelle?

Core i7:
http://www.tecchannel.de/_misc/img/detail1000.cfm?pk=373936&fk=1775602&id=il-78759939369673440

http://mos.techradar.com/techradar-corei7-benchmarks.pdf

Die Flop Werte unterscheiden sich etwas, je nach Messung. 45GFlops im schnitt sind aber realistisch.

Sandy Bridge:
http://en.wikipedia.org/wiki/Sandy_Bridge_(microarchitecture)

http://www.pcgameshardware.de/aid,6...on-Intel-aufgetaucht-Daten-bis-2012/CPU/News/

@Froggi
Die Aussage von Scully ist auch ned so verkehrt das die CPU nicht ausreichen wird aber indirekt.Weil das grosse prob beim zukünftigen Grakas wird nicht der pci-e 2.0 oder sogar 3.0 das prob sein sondern der chipsatz.Spricht AMD's HT3 oder Intels QPI wird limietieren.Man wird nicht drum herumkommen pci-e controlle in die CPU zu integrieren weil der schneller ist als AMD oder Intel lösungen und da werden sich die 2 durchaus wehren dagegen.

Warum sollten sie sich dagegen wehren?!?
 
Zuletzt bearbeitet:
PCIe 2.0 schafft auf dem Papier 500MB/s pro Richtung, macht bei 16 Lanes 8GB/s. Mit den angesprochenen 20% Overhead komme ich bei 6,4GB/s raus. QPI schafft bei 3,2GHz (theoretisch) 12,8GB/s je Richtung, was also locker für die Verbindung CPU <> Grafikkarte reichen wird. Bei SLi und Crossfire verhält es sich ähnlich, da alle Karten dieselben Daten bekommen müssen. Was nutzt die schnelle Verbindung überhaupt, wenn die Daten von einer HDD kommen? :d
 
@Neurosphere u. Robo

AMD u. Intel gehören zwar zu dem Konsortium für den pci-e Standard aber es sind ned ihre eigene entwicklungen und es macht sich ned so gut fürs Marketing bin ich der Meinung.

@Pajaa

Was hat die HDD mit daten CPU-GPU-RAM-und rest I/0.Wenig würd ich mal sagen.Weil spätestens wenn der RAM der GPU voll ausgelastet ist und auf den lokalen RAM zugreifen musst wirds eng mit QPI 12,8GB/s oder AMD HT3.1 25,6GB/s.

Weil: '' Niemand wird mehr als 640kb Memory brauchen....''
Seid ned so Engstirnig:''Das braucht kein Mensch''.

Was ich damit sagen will.Jetzt mag das reichen aber schaut mal zum G80 100% mehr leistung zum Vorgänger.G200 etwa 65%bis 85% zum G80.G300 vorraussichtlich(meine Meinung)70% zum G200. Was kommt danach? Vieleicht 120% zum G300 und schon ist das ende der Fahnenstange mit QPI/HT zum pci-e und zurück.
 
Zuletzt bearbeitet:
@Jaimewolf3060
Erstmal hat die HDD damit sehr wenig zu tun, aber mir erschließt sich nicht, wie es bei PCIe 2.0 mit einem QPI oder HT3 eng wird. Selbst du FSB-Zeiten konnte man die Reduzierung der Bandbreite von PCIe x16 auf x8 messen, warum nur, wenn der FSB der Flaschenhals war, um Daten aus der CPU zu bekommen und dann lief darüber noch die Kommunikation mit dem RAM, oh nein...
 
.

Was ich damit sagen will.Jetzt mag das reichen aber schaut mal zum G80 100% mehr leistung zum Vorgänger.G200 etwa 65%bis 85% zum G80.G300 vorraussichtlich(meine Meinung)70% zum G200. Was kommt danach? Vieleicht 120% zum G300 und schon ist das ende der Fahnenstange mit QPI/HT zum pci-e und zurück.

Bis der fall eintrifft das der qpi limitiert sind wir längst nicht mehr bei einem x58 motherboard:coolblue:

Sandy Bridge wird sicherlich weiter aufgebohrt sein beim qpi link(17 GB/s) als der jetzige core I7 u so rasend geht es mit den grafikkarten nun auch nicht jedesmal voran wie jetzt beim g300;)
 
Zuletzt bearbeitet:
Vll schon Taktraten der 380 durch gesickert?

Demnach werden laufende G300-Samples im A1-Stepping mit 700 MHz Chiptakt, 1600 MHz Shadertakt und 1100 MHz Speichertakt betrieben

Quelle:hardware-infos
 
Gleichwohl der Vergleich zum G200, stellvertretend GTX 280, etwas hinkt, weil es sich beim G300 nicht mehr um klassische SIMD-Einheiten handeln wird, sondern MIMD-ähnliche Einheiten, offenbart der reine, quantitative Vergleich eine 163 Prozent höhere Rechenleistung

Jesus maria:)

Wenns in der praxis dann auch so ist geht das ok:fresse:

Das würde beim einsatz von 3 dieser dinger im sli,in etwa der leistung von fast 8!!x 280gtxen bedeuten:d

Natürlich nur wenn das der prozessor noch packt:lol:
 
Zuletzt bearbeitet:
Das wäre ja ein Monsta, von den Leistungsdaten her:-) Da bin ich ja mal gespannt, was ATI mit dem little Dragon uns vorstellen wird! *g*
 
1100 MHZ Speichertakt ?

Man geht von GDDR5 aus, oder ?

Dann scheint ein 512 Bit Interface wahrscheinlich um ordentlich Bandbreite zu generieren.

Die GTX 280 hat ja auch ein 512 Bit Interface, aber nur GDDR3.
 
Hat jemand nen 8ghz schnellen core I7 für mich,bitte schnellstmöglich um rückmeldung:d
 
Zuletzt bearbeitet:
Sehs doch so, evtl reicht dir schon eine Karte aus um ordentlich Leistung zu haben ?

Mit 2 biste auf jeden Fall auf der sicheren Seite...Warum sollte man sich dann noch Tri SLI holen ?

Irgendwann ist es ja auch wirklich nur noch Verschwendung...

--

W3520 / 920 D0 @ 4.6 GHZ @ Wakü sieht man hier für 24/7 schon ab und zu :)
 
Sehs doch so, evtl reicht dir schon eine Karte aus um ordentlich Leistung zu haben ?

Mit 2 biste auf jeden Fall auf der sicheren Seite...Warum sollte man sich dann noch Tri SLI holen ?

Irgendwann ist es ja auch wirklich nur noch Verschwendung...

:)

War ja auch nur n spässchen:drool:

Obwohl mal sehen wie lange es dauert bis aus spass ernst wird:haha:

Mal ganz vorsichtig nach nem 3 fach pcie x 16 board umschauen ...asus revolution:p
 
Zuletzt bearbeitet:
War ja auch nur n spässchen:drool:

Obwohl mal sehen wie lange es dauert bis aus spass ernst wird:haha:

Mal ganz vorsichtig nach 3 fach pcie x 16 board umschauen ...asus revolution:p

Du hast doch ein Super System...Junkie halt,wah:)

Wann kommt die denn endlich raus,will doch nur meine olle 9800GTX in Rente schicken...:fresse:

Bin ja wirklich gespannt wie sich ATI 5000er Reihe vs GT 300 schlägt bzw. was beide so für Preiskalkulationen anlegen:)
 
Zuletzt bearbeitet:
Is wie ferrari fahren man braucht ihn nicht wirklich,aber es macht einfach spass:fresse:

solche muß es auch geben...sonst würde nvidia und co nie ne 280gtx machen....wir alle wären heute noch aufm niveau von ner 7900gt oder sowas...konsum muß sein!!!

was bekommst eig. bei 3dmark06@standard raus?
 
solche muß es auch geben...sonst würde nvidia und co nie ne 280gtx machen....wir alle wären heute noch aufm niveau von ner 7900gt oder sowas...konsum muß sein!!!

was bekommst eig. bei 3dmark06@standard raus?

Genau ich bin bekennender hardware junkie:d

Keine ahnung was der 3d mark 06 macht,dieser ist eh in grossen teilen cpu limitierend,aber schau einfach mal in den vantage benchmark thread:p
http://www.hardwareluxx.de/community/showthread.php?t=533385



Aber nun wieder back to the g300:wink:
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh