NVIDIA GT300 Tape-Out schon im Juni?

Dresden wurde von 1500 Bombern an einem tag angegriffen Berlin von knapp 1100 beides wenige Wochen vor Kriegsende

An einem Tag aber nicht zur selben zeit;)

Selbst wenn cuda 3.0 u die neuen gpus das vielleicht schaffen würden ,wäre eine solche anzahl an gegnern in einen game zur selben zeit mehr als unübersichtlich
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
HÄ?
Die Treiber und Karten sind mittlerweile so gut, das man Crysis locker in 1920x1200 mit 4x AA spielen kann.

der G300 raucht das Spielchen sowas von in der Pfeife.

Auch mit Physik + Transparence AA + (hmm neues Features was die Lichteffekte realistischer darstellen soll) , dann sollte es nicht mehr möglich sein, vermute ich jedenfalls.

Daher ist es es sehr fraglich das kommende Karten, bei kommenden Games mit ALLEN mögl. Einstellungen in MAX Auflösung überhaupt ruckelfrei laufen würden.

Dabei sind schlechte Konsolenumsetzungen noch nichtmal erwähnt, falls für den GTA Nachfolger. Bei der Konsole dagegen wird man immer auf einen gewissen Grafiklevel bleiben, logisch weil man den OnBoard Chip nicht wechseln kann, und daher jetzt schon veraltet ist, sowohl bei der XBox 360 als auch der PS-3 bis auf einen Schrink passiert da nichts mehr. Aber X-Box 720 und PS-4 sind wohl in der Mache *g*

Mein Fazit könnte lauten, solange ich die Games auf dem PC Spiele und mir hier ein 19er TFT vollkommen ausreicht ich mit der nativen Auflösungen auch mit älteren Karten gewisse Games länger zocken kann, als mit einer nativen Auflösung eines 24ers.

Wobei es im Fall von GTA, mal interessant wäre mal zu testen wie allgemein die Performance ist, wenn man die gleiche Sichtweite der X-Box 360 o. PS-3 einstellen würde.
 
Zuletzt bearbeitet:
Naja, gibt ja viele Sachen die kommen sollen. Wie zB MIMD statt SIMD Einheiten.
MIMD gibt es schon sehr lange in solchen Chips. Wie zB das gute alte MADD.

"Theoretisch" um den faktor 3,5 schneller,aber theorie u praxis sind zweierlei schuh
Und woher stammt diese "Theorie"? Falls du PCGH meinst, das ist purer BS.
Ich frage mich zB, wo sie diesen Faktor von 2,35 bezüglich Transistoranzahl her haben. Aktuell ist erstmal der GT200b. Und der wird in 55 nm produziert. Selbst bei perfekter Skalierung wäre das maximal Faktor 1,89. Wobei es in der Realität keine perfekte Skalierung gibt. Da kannst du locker noch 20 bis 30% abziehen. Zudem hat die Anzahl der Transistoren noch lange keine direkte Beziehung zur letztendlichen Performance.
Ein weiterer Punkt sind die erwähnten 60% des Fertigungsprozesses. Die beziehen sich aber auf die Schaltzeiten der Transistoren. Das hat mit der Performance der GPU gar nichts zu tun. Die wird immer noch durch die Logik und Taktraten bestimmt.

Eine Namensfrage ist es erstmal deswegen, weil MIMD - ganz pauschal und als "naiver Ansatz" gesprochen - erstmal ein dezent verpacktes Cluster von SISD-Einheiten ist.
Nicht wirklich. Bitte nicht die verschiedenen Instruction/Data Modelle in einen Topf werfen. Die sind alle strikt voneinander abgegrenzt.

MIMD bedeutet also - zumindest so, wie MJ Flynn es definiert hat - einen Chip, der verschiedene Dinge kann, und das gleichzeitig auf unterschiedlichen Daten. Letztlich bedeutet das in erster Instanz ein Cluster mit mehreren Prozessoren, die auf einen gemeinsamen Datenspeicher und einen gemeinsamen Befehlsspeicher zugreifen können, allerdings zu jeder Zeit völlig unabhängig voneinander.
Da verwechselst du wohl etwas. MIMD hat in Computerchips eine viel grundlegendere Funktion. Und das fängt bei den Instruktionen und ALUs an.

Stell dir einfach mal folgende Situation vor. Du hast 4 Wertpaare, welche jeweils miteinander multipliziert werden müssen. Die Ergebnisse werden anschliessend mit 4 weiteren Werten addiert.
Code:
a * b + c
d * e + f
g * h + i
j * k + l
Das macht insgesamt also 8 Instruktionen. Gehen wir mal davon aus, dass jede Instruktion einen Taktzyklus benötigt, sind das maximal 8 Taktzyklen. Um dies effizienter zu gestalten, haben sich schlaue Leute irgendwann Vektor ALUs einfallen lassen. In ihrer einfachsten Form SIMD Einheiten, wie zB SSE in x86 CPUs. Damit vereinfacht sich die Rechnung oben wie folgt:
Code:
(a,d,...) * (b,e,...) + (c,f,...)
Du brauchst also nur noch 2 Instruktionen bzw Takte. Damit aber nicht genug. Nicht nur die Daten lassen sich "vektorisieren", sondern auch die Instruktionen.
Code:
(a,d,...) * (b,e,...)
          + (c,f,...)
Multiplikation und Addition werden also gleichzeitig durchgeführt. Intern natürlich immer noch seriell. Das soll uns an dieser Stelle aber nicht interessieren. Wir sprechen hier jedenfalls von MIMD. Das Ergebnis ist, sämtliche Berechnungen werden in einem Rutsch bzw mit einer Instruktion durchgeführt und wir benötigen im Optimalfall nur noch einen Takt.
 
Und woher stammt diese "Theorie"? Falls du PCGH meinst, das ist purer BS.
Woher sie diese werte haben kannst du glaube ich sehr gut aus dem text entnehmen

Zudem geht es hier um die theoretische leistung nicht um das was real dann eintrifft

Ich frage mich zB, wo sie diesen Faktor von 2,35 bezüglich Transistoranzahl her haben. Aktuell ist erstmal der GT200b. Und der wird in 55 nm produziert.

Im Vergleich zu aktuellen GPUs, die in 65 Nanometer gefertigt werden, soll der 1-V-40nm-G-Prozess bei TSMC in etwa 2,35 Mal so viele Transistoren (genauer: Gates) pro Quadratmillimeter unterbringen

Reicht dir das als antwort für den faktor 2,35 wenn man die selben transistoren als ausgangsbasis nimmt wie beim g200

Und von der skallierung der neuen transistoren kann hier noch keine rede sein,da diese noch nicht bekannt ist,also nimmt man erstmal 100% an von heutigen transistoren.

Also wäre dein faktor 1.89 auch nur kaffeesatzlesen

Ein weiterer Punkt sind die erwähnten 60% des Fertigungsprozesses. Die beziehen sich aber auf die Schaltzeiten der Transistoren. Das hat mit der Performance der GPU gar nichts zu tun. Die wird immer noch durch die Logik und Taktraten bestimmt.

Wie bitte? Die schaltzeiten der transistoren haben nichts mit der performance der gpu zu tun,wenn ich den selben chip(g200) wieder als ausgangsbasis nehme zur errechnung des theoretischen werts

Ist jetzt nicht dein ernst oder etwa doch?

Nichts anderes hat pcghw dort gemacht.Also wo liegt da deiner meinung nach der fehler den sie begangen haben sollen?

Niemand hat dort ansatzweisse behauptet das man daten des kommenden g300 chip dazu verwendet hat.Ist zum jetzigen zeitpunkt wohl auch kaum möglich
 
Zuletzt bearbeitet:
Zitat von mr.dude Beitrag anzeigen
Ein weiterer Punkt sind die erwähnten 60% des Fertigungsprozesses. Die beziehen sich aber auf die Schaltzeiten der Transistoren. Das hat mit der Performance der GPU gar nichts zu tun. Die wird immer noch durch die Logik und Taktraten bestimmt.

Beeinflusst die Schaltzeit nicht direkt auch die mögliche Taktrate?
 
Naja, aber einen wirklichen zuwachs an Übertaktbarkeit gab es beim wechsel von 65nm auf 55nm auch nicht bei den GT200 Chips.
 
Naja, aber einen wirklichen zuwachs an Übertaktbarkeit gab es beim wechsel von 65nm auf 55nm auch nicht bei den GT200 Chips.

Sind ja auch nur theoretische werte aber da hat pcghw keine fehler gemacht;)

Was die neuen im endefekt bringen werden an takt kann man sowieso erst sagen wenn die ersten samples verfügbar sind,manchmal gelingt ein herstellungsprozess besser manchmal schlechter

Aber wenn TSMC 60% zuwachs angibt kann man erstmal nur diesen wert heranziehen zur berechnung:bigok:
 
Zuletzt bearbeitet:
Ein weiterer Punkt sind die erwähnten 60% des Fertigungsprozesses. Die beziehen sich aber auf die Schaltzeiten der Transistoren. Das hat mit der Performance der GPU gar nichts zu tun. Die wird immer noch durch die Logik und Taktraten bestimmt.

Dass schnellere Transistorschaltzeiten aber höhere Taktraten oder, anders gesprochen, mehr Leistung pro Takt ergeben, ist aber trotzdem richtig. Ergo: Ja, schneller schaltende Transistoren lassen auf eine schnellere GPU schließen.

mr.dude schrieb:
Nicht wirklich. Bitte nicht die verschiedenen Instruction/Data Modelle in einen Topf werfen. Die sind alle strikt voneinander abgegrenzt.

Die Aussage gibts sogar von Flynn selbst. :) Ich such sie mal raus, wenn ich sie noch finde. Die Sache ist, dass wir glaube ich aneinander vorbeireden. Du sprichst von der informatiktheoretischen Grundlage, die dahintersteht, und da bedeuten beide natürlich etwas anderes. In der Praxis hab ich aber selber schon erleben dürfen, wie mit bestehenden VHDL-Prozessor-Components einfach ein Cluster aufgebaut wurde, um MIMD-Funktionalität zu erreichen. Dass man die Logik anders routen muss, ist natürlich klar. Und dass das von Effizienz recht weit weg ist, sowieso, aber deswegen schrieb ich ja "naiv".

mr.dude schrieb:
Da verwechselst du wohl etwas. MIMD hat in Computerchips eine viel grundlegendere Funktion. Und das fängt bei den Instruktionen und ALUs an.

Siehe oben. Mir geht es um die Implementierung, nicht die Theorie. Und ich hasse es, Wikipedia zu zitieren, aber:

wiki schrieb:
Machines using MIMD have a number of processors that function asynchronously and independently. At any time, different processors may be executing different instructions on different pieces of data.

Das stimmt ausnahmsweise nämlich.

mr.dude schrieb:
Multiplikation und Addition werden also gleichzeitig durchgeführt. Intern natürlich immer noch seriell. Das soll uns an dieser Stelle aber nicht interessieren. Wir sprechen hier jedenfalls von MIMD. Das Ergebnis ist, sämtliche Berechnungen werden in einem Rutsch bzw mit einer Instruktion durchgeführt und wir benötigen im Optimalfall nur noch einen Takt.

Soweit die Theorie, danke für die Erläuterung, aber das ist mir alles ohnehin klar. Denk nun wieder über die Implementierung nach, die wird hier nämlich ganz konkret durch Designparadigmen problematisiert - dass, was du da vorschlägst, führt im klassischen Pipelining zu einem Stall, weil es eine Operandenabhängigkeit besitzt. Das so zu implementieren, dass es "echt" in einem Takt funktioniert, ist nahezu unmöglich, dafür ist das Signal zu langsam. Was funktioniert, ist, einen ähnlichen Ansatz wie nV im G80 zu verwenden und eben nicht 4 Werte in einem Takt fertigzustellen, sondern 16 Werte in 4 Takten. Effektiv derselbe Output, bietet aber intern die Möglichkeit, die angesprochenen Probleme zu umgehen.
 
Solche Posts liebe ich wie die von mr.dude und Lord :) Die finde ich interessanter als die News :fresse:
Diskutiert mal weiter :) :d
 
Macht doch schon seit einigen Wochen hin und wieder Probleme...

---

@ Topic

Ich hoffe, dass die NV Karten in 40nm kommen. Bisher weiß man da ja noch nichts sicheres, oder ?
 
@ Topic

Ich hoffe, dass die NV Karten in 40nm kommen. Bisher weiß man da ja noch nichts sicheres, oder ?

Doch die kommen in 40nm strukturbreite,das steht 100% fest;)

Vorher kommen auch noch die midrange karten in selben fertigungsprozess,diese haben ihr tape out schon hinter sich
 
Zuletzt bearbeitet:
Was interessant wäre:

wie viel mehr an Effizienz bzw. OC-barkeit ist mit 40nm im Gegesatz zu 65 bzw. 55nm dirn? Beispielsweise sieht man das ganz deutlich bei den Prozessoren (nur ein Beispiel, jetzt nicht daran stören, dass es keine GraKas sind, es geht mir nur ums Prinzip ;) )
von 90 auf 65nm
 
Das kann man erst beurteilen wenn erste samples erhältlich sind u die ersten tests released sind damit;)

xtremesystems.org sind da meistens immer ganz vorne mit dabei wenn es ums overcklocking neuer karten geht
 
Zuletzt bearbeitet:
Das kann man erst beurteilen wenn erste samples erhältlich sind u die ersten tests released sind damit;)

xtremesystems.org sind da meistens immer ganz vorne mit dabei wenn es ums overcklocking neuer karten geht

Ja ne, schon klar, ich meinte eher, ob eine generelle Tendenz festzustellen ist. Es gibt ja schon etlich AMD Karten in 40nm. Jede Karte verhält sich diesbezüglich anders, sollte klar sein, aber ist da eine drastische Lesitungssteigerung bzw. Stromersparnis zu erkennen? So war das eher gemeint ;)
 
Man kann da keine direkte brücke schlagen zu den ati chips da diese ein anderes design aufweissen u ein stromsparchip wird der highend 300er mit sicherheit auch nicht werden,davon kann man ausgehen.

Wenn er die spezifikationen im stromverbrauch des "alten" 285er chips halten kann,können wir glaube ich schon zufrieden sein;)


Wenn der fertigungsprozess bei tsmc gut gelingt wird es sicherlich eine sehr potente gpu werden mehr kann man heute einfach noch nicht wissen;)
 
Zuletzt bearbeitet:
Strom"verbrauch" im Verhältnis zur Lesitung meinst du eher ;)
Obwohl der G80 sich etwas mehr als die 79er Serie genehmigt hat, war es eine sehr potente Grafikkarte. Wie viel mehr an Leistung bei dem G300 nur herauskommt kann man nur spekulieren, keiner hätte damals gedacht, dass Intels C2D so viel Leistung bei der Stormaufnahmen hat. Möglich ist es also!
Und in Bezug auf die Strukturbreite: es gab schon Wechsel von einer Strukturbreite auf eine kleinere und dies hatte nicht wirklich große Einflüsse auf den Strom"verbrauch" und das Verhalten beim oc... :rolleyes:
 
Woher sie diese werte haben kannst du glaube ich sehr gut aus dem text entnehmen
Nicht wirklich. Aber vielleicht kannst du mir ja verraten, wie sie ausgerechnet auf einen Faktor von 2,35 kommen.

Reicht dir das als antwort für den faktor 2,35 wenn man die selben transistoren als ausgangsbasis nimmt wie beim g200
Nein. Siehe oben. Wie viele Transistoren es letztendlich sein werden, hängt von mehreren Faktoren ab, wie der Grössenänderung eines Transistors beim Shrink oder den Packdichten. Ich kann aus dem Artikel nicht mal ansatzweise aussagekräftige Informationen dazu gewinnen.

Und von der skallierung der neuen transistoren kann hier noch keine rede sein,da diese noch nicht bekannt ist,also nimmt man erstmal 100% an von heutigen transistoren.
Wenn man seriös darüber diskutieren will aber nicht. Letztendlich hängt vieles vom Design ab. Viel Cache kann ein Design zB sehr schnell aufblähen, ohne dass die Performance gleichermassen zunimmt. Die Skalierung liegt dann deutlich unter 100%. Verbesserungen an der Logik können wiederum Gewinne erzielen, ohne dass die Anzahl der Transistoren grossartig steigt. Die Skalierung liegt dann über 100%. Genau 100% ist eigentlich recht praxisfern.

Also wäre dein faktor 1.89 auch nur kaffeesatzlesen
Nein, ist es nicht. Das wäre eine perfekte (theoretische) Skalierung von 55 auf 40 nm. Kannst du auch problemlos nachrechnen.

Wie bitte? Die schaltzeiten der transistoren haben nichts mit der performance der gpu zu tun,wenn ich den selben chip(g200) wieder als ausgangsbasis nehme zur errechnung des theoretischen werts

Ist jetzt nicht dein ernst oder etwa doch?
Doch, genauso ist das. Höhere Schaltzeiten ermöglichen uU zwar höhere Taktraten. Das ist aber nicht das Thema. Denn dafür müsste man erstmal wissen, wie sich Chips im 40 nm Verfahren von TSMC takten lassen. Und bis es soweit ist, kann man maximal von der gleichen Taktrate ausgehen. 60% höhere Schaltzeiten bedeuten jedenfalls nicht automatisch 60% höhere Taktraten. Nicht mal in der Theorie.

Beeinflusst die Schaltzeit nicht direkt auch die mögliche Taktrate?
Indirekt.

Dass schnellere Transistorschaltzeiten aber höhere Taktraten oder, anders gesprochen, mehr Leistung pro Takt ergeben
Nein, mehr Leistung pro Takt ergeben sie nicht. 1 GHz ist immer noch 1 GHz, also 1 Mrd Zyklen pro Sekunde. Da können die Transistoren so schnell schalten wie sie wollen. Wenn du eine höhere IPC willst, musst du die Logik verbessern.


Letztendlich ist das, was PCGH schreibt, pure Bauernfängerei. Da wird mit Phantasiewerten um sich geworfen, die nicht mal einer theoretischen Betrachtung stand halten und absolut nichts mit der Praxis zu tun haben. Es werden nur irgendwelche sensationslüsternen Erwartungen geschürt, die nicht gehalten werden können. Fast 4-fache Performance ist jedenfalls unrealistisch. Man sollte froh sein, wenn wie bei früheren Generationswechseln 50-100% mehr Performance rausspringen. Und lediglich auf diesen Sachverhalt wollte ich hinweisen.


Siehe oben. Mir geht es um die Implementierung, nicht die Theorie.
Ich rede auch nicht von der Theorie. Die von mir beschrieben SIMD/MIMD Implementierungen gibt es schon sehr lange. Wie gesagt, das ist in solchen Chips eine viel grundlegendere Funktion von SIMD/MIMD. Wovon du redest, bezieht sich wohl auf Rechennetzwerke. Das hat mit der Thematik hier eher weniger zu tun.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh