NVIDIA GT300 Tape-Out schon im Juni?

MrLeopard

Semiprofi
Thread Starter
Mitglied seit
19.01.2005
Beiträge
2.316
<p><img height="100" width="100" src="images/stories/logos/nvidia.gif" alt="nvidia" style="margin: 10px; float: left;" />Der GT300 ist die nächste und neueste Generation an High-End-GPUs aus dem Hause <a href="http://www.nvidia.de/page/home.html" target="_blank">NVIDIA</a>. DirectX 11 und CUDA 3.0 sind nur zwei technologische Zugpferde von vielen, die NVIDIA mit dem GT300 ins Rennen schicken will. Die üblichen Gerüchteküchen prognostizierten bisher relativ einhellig einen GT300-Release nicht vor Ende diesen Jahres. Der <a href="http://www.theinquirer.net/inquirer/news/733/1051733/nvidia-gt300-tapeout-soon" target="_blank">Inquirer</a> hingegen prescht jetzt mit einem vermuteten Tape-Out-Termin irgendwann im Juni vor - leider aber auch in gewohnt quellen- und...<p><a href="/index.php?option=com_content&view=article&id=11776&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
danke für die News, ich hatte es nicht im Sammelthread gelesen...

@Topic: naja ist noch "lange" hin bis dahin. Was bringt denn CUDA 3.0 an Verbesserung? Bessre Physikmodelle grob gesagt?
 
Cuda ist die "Programiersprache" und Physx eine Anwendung die damit läuft. Sicherlich ist das für einige Anwendungen ganz interessant, vllt. kann man sogar im besten Fall noch Leistungssteigerungen in anderen Bereichen außer CUDA erwarten :rolleyes: (so wie mit der 8800GTX)
 
\"Die üblichen Gerüchteküchen prognostizierten bisher relativ einhellig einen GT300-Release nicht vor Ende diesen Jahres.\"

Wie bitte? Welche Gerüchteseite schreibt das? Es war IMMER von einem Launch im Q4/2009 die Rede, sogar schon vor drei Monaten.

Quelle: Hardware-Infos
 
Ich bin mir auch sicher das die 380GTX im Q4 2009 kommt, der RV870 kommt im Q3
 
\"Die üblichen Gerüchteküchen prognostizierten bisher relativ einhellig einen GT300-Release nicht vor Ende diesen Jahres.\"

Wie bitte? Welche Gerüchteseite schreibt das? Es war IMMER von einem Launch im Q4/2009 die Rede, sogar schon vor drei Monaten.

Quelle: Hardware-Infos

Ja, eben. Es war immer von einem Launch Q4/2009 aka "nicht vor Ende diesen Jahres" die Rede. Einzig der Inquirer hat jetzt den frühen Tape-Out Termin ins Rennen gebracht.
 
Ja, eben. Es war immer von einem Launch Q4/2009 aka "nicht vor Ende diesen Jahres" die Rede. Einzig der Inquirer hat jetzt den frühen Tape-Out Termin ins Rennen gebracht.

Tape Out ist doch auch nicht release jungens;)

Da gehen locker nochmal 3 monate ins land (wenns keine grossen probleme gibt) bis sie frühestens in serienproduktion geht.

Also ist ein launch ende des jahres realistisch
 
Zuletzt bearbeitet:
Ja, aber da wird doch etwas missverstanden? Bis zum ersten Tape-Out und dem Produkt im Handel können ohne weiteres bis zu sechs Monate vergehen und dann wären wir wieder bei Dezember... von daher ist vorpreschen völlig falsch. Das Tape-Out im Juni zeigt lediglich, dass man weiter im Zeitplan liegt. Nicht mehr und nicht weniger.
 
Natürlich ist Tape-Out nicht Release. Und natürlich können ab Tape-Out nochmal Wochen bis zum Release ins Land gehen. Trotzdem darf das Juni-Tapeout vom Inquirer ziemlich sicher als "Vorzugsgerücht" verstanden werden.
 
Nein, wenn eine GPU das erste mal fertig gestellt wurde für eine Testplatine nennt man das Tape Out

Tape-Out = Fertigstellung des ersten lauffähigen Chip-Samples beim Chip-Fertiger
 
Naja. Unrealistisch ist das Ganze trotzdem nicht. Immerhin müssen die Karten ja auch noch in den Handel, also vorher die Mengen produziert werden damit sie verfügbar sind.
 
Trotzdem darf das Juni-Tapeout vom Inquirer ziemlich sicher als "Vorzugsgerücht" verstanden werden.

Jepp aber manchmal liegt der inquier auch gold richtig mit seinen gerüchten:d


Und tape out im juni klingt noch nicht mal so unrealistisch,wenn es bis jetzt nicht irgendwo schon im vorfeld probleme gab ;)

Genügend entwicklungszeit hatte nvidia ja eigentlich zur verfügung seit dem 8800er chip ;)
 
Zuletzt bearbeitet:
Jepp aber manchmal liegt der inquier auch gold richtig mit seinen gerüchten:d


Und tape out im juni klingt noch nicht mal so unrealistisch,wenn es bis jetzt nicht irgendwo schon im vorfeld probleme gab ;)

Genügend entwicklungszeit hatte nvidia ja eigentlich zur verfügung seit dem 8800er chip ;)

... und dabei kam unter anderem der GT200 heraus. So ein Sprung wie von der 7900GTX zur 8800GTX war das nicht
 
... und dabei kam unter anderem der GT200 heraus. So ein Sprung wie von der 7900GTX zur 8800GTX war das nicht

Jepp deshalb sagte ich ja sie hatten ja im prinzip seit der 8800er zeit gehabt für die entwicklung:d

Der G200 ist ja im prinzip nur n aufgebohrter G92;)

Man kann also gut u gerne behaupten das es seit dem G92 keine wirklich bahnbrechenden Innovationen mehr gegeben hat;)
 
Zuletzt bearbeitet:
Vllt., nein hoffentlich wird es mindestens so schön wie bei der 88er :d
Aber das bedeutet auch sehr viel Entwicklungszeit und Kosten. Was mich an der ganzen Sache stutzig macht ist, dass CUDA bzw. GPGPU als Innovation gennant wird. Aber vllt. kommt das schönste zum Schluss...
 
Naja, gibt ja viele Sachen die kommen sollen. Wie zB MIMD statt SIMD Einheiten.
 
Ich denke diesesmal wird es NV schwer haben gegen ATI, aber denke das die GTX3XX nicht mehr so extrem teuer werden, da ATI wieder High-End Grakas wieder zum fairen Preis rausschleudert.

Ist was bekannt wieviel schneller die GTX380 gegenüber der GTX280 sein wird?
 
. Was mich an der ganzen Sache stutzig macht ist, dass CUDA bzw. GPGPU als Innovation gennant wird. Aber vllt. kommt das schönste zum Schluss...
Vielleicht macht cuda 3 ja einiges anderst als das jetzige,obwohl ich mir nicht vorstellen kann was das wäre ausser vielleicht bessere performance,oder vereinfachte programmierung;)
 
Ich denke diesesmal wird es NV schwer haben gegen ATI, aber denke das die GTX3XX nicht mehr so extrem teuer werden, da ATI wieder High-End Grakas wieder zum fairen Preis rausschleudert.

Schau dir die Chipgröße an, dann erübrigt sich deine "Günstig" Theorie;)

Ist was bekannt wieviel schneller die GTX380 gegenüber der GTX280 sein wird?

Sie wird mit neuen Features kommen die sich aber schwer einschätzen lassen. Wenn man mal die Rohdaten sind die PCGH so prognostiziert hat (ich aber für etwas übertrieben halte), sind 640 Shader Einheiten, gegenüber den 240 der 280er jetzt, schon nen starkes Wort.
 
Naja dan wird die wieder 600€ kosten, aber das kann ich mir nicht vorstellen da ATI auch noch ein ASS im Ärmel hat, PREIS/LEISTUNG
 
"Theoretisch" um den faktor 3,5 schneller

Ja, da wär ich Vorsichtig. Es gibt ja keine festen Daten.
Ich denke mal höchstens doppelt so schnell wie eine 285er.

Ist doch nur eine Namensfrage. Echte MIMD-Einheiten wären viel ineffizienter als ihre SIMD-Verwandten.

Da fehlt mir jetzt das Fachwissen zu. Kannst du erklären warum, zur Not auch im Technik-Thread?
 
Ja, da wär ich Vorsichtig. Es gibt ja keine festen Daten.
Ich denke mal höchstens doppelt so schnell wie eine 285er.
Daten gibt es schon wenn man fertigungsprozess u die maximal mögliche integration von transistoren in den 40nm prozess von tsmc mit einbezieht kann man die sehr wage maximal mögliche theoretische rohleistung errechnen ;)

http://www.pcgameshardware.de/aid,6...iermal-so-schnell-wie-heute/Grafikkarte/News/

Aber stimmt schon faktor 2 wäre schon mehr als ich erwarten würde,wenns mehr wird um so besser;)
 
Zuletzt bearbeitet:
Da fehlt mir jetzt das Fachwissen zu. Kannst du erklären warum, zur Not auch im Technik-Thread?

Eine Namensfrage ist es erstmal deswegen, weil MIMD - ganz pauschal und als "naiver Ansatz" gesprochen - erstmal ein dezent verpacktes Cluster von SISD-Einheiten ist. MIMD bedeutet also - zumindest so, wie MJ Flynn es definiert hat - einen Chip, der verschiedene Dinge kann, und das gleichzeitig auf unterschiedlichen Daten. Letztlich bedeutet das in erster Instanz ein Cluster mit mehreren Prozessoren, die auf einen gemeinsamen Datenspeicher und einen gemeinsamen Befehlsspeicher zugreifen können, allerdings zu jeder Zeit völlig unabhängig voneinander.
Und das ist ineffizient! Nicht grundsätzlich natürlich. Für Grafikberechnung aber schon! Denn die macht ja genau die Tatsache aus, dass viele sehr ähnliche Instruktionen auf große Datenmengen angewandt werden müssen. Hier wäre sehr viel Logik für einen großen Teil der Zeit "verschwendet" oder zumindest langsamer.

Tante Edith sagt:

Was ich noch vergessen hab, natürlich ist es auch deswegen eine Namensfrage, weil es ja entscheidend ist, wie groß du jetzt gerade den Bereich fasst, den du benennen möchtest. Wenn ich mir den gesamten G80-Shadercore ansehe, kann der auch schon verschiedene Befehle auf verschiedene Daten anwenden. MIMD sagt da aber keiner. Letztlich ist die FLYNNsche Klassifikation nämlich ziemlich unkonkret.
 
Zuletzt bearbeitet:
Ich lese überall nur das NV mit den MIMD Einheiten versucht die Performance zu steigern.

Ich kann mir das jetzt höchstens so erklären das die MIMD Einheiten durch die verbesserung der Ausnutzung des Chips bei parallelen Prozessen effektiver sind als SIMD Einheiten.

Evtl hat das ganze aber auch mehr was mit Cuda zu tun.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh