NVIDIA spricht über 40-nm-Prozess

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.244
Ort
Augsburg
<p><img style="margin: 10px; float: left;" alt="nvidia" src="images/stories/logos/nvidia.gif" width="100" height="100" />Während <a href="http://www.amd.com/de-de/" target="_blank">AMD</a> seinen neusten Mittelklasse-Chip schon im fortschrittlichen 40-nm-Fertigungsverfahren fertigt, blieb Konkurrent <a href="http://www.nvidia.de/page/home.html" target="_blank">NVIDIA</a> bislang noch bei der 55-nm-Fertigung stecken. Zeitnah werde man aber auch hier auf die 40-nm-Technik umschwenken und somit nicht nur die Leistungsaufnahme seiner kommenden 3D-Beschleuniger senken, sondern auch Produktionskosten einsparen können. Obwohl der Grafikkartenspezialist kaum über seine kommenden Produkte spricht, gab Jen-Hsun Huang, Geschäftsführer von NVIDIA, nun einen kleinen Ausblick....<p><a href="/index.php?option=com_content&view=article&id=12023&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Alle viere oder auf den fünften aufguss? :p

Nun ja man kann ja das rad nicht neu erfinden auch der g300 wird architektur mässig in etwa ein g80 bleiben,es sei denn es kommt was völlig neues ohne shader architektur.

Warp Antrieb vielleicht:hmm::fresse:


Ob aufguss oder nicht hauptsache die performance stimmt dann wieder mal :p
 
Zuletzt bearbeitet:
ich spreche hiermit offiziell über das 35-nm-herstellungsverfahren, komm ich jetzt innem fernsehn :) ?
 
was heisst wieder mal? performancemässig steht nvidia doch prima da. preismässig sollte da was passieren.

Hast du in den letzten 2 jahren von generation zu generation (8800,9800,280,285) mal einen sprung von ca 100% gesehen ich nicht;)

Das meinte ich damit:p Und auf dem papier scheint das beim 40nm g300 ja zum ersten mal wieder einzutreffen,hoffen wir das es auch in der praxis so ist;)
 
Zuletzt bearbeitet:
Naja mal sehen was kommt. Ich denke sie werden so wie ati erst kleiner Modelle ins 40nm Verfharen sichcken.
 
der GT-300 basiert keineswegs auf den G80 , der GT-300 ist eine komplette neue Architektur , und setzt nicht mehr auf SIMD sonder auf MIMD sprich Shader Architektur der 2en Generation, der GT-300 wird ebenfals dx11 haben und GDDR5 , da bleibt nicht mehr viel \"ähnliches\" zeug vom G80 ...

und das Nvidia die karten so oft \"umbenennt\" zeig eigentlich nur wie gross der konkurez druck ist , stimmt nehmlich sehr klein im dem sektor

Nvidia war mit dem G80 eben ein paar jahre AMD vorraus ist normal das dann eben refreshes gibt , wen diese doch schnell genug sind ist es doch total egal wie die heisen oder heisen werden
 
Zuletzt bearbeitet:
Nun ja man kann ja das rad nicht neu erfinden auch der g300 wird architektur mässig in etwa ein g80 bleiben,es sei denn es kommt was völlig neues ohne shader architektur.

Ging mir eher um das wiederholte umlabeln der gleichen chips. ;)

---------- Beitrag hinzugefügt um 14:31 ---------- Vorheriger Beitrag war um 14:25 ----------

sieh doch , hätte AMD nicht so lange gebraucht um den anschluss zu finden wäre der G92 schon längst begraben

Die strategie ist doch klar, die kuh soll mehrfach gemolken werden und das klappt ja auch. Ich kenne menschen die sich die gleiche GPU unter verschiedenen namen zum zweiten mal gekauft haben.

Wäre es so wie du dir das denkst (kein konkurrenz bzw. preisdruck im wichtigsten segment) dann würde sich nvidia nicht seit drei quartalen mit umsatzeinbrüchen und neuerdings herben verlusten herumplagen müssen, übrigens genauso wie AMD's grafiksparte.

Da wird mit dem messer zwischen den zähnen gekämpft, der unterschied ist nur, AMD macht laufend fortschritte was die senkung der produktionskosten angeht, nvidia nicht.
 
Hast du in den letzten 2 jahren von generation zu generation (8800,9800,280,285) mal einen sprung von ca 100% gesehen ich nicht;)

Das meinte ich damit:p Und auf dem papier scheint das beim 40nm g300 ja zum ersten mal wieder einzutreffen,hoffen wir das es auch in der praxis so ist;)


Ich denke 30 - 40% Mehrleistung gegenüber den GT200 sind realistisch. So einen Sprung wie mit dem G80 wird es so schnell nicht geben.
 
Zuletzt bearbeitet:
Wäre es so wie du dir das denkst (kein konkurrenz bzw. preisdruck im wichtigsten segment) dann würde sich nvidia nicht seit drei quartalen mit umsatzeinbrüchen und neuerdings herben verlusten herumplagen müssen, übrigens genauso wie AMD's grafiksparte.
.

Genau das ist die reale situation:p

Amd/ATI deckt im unteren,mittleren u auch teilweise im highend preissegment alles ab u nvidia kann aufgrund des aufgeblähten g200 nur noch kosten senken(integrieren "kostengünstigerer" bauteile,Die shrink) u reagieren (mit ungewollten preissenkungen u umlabelei von alten grafikkarten)
anstatt zu agieren was imo leider ATI vorbehalten bleibt.Da sie mit dem 4000er chip mehr spielraum haben für agressive preissenkungen als nvidia mit dem g200:p
 
Zuletzt bearbeitet:
Ich denke 30 - 40% Mehrleistung gegenüber den GT200 sind realistisch. So einen Sprung wie mit dem G80 wird es so schnell nicht geben.

Ich neige beim g300 doch schon eher zu 80 - 100% mehrleistung,aufgrund der schon im umlauf befindlichen spezifikationen.Immer gesetz dem fall das sie sich nicht doch noch zum negativen hin entwickeln u all die ausagen bis jetzt nur ein grosser fake waren:haha:

---------- Beitrag hinzugefügt um 15:09 ---------- Vorheriger Beitrag war um 15:08 ----------

Hier spamst du also rum, ehemaliger Striker Kollege ;)
Jepp genau:d
 
der G80 stellt nunmal eine ausnahme in sachen leistungssteigerung da. sowas gibt es vielleicht alle 6-10 jahre mal.
zuletzt beim sprung auf den R9700pro...glaube kaum das die grafikleistung bis 2012 so sehr ansteigt wie damals
von der 7800/900 generation zum G80...

aber sieht man sich aktuell mal den spielemarkt an, sind große leistungssprünge wohl auch nicht von nöten. ein
eventueller G300 der als singlekarte zb. Crysis auf 2500:xxxx darstellen kann wird solange für alles reichen, wie
die Xbox360 und PS3 existieren. hin und wieder gibt es mal nen PC only game mit horrenden anforderungen, aber 90%
aller topgames werden auch in den nächsten 2-3 jahren so geprogt werden, dass sie ohne all zu große einbußen
auf Xbox360, PS3 und PC laufen...wodurch zeichneten sich zu PS2 zeiten PC konvertierungen aus? tja durch
die höhere auflösung und eventuell etwas höhere sichtweite. das mit der auflösung ist ja mitlerweile
zweitrangig, somit sollten die anforderungen aktueller top games in nächster zeit kaum steigen!

hehe im übrigen scheinen ATI und Nvidia es ja ähnlich zu sehen und ihre karten richtung 2010 zu verschieben...
eigentlich ne gute idee! alles momentan erhältliche reicht für aktuelle sachen locker, wer umbedingt die leistung
braucht nimmt halt ne dual-karte, oder kauft dann nachträglich ne zweite für SLI oder Crossfire. zusätzlich
haben wir den vorteil, dass die karten die kommen dann 2010 wirklich ausgereift sind (sollten zumindest)...
 
Zuletzt bearbeitet:
aber sieht man sich aktuell mal den spielemarkt an, sind große leistungssprünge wohl auch nicht von nöten. ein
eventueller G300 der als singlekarte zb. Crysis auf 2500:xxxx darstellen kann wird solange für alles reichen,!

Ich glaube da täuscht du dich ein wenig,es gibt noch andere zukunftsweisende techniken ausser rastergrafik bei denen weit aus mehr GPU power gefordert wird:coolblue:

Diese sind auch schon in der erprobung oder vielleicht sogar schon für die nächste oder übernächste grafikkartengeneration angedacht.

Nvidia hat da mit ambient occlusion(umgebungsverdeckung)oder auf gut deutsch mit dem grossen überbegriff raytracing,in einen seiner letzten treiber schonmal einen kleinen vorgeschmack gegeben,auf die grafikpower die noch benötigt wird demnächst.

Wer den 185er treiber mit dieser option schonmal angetestet hat,wird wissen wie dort die performance in den keller geht bei aktivierung von ambient occlusion

Crysis ist also noch lange nicht das ende der fahnenstange von computergrafik:p
 
Zuletzt bearbeitet:
nur weil Nvidia mit irgendwelchen dingen rumprobt, heißt das nicht, dass wir sowas bald massiv in spielen sehen werden.
selbst firmen wie Crytek setzen auf multiplatform...

zumal raytracing in eine andere richtung geht und die aktuellen und folgenden graka architekturen völlig ungeeignet
dafür sind. somit lohnt in diese richtung sicher auch kein G300! da muss dann schon eine extra darauf zugeschnittene
architektur her. wie gesagt, sowas wird wohl erst passieren wenn zb. die Xbox 720 (?) mit nem Labreè chip daherkommt,

leider...
 
zumal raytracing in eine andere richtung geht und die aktuellen und folgenden graka architekturen völlig ungeeignet
dafür sind
. somit lohnt in diese richtung sicher auch kein G300! da muss dann schon eine extra darauf zugeschnittene
architektur her.

Wer sagt das?:confused:

nur weil Nvidia mit irgendwelchen dingen rumprobt, heißt das nicht, dass wir sowas bald massiv in spielen sehen werden.

Damit probt nicht nur nvidia umher sondern intel als auch amd/ati im selben masse:p

Aber wir sind wieder ein bisschen weit ab vom eigentlichen thema:btt::p
 
Zuletzt bearbeitet:

Intel;)

Trotzdem wird es mit Raytracing noch ne weile dauern, wenn es denn überhaupt kommt. Rastergrafik bietet im Prinzip keine Nachteile, wird nur ab einem bestimmten Punkt Hardwarelastiger als Raytracing. Allerdings scheint dieser Punkt in noch großer Ferne zu liegen.
 
scheiß egal welche Graka besser ist usw...

Hauptsache für uns springen ordentliche Preise dabei raus, durch den Konkurrenzkampf.

Will für meine nächste Graka keine 400 zahlen wie damals :d
Überhaupt für mein nächsten PC.
 
Zuletzt bearbeitet:
ja da hast du recht ;) davon geh ich jetzt einfach mal aus das es nicht so sein wird :P
 
sind die herstellungskosten in den letzten 2-3 jahren eigentlich wirklich so stark gesunken? oder machen ATI und NV momentan
einfach weniger umsatz und gewinn?

vor einigen jahren war es ja gang und gebe das die kleinsten wirklich zum gamen geeigneten karten mit um und bei
150-250€ zu buche schlugen und die performance-highend klasse schon gerne 350-500€ kostete. ich kann mir
irgendwie kaum vorstellen, dass halbe struckturbreiten gleich zu halben preisen führen!

qualität sollte auf jeden fall vorrang haben. lieber zahle ich am releasetag 400€ für die karte und hab dann erstmal
1 1/2-2 jahre ruhe, als ständig angst haben zu müssen das die karte übern jordan geht bzw. die leistung morgen
nicht reicht, weil man zb. nen neuen monitor hat...
 
der GT-300 basiert keineswegs auf den G80 , der GT-300 ist eine komplette neue Architektur
Nope. GT300 wird weiterhin auf der aktuellen Architektur basieren. Nur bekommen gerade die Shader Einheiten eine etwas stärkere Überarbeitungen. Grundsätzlich ändern wird man diese aber auch nicht. An der restlichen Logik sollte sich hingegen nicht allzu viel ändern. Mal abgesehen von mehr Masse aufgrund des kleineren Fertigungsprozesses.

und setzt nicht mehr auf SIMD sonder auf MIMD
SIMD wird weiterhin eine Rolle spielen, wie es auch schon länger MIMD Einheiten in GPUs gibt. Nicht so viel von irgendwelchem Marketing Geblubber täuschen lassen. ;)
 
der GT-300 wird eben nicht auf der aktuellen Architektur basieren , benutz google und schau dir die ganzen berichte von Nvidia selber an wo sie es selber sagen das es einen komplett neue architektur wird

und was SIMD und MIMD einheiten betrifft ... wikipedia hilft , MIMD sind aufjedenfall die bessere variante und SIMD wirds beim GT-300 mit sicherheit nicht geben

wen du diskutiren willst , du bist gerne willkommen im SpekuThread : http://www.hardware-infos.com/forum/viewtopic.php?f=5&t=3260
 
Du weißt gar nicht so recht, wovon du redest, Commander, oder? ;) Das soll keine Anfeindung sein, aber in mehreren der GT300-Threads ist die SIMD/MIMD-Diskussion schon detaillierter zerkaut worden, als das hier gerade den Anschein hat und mr.dude hat sehr recht mit allem, was er sagt.

Die Basis bleiben die bestehenden Architekturen, weil sich bis auf wenige Details nicht von dem unterscheiden, was wir jetzt zu sehen kriegen werden. Es ändert sich nur die Implementierung, nicht das Konzept selber - wir sehen weiterhin eine sehr ähnlich aufgebaute "Pipeline", bei der lediglich die einzelnen Stages variiert worden sind.

Die Aussage "MIMD sind auf jedenfall die bessere variante" zeugt nicht gerade von besonders viel Einsicht. :) Wenn man jemanden überzeugen will, sollte man das mit Argumenten machen und nicht mit "xxx ist gut/besser/am besten/schlecht/ganzganzmies". Und da ist hier technische Einsicht meist ein ganz guter Ansatzpunkt. Du bist jedenfalls willkommen, dir mal die bisherigen Diskussionen (an denen ich auch beteiligt war) genauer anzusehen und auch mal im Technikthread vorbeizuschauen, wenn dich das Thema wirklich interessiert. Da gibts übrigens gerade eine interessante Frage, die zu beantworten ich nicht fähig genug bin, vielleicht bist du es ja. :)
 
aber in mehreren der GT300-Threads ist die SIMD/MIMD-Diskussion schon detaillierter zerkaut worden

Hatten wir da das Thema SIMD und MIMD nicht schonmal durchgekaut, weiß allerdings nicht obs in dem Thread war...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh