Neue Grafikchips von AMD und Nvidia sollen sich verspäten

diese 90% der käufer merken es wenn der chip einen heizkörper ersetzt.
oder wenn der lüfter bei 80db drehen muss um die wärme abzuführen...

Das ein kleinerer Fertigungsprozess unbedingt weniger Wärme bedeutet ist aber auch nicht so...

Und mal ehrlich, was hast du davon, wenn du weist, dass es 16nm sind, obwohl genau das selbe mir 28nm möglich gewesen wäre nur wesentlich billiger? Mir ist es Jacke wie groß der Fertigungsprozess ist, was zählt ist das was hinten raus kommt. Aber ich glaube das ist auch das allgemeine Problem. Die Erwartungshaltung. Es muss immer am besten 50% besser bei 30% weniger Strom werden. Wenn das nicht so ist, sind alle hier (und die Aktionäre) total enttäuscht.

P.S. Man sollte aber eben auch bedenken, dass die Käufer hier im Luxx nicht den Bruchteil der Käuferschicht der Hersteller ausmachen. Die die Masse kaufen interessieren sich einen Scheiß für den Fertigungsprozess ;)

Bzw, ich freue mich auf die neuen Karten, werde aber dennoch bei meinen 290ern bleiben. Denn die Leistung ist einfach (für mich) ausreichend vorhanden.

Gesendet von meinem OnePlus One
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Doch habe ich. Nur kann eben auch im 28nm Prozess optimiert sein....

Genauso kann ein optimal laufender 28nm besser (und ggf kühler) sein als ein am Anfang stehender 16nm. Darum ging es mir, dass es Wurst ist, welcher Prozess Basis ist, solange das Ergebnis stimmt! Du tust ja fast so als könne man nur durch den kleineren Prozess eine 290X/780Ti mit 150 Watt bauen....

Und ja, mir ist die Lautstärke und Wärme egal, aber auch damit bin ich nicht in der Gruppe der potentiell wichtigen Käuferschicht ;)

Gesendet von meinem OnePlus One
 
du hast meinen post nicht verstanden

demnach macht es dir nichts aus einen lüfter bei 80db laufen zu lassen um die deutliche mehrleistung wegzukühlen
verglichen mit einem kleineren prozess welcher wenn er nicht verpfuscht wird deutlich effezienter ist
Irgendwie habe ich das Gefühl du hast weder Ahnung von Fertigungsverfahren noch von atuellen Grakas.
Trotz selber Strukturgrösse bringt eine GTX 970 ein Ticken mehr Leistung als eine R9 290 und ist dabei _deutlich_ kühler und ohne OC auch spürbar sparsamer.

Dieser Streit ist doch sinnlos - er wird sowieso nicht beeinflussen können was AMD und NV bringen ;)
 
Die fertigungsgröse ist für einen endverbraucher total egal, was einem endverbraicher onteressiert ist wieschnell das teil ist und bei welcher verlustleistung er das macht - sprich: Effizienz.
Das zählt. War doch bei intel auch so gewesen wenn ich moch noch recht ensinne... Northwood cpus waren halwegs gut, danach kamen die prescot cpus welche nen kleineren fertigungsprozess hatten und noch ein paar neue optimoerungen... Und was war? Das teil war langsamer als nen gleichgetakteter northwood, bei gleichzeitig gestiegener abwärme.

Der kleinere fertigungsprozess bringt rein garnichts wenn der nicht gut optimiert ist.



Das ist genauso nen schwachsinn wie mit den ganzen systemdigitalkameras... Immer mehr MPixel, aber das die im endeffekt immer schlechtere fotos machen merkt anscheinend keiner :-( mit den neumodischen dingern kann man ja fast nur noch mit nem iso100 halwegs brauchbare fotos machen, und dennnoch siehts verauschter aus als ne digicam mit 3mp wenn mans mal ganz genau betrachtet.
Mehr ist nicht immer gut...
Ist auch bei autos so, was bringen mir 1000ps unter der haube wenn ich damit kaum vom fleck komme und keine kurven fahren kann... Da ist nen auto mit 500ps am ende deutlich schneller unterwegs welcher halt besser optimiert ist.
Es ist die technik die dahinter steckt, und die physik welche grenzen setzt...
 
Zuletzt bearbeitet:
Dann solltest du bei den Chipherstellern anfangen und ihnen erklären wie man Chips nicht verpfuscht...

Aber gut, jeder hat seine Ansicht, dann glaub du weiter, dass eine Strukturverkleinerung in jedem Falle der heilige Gral ist...

Mir persönlich (und ich denke 99% der Käufer auch) ist es Wumpe wieviel nm der Chip hat solange das Ergebnis stimmt... :)

Gesendet von meinem OnePlus One
 
Man wird ohnehin bald an physikalische Grenzen stoßen bzw. man ist es bereits, wo eine Strukturverkleinerung nicht mehr machbar ist. Was dann? Man ist doch jetzt schon gezwungen neue Wege zu gehen (siehe 3D-Transistoren, 3D-NAND usw.), weil es eben alleine mit einer Strukturverkleinerung nicht mehr getan ist. DAS ist überhaupt einer der Hauptgründe warum wir nach 3 Jahren 28nm immer noch da sind wo wir sind. Es wird einfach immer schwieriger je näher wir dieser physikalischen Grenze kommen.
 
Es ist doch genügend Leistung vorhanden oder worauf warten einige?

Auf 50fps in 4k?

DAS ist überhaupt einer der Hauptgründe warum wir nach 3 Jahren 28nm immer noch da sind wo wir sind. Es wird einfach immer schwieriger je näher wir dieser physikalischen Grenze kommen.

Intel ist doch fertig mit 14nm und hat auch schon Pläne für später.

Irgendwie geht es immer weiter.
 
Zuletzt bearbeitet:
Intel ist doch fertig mit 14nm und hat auch schon Pläne für später.

Irgendwie geht es immer weiter.

Jein, schau dir mal Intels 22nm und 14nm Prozess im Detail an. Stichwort 3D-Transistoren.
 
Noch sind wir nicht an der Grenze., aber es ist klar dass man auch andere Wege gehen muss.
Da sehe ich allerdings mehr die CPUindustrie in Gefahr. Dort wird es mit der Steigerung der IPC schon sehr schwer und Paralelisierung erfordert spezielle Anpassung der Software welche je nach Aufwendung relativ Schwierig ist (z.B. Games).
Bei Grafikkarten dagegen kann man notfalls einfach die Zahl der Rechenwerke erhöhen, da die Treiber fast problemlos skalieren können.
 
Kurze zwischen Frage. Also so wie ich das jetzt sehe mit der neuen Generation würde sich jetzt nen wechsel von der HD 7870 XT Boost auf eine GTX 970 lohnen???
 
das kannst du doch nur selbst entscheiden!
 
Die warten geduldig bis die Waferbelichter mit den Preisen runter gehen. Die Gewinnspanne mit 28 nm ist offenkundig derzeit größer als mit 20 mn.

Da mit dem SPARC64 XIfx seit Mitte letzen Jahres ein Prozessor mit 3.7 Milliarden Transistoren in 20 nm @ 2.2 GHz im Handel ist - überigens schon mit "stacked Memory" - können mir AMD und NVidia nicht weiß machen es gäbe technische Probleme sowas herzustellen. Die stellen ja selber garnicht her sondern eben die Waferbelichter. Schon weil GPU's viel einfacher herzustellen sind als CPU's hätten die Waferbelichter sicher keine Probleme eine Flaggschiff-GPU mit 4 Milliarden Transistoren in 20 nm zu fertigen. Natürlich nicht zum gleichen Preis des selben in 28 nm..

Solange die Kunden wie blöde alles mit "neu"(tm) kaufen, selbst umgelabelte Altware....
 
Zuletzt bearbeitet:
Da mit dem SPARC64 XIfx seit Mitte letzen Jahres ein Prozessor mit 3.7 Milliarden Transistoren in 20 nm @ 2.2 GHz im Handel ist

Also im August war noch nicht mal bekannt wer die Chips denn nun fertigt, bisher habe ich auch nichts neues diesbezüglich gehört. Daher ist 20nm für GPUs/CPUs (ausser bei Intel) wohl noch nicht ganz so einfach. Wenn du also neue Informationen dazu hast immer raus damit.
 
.... Und mit dem Preis hast du u.a. ein Kriterium für den Großteil der Käufer gefunden... Was bringt es, wenn der supertolle neue 20nm Prozess das selbe schafft wie der 28nm (ob, sind wir mal pure Optimisten: 30% mehr Leistung bei gleichem Energieverbrauch), aber dann meinetwegen 40% mehr kostet? Das sind viele eben nicht bereit zu zahlen. Das Luxx ist nicht der Hauptfinanzierer der Hersteller ;)

Ich bleibe dabei, der zugrunde liegende Prozess ist mir Jacke, Hauptsache das Ergebnis stimmt (sprich: Leistung/Verbrauch/Preis/Features)....

Gesendet von meinem OnePlus One
 
der fertigungsprozess ist ja schlicht nur eine ausgangsgröße.
das gesamte paket ist wichtig, nicht nur ein einzelner punkt.
 
Schon weil GPU's viel einfacher herzustellen sind als CPU's

Seit wann das denn ? Ich dachte immer GPUs sind im Aufbau viel komplexer als CPUs. CPUs können 4-5 GHz takten. GPUs sind noch weit davon entfernt.

hätten die Waferbelichter sicher keine Probleme eine Flaggschiff-GPU mit 4 Milliarden Transistoren in 20 nm zu fertigen. Natürlich nicht zum gleichen Preis des selben in 28 nm..

4 Milliarden Transistoren ? Das ist doch kein Flaggschiff. Hawaii hat schon 6,2 Milliarden. Tonga hat 5 Milliarden. In 20 nm würden locker 10-12 und mehr Milliarden Transistoren ihren Platz finden können.
Das Problem ist die Herstellung. Ich erinnere mich an die Probleme der 40nm-Herstellung oder den Problemen der 28nm Herstellung. Das dauert ewig, bis die so tollen Belichter endlich die Stückzahlen erreichen können. Es ist eher so, das auf 20nm immer noch ein Risk-Verfahren zum Einsatz kommt, was AMD eben nicht nochmals tragen möchte. AMD hatte die ganzen Jahre immer die Vorreiterrolle gemacht und somit das Beta-Stadium der Produktion getragen. NVIDIA setzte sich dann einfach 6-12 Monate später ins gemachte Nest und verkaufte ihre Karten zu noch höheren Preisen.
Diesmal scheint es AMD aber nicht mehr tragen zu wollen und sagt sich einfach. NVIDIA, wie wäre es wenn du mal den Weg ebnest !

Das ist natürlich schlecht für den Fortschritt. Aber solange man seine Produkte noch in 28nm verkaufen kann, indem man mehr Lichter auf die Grafikkarte klebt und den Namen mutig zwei Generationen höher klingen lässt und noch etwas pseudoTDP dazu schreibt. Ist das doch total :wayne:

Denn es funktioniert ja prächtig, wie man sehen kann. ;)
 
AMD hatte die ganzen Jahre immer die Vorreiterrolle gemacht und somit das Beta-Stadium der Produktion getragen. NVIDIA setzte sich dann einfach 6-12 Monate später ins gemachte Nest und verkaufte ihre Karten zu noch höheren Preisen.
Diesmal scheint es AMD aber nicht mehr tragen zu wollen und sagt sich einfach. NVIDIA, wie wäre es wenn du mal den Weg ebnest !

Mensch Pickebuh, Jahr 2015 und immernoch am grundlosen NV bashen...
Schon mal dran gedacht, dass die GPUs von NV und AMD so ohne weiteres nicht 100% übereinander passen? Das was der eine da abliefert muss noch lange nicht heißen, dass die Produkte des anderen genau so gut oder schlecht, schwer oder einfach zu produzieren sind.
Ein Blick auf die nakten Zahlen verrät, dass G200(b) schon knappe 50% mehr Transistoren als AMD mit dem RV770 hatte. Fermi ebenso. Und GK110 ist mit 7,1Mrd transistoren eine Zeit lang der Transistorreichste Chip überhaupt gewesen... Oder ist es sogar noch.
Hier zu behaupten, NV würde sich ins gemachte Netz setzen und dabei die bei weitem transistorstärkeren GPUs bauen, wiederspricht sich mal ganz dezent... Aber neja...

Auf was es hier ankommt sind Yields und Kosten. Wenn der Zeitpunkt halt einfach noch nicht gegeben ist, dann wartet man. Oder trägt höhere Kosten und mehr Risiko. Was passiert, wenn man zu zeitig mit der Brechstange produzieren will, sah man am RV870, der ewig nicht wirklich verfügbar war. Oder auch an Tahiti, der von Anfang an mit vergleichsweiser hoher Serienstreuung bei der Güte kämpfte... Unnötig viel vGPU Spannung, mehr Verbrauch und andere Nachteile usw.
So einfach ist die Welt. Aber um so schwerer offensichtlich auch für einige zu durchblicken :wall:
 
Mensch Pickebuh, Jahr 2015 und immernoch am grundlosen NV bashen...
Schon mal dran gedacht, dass die GPUs von NV und AMD so ohne weiteres nicht 100% übereinander passen? Das was der eine da abliefert muss noch lange nicht heißen, dass die Produkte des anderen genau so gut oder schlecht, schwer oder einfach zu produzieren sind.
Ein Blick auf die nakten Zahlen verrät, dass G200(b) schon knappe 50% mehr Transistoren als AMD mit dem RV770 hatte. Fermi ebenso. Und GK110 ist mit 7,1Mrd transistoren eine Zeit lang der Transistorreichste Chip überhaupt gewesen... Oder ist es sogar noch.
Hier zu behaupten, NV würde sich ins gemachte Netz setzen und dabei die bei weitem transistorstärkeren GPUs bauen, wiederspricht sich mal ganz dezent... Aber neja...

Ohje...ohje....
Da scheint wohl jemand wirklich keine Ahnung von der Materie zu haben. Ich fasse es einfach nicht. Obwohl ich es doch irgendwie von dir gewohnt sein sollte, aber hiermit bricht wirklich schon der Boden aus dem Fass !

Hier mal eine klein Geschichtsstunde. Vielleicht hilft es ja. ;)
Die GT200er-Serie von NVIDIA auch bekannt als GTX280er wurde am 16.Juni 2008 vorgestellt und basierte noch auf 65nm.
AMD/ATI hatte kurz darauf die HD4000er-Serie am 19.Juni 2008 vorgestellt, welche schon in 55nm produziert wurde.
NVIDIA stellte daraufhin erst 6 Monate später am 15.Januar 2009 ihren GT200 auf 55nm um und nannte ihn GT200b welche in der GTX285 zum Einsatz kam.
Also profitierte NVIDIA damals schon von Produktion die ATI hochgefahren hatte, indem TSMC höhere Yields liefern konnte !

Es geht natürlich weiter. Nach der GTX 285 folgte die GTX 480 sprich der GF100 Fermi kam. Aber dieser kam diesmal später als die brandneue HD 5000er-Serie von AMD, welche dann schon aus 40nm Wafern belichtet worden ist und am 10.September 2009 vorgestellt wurde. AMD hatte sogar schon im Juli mit der HD4770 erst Frühsamples am Start, um die Produktion zu sensibilisieren auf die größeren Chips, die 3 Monate später folgen sollten. Welche aber immer noch Schwierigkeiten bereitete. Wir erinnern uns an die Lieferengpässen der HD5000.
Nun, wann kam nun Fermi ?
Offiziell am 18.Januar 2010. Wir erinnern uns an den Tag. Da war es verdammt kalt draußen und wir brauchten dringend etwas Holz zum Feuer machen, damit wir unsere Hände daran wärmen konnte. Da schien so ein Holzplagiat alias GTX480 genau richtig geeignet.
Die echte Karte kam dann am 27.März 2010 in den Handel. Also gut 6 Monate später. Der Produktionsprozess in 40nm lief also schon gute 6-9 Monate, wenn man die Test-Karten von AMD dazu rechnet. Also hat NVIDIA wiedermal von AMDs Vorreitrolle profitiert und konnte ihren großen Fermi in einen nun erfahrenerer und deutlich besser laufenden Produktionszyklus legen.

Aber es geht ja noch weiter.
Wann kam nun der 28nm Produktionsprozess ?
Am 22.Dezember 2011 wurde, wiedermal, durch die HD7000 von AMD die Produktionshallen der Auftragsfertiger schon gut beheizt um später dann wiederum NVIDIA die Kosten des Anlaufs und deren Probleme zu ersparen.
NVIDIA stieg mit ihrem kleinen Keplar als GTX680 am 22.März 2012 in die nun von AMD schon gut geschmierte Produktionsstraße ein.
Erst am 19.Februar 2013, also knapp 1 Jahre nach der GTX680, hat NVIDIA die Titan als Sonderkarte zu extremen Preisen in dem Markt geworfen. Erst ab da wurden größere Chips gebaut ! Die GTX 780 kam dann am 23.Mai 2013.

Soviel zur Geschichte. Und nun überlege bitte nochmals, wer hat bis jetzt und ausschließlich immer profitiert, wenn es um die Herstellung der GPUs ging ? Das hat weder etwas mit der Architektur noch mit dem Wetter zu tun. :stupid:

Auf was es hier ankommt sind Yields und Kosten. Wenn der Zeitpunkt halt einfach noch nicht gegeben ist, dann wartet man. Oder trägt höhere Kosten und mehr Risiko. Was passiert, wenn man zu zeitig mit der Brechstange produzieren will, sah man am RV870, der ewig nicht wirklich verfügbar war. Oder auch an Tahiti, der von Anfang an mit vergleichsweiser hoher Serienstreuung bei der Güte kämpfte... Unnötig viel vGPU Spannung, mehr Verbrauch und andere Nachteile usw.
So einfach ist die Welt. Aber um so schwerer offensichtlich auch für einige zu durchblicken :wall:

Genau ! Die Yields sind nicht so hoch, wenn die Produktion noch im Anlauf ist. Und nun erkennst du nicht, warum NVIDIA immer später in die Produktion mit einsteigt ? Warum soll AMD immer den ersten Schritt tun ? Kann doch mal NVIDIA die Vorarbeit leisten. Glaubst du wirklich, das AMD und NVIDIA bei TSMC ihre eigenen Produktionsstraßen haben ? Alle Chips laufen da vom selben Band !!

Manchmal glaube ich echt, manche Leute sind so naiv wie ein 8 Jähriger... :hmm:
 
Zuletzt bearbeitet:
Vielen dank für die Geschichtsstunde Pickebuh :wink:
Nur was ändert das nun am gesagten?

G200 (ob nun b oder nicht, völlig egal) ist knappe 50% transistorreicher als RV770. Fermi (egal ob v1 oder v2) ist knappe 50% transistorreicher als RV870 und Kepler GK110 kam in erster Instanz in Form der Tesla K20(x) Karten schon im Spätsommer 2012 und ist mal eben fast doppel so transistorstark wie Tahiti.
Das war der Kernpunkt... Und eine kleine GPU zu produzieren ist alles andere als das gleiche wie eine große GPU zu produzieren.
Meinst du NV guckt sich an, was AMD abliefert und sagt sich dann, ja knapp 50% mehr Transistoren drauf, die von AMD genutzte Fertigung dazu und das läuft!?

Beide Hersteller arbeiten Eng mit den Fertigern zusammen. Daran gibts nichts zu rütteln. Und beide Hersteller entscheiden für sich ganz allein, wann die Yields gut genug sind, um damit in Massenproduktion zu gehen. Selbst der unversierteste hier sollte doch mittlerweile verstanden haben, das gerade die Generation 2xnm aktuell scheinbar noch A) zu viel kostet und B) zu wenig Kapazitäten vorliegen und man deswegen offenbar nochmals in 28nm liefern wird oder auch muss...
Von setzt sich immer ins gemachte Nest ist da absolut gar keine Spur zu erkennen wenn die Kosten zu hoch und die Ausbeute zu mau ist, dann bringt man es schlicht nicht. Das ist rein wirtschaftliches Denken. Wir sind doch nicht bei der Wohlfahrt hier :( Kein Unternehmen der Welt produziert mit die transistorreichsten Chips am Markt in einem derart mauen Prozess, wo die Ausbeute im untersten, teils einstelligen Bereich liegt.

Achso und nein, es spielt keine Rolle ob da eine eigene Straße für AMD/NV vorhanden ist oder nicht. Die kaufen doch keine Produktionsanlagen oder ähnliches. Die kaufen in absoluten Mengen... Oder in Mengen funktionierender Chips. Wie das der Fertiger bewerkstelligt ist nebensache. Interessant ist dabei einzig, was kostet das am Ende. Und hier entscheidet sich zum einen die Sachlage, wann die Produkte kommen können und zum anderen maßgeblich auch ein Teil des Preises des Ganzen. Ein Design auf einen Prozess ausgerichtet, umzubiegen auf einen anderen, ist eher ungünstig. Hatten wir in der Vergangenheit aber auch schon.

Soviel zur Geschichte. Und nun überlege bitte nochmals, wer hat bis jetzt und ausschließlich immer profitiert, wenn es um die Herstellung der GPUs ging ? Das hat weder etwas mit der Architektur noch mit dem Wetter zu tun.

Wer da von wem profitiert, weist du genau woher? Das leitest du daraus ab, dass eine 1/3-1/2 transistorärmere GPU eher auf dem Markt verkauft wurde als eine andere? Also bitte...
Zumal keinerlei Fakten auf den Beginn der Massenproduktion, keinerlei Fakten über die wirkliche Ausbeute und vor allem auch keinerlei Fakten über die Probleme der Produktion überhaupt von dir genannt werden. Du beziehst dich einzig auf den Releasetermin der GPU. Und genau das ist einfach quark und unsinniges bashing...
 
Zuletzt bearbeitet:
Natürlich kann ich das selber entscheiden. Man kann alles selbst entscheiden nur dann brauchen wir auch keinen Kaufberatungsthread. Wollte doch nur wissen ob das Leistungs Plus dem Preis gerecht wird.

CES abwarten (6-9 Januar) mach ich genauso, denn brauch auch was neues
 
Natürlich kann ich das selber entscheiden. Man kann alles selbst entscheiden nur dann brauchen wir auch keinen Kaufberatungsthread. Wollte doch nur wissen ob das Leistungs Plus dem Preis gerecht wird.

alles kann man nicht selbst entscheiden, je nachdem wie tief man in der materie steckt.
aber das leistungsplus ist doch eine subjektive empfindung.
und da kann dir kein anderer wirklich die richtige antwort zu geben.

es ist ja dein geld was investiert wird.
 
Dann bin ich ja doch froh vor kurzem von der GTX 680 auf die 980 gewechselt zu haben.

4k beim Gaming halte ich für gar nicht so interessant, auch weil das mit der Skalierung unter Windows 7 und auch 8 noch nicht so toll funktioniert.
Bei manchen Programmen z.B. von Adobe sogar noch schlechter bis gar nicht. Mal sehen was Windows 10 hier bringt.
Aber nachdem ich mit meinen Rechnern nicht nur zocke gibts für mich noch andere erhebliche Einfluss Faktoren als die GPU Leistung und die Preise von 4k Bildschirmen.

Gesendet von meinem Nexus 5 mit der Hardwareluxx App
 
Es ist doch genügend Leistung vorhanden oder worauf warten einige?

Auf 50fps in 4k?



Intel ist doch fertig mit 14nm und hat auch schon Pläne für später.

Irgendwie geht es immer weiter.

Reicht mir nicht. Für wirklich ordentliches VR sind 90 fps (min fps) bei 4k von nöten. Optimal wären 8k. Die GPU Hersteller haben da noch was vor sich.
Die aktuell beste GPU packt nicht mal meine drei 1080 p displays. Man stelle sich vor das wären drei 4k displays wie ich es gerne gehabt hätte!
 
Es ist doch genügend Leistung vorhanden oder worauf warten einige?

Ich warte auf mehr leistung beim Stromverbrauch einer R9 270. Weil die nur einen 6 Pin Stromstecker benötigt, mir aber zu langsam ist. Mein brandneues Be Quiet 300W NT hat keine stecker mehr übrig :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh