Ist der merkliche Fortschritt bei der CPU oder auch PC Performance abgeflacht?

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hier noch ein grund warum ich der meinung bin der fortschritt ist langsamer.
geforce 1 220nm 2000
geforce 2 180nm 2001
Geforce 4 150nm 2002
geforce 5 130nm 2003
geforce 6 110nm 2004
geforce 7 90nm 2006
geforce 8 65nm 2007
HD4000 Serie 40nm
HD5000 Serie 40nm
HD6000 Serie 40nm
R200 Serie 28nm

geforce 7 90nm
geforce 8/9 90/65nm (nur die kleinen und später 8/9800GT)
geforce 200 65/55nm
geforce 400 40nm
geforce 500 40nm ( = Rev.2 der 400er Fermis)
geforce 600 28nm (auch die Fermis wurden geshrinkt)
geforce 700 28nm ( = 600er mit GK110 Rev.2)
geforce 800 (Maxwell) 28nm (Gerücht, GK180 1.HJ 2014, Rest wahrscheinlich alt)
geforce ? (Volta) 20nm (1. HJ 2015, gib sicherlich neues Namensschema)
geforce ? (Einstein?) 20nm FinFET (AKA 16nm) + ein paar ältere 20nm Chips

X1000 Serie 90nm
HD2000 Serie 80nm/65nm (nur die kleinen)
HD3000 Serie 55nm
HD4000 Serie 55nm
HD5000 Serie 40nm
HD6000 Serie 40nm (teilweise 5000er)
HD7000 Serie 28nm/40nm (alles unter 7730 5000er oder 6000er)
R200 Serie 28nm
R300 Serie 20/28nm (Pirate Islands, Ende 2014, wird sicherlich Tahiti und Pitcain aka Curacao durch einen einzeigen neuen 20nm-Chip ersetzen)
R400 Serie 20nm FinFET (AKA 16nm/14XM) + ein paar ältere 20/28nm Chips

Die Verkleinerung ist in der Tat gebremst, aber auch der Ertrag. Seit dem R300 ist die TDP von 42(!)W auf 250W angestiegen bei Grafikkarten.
 
Zuletzt bearbeitet:
Früher waren Spiele einer der Haupttreiber für PC Hardware. Es war nicht selten, dass ein neues Spiel rauskam, was einen absoluten Top PC benötigte um flüssig zu laufen, teilweise nichtmal mit aktueller Hardware so gut lief wie heutige Spiele. Durch die Konsolen starb das eigentlich aus. Wenn solche Spiele heutzutage raus kommen, kommen sie auf keinen grünen Ast, weil sich jeder das Maul über die Anforderungen zerreißt, egal wie toll die Grafik ist. Wenn ich mich nur an Crysis erinnere... meine Güte was die Leute da geheult haben weils auf ihren Kisten nicht schnell genug lief.

Moore's Law ist langsamer geworden, und wird auch weiter langsamer.
The end of Moore's Law is on the horizon, says AMD | PCWorld
 
Geheult und gekauft. Crysis war ein großer Hit, genau wie andere Hardwarefresser in der Vergangenheit. Star Citizen wurde als Hardwaremordend angekündigt und schon vorher als Backer gekauft wie bescheuert. Hardwarehunger war in Wirklichkeit, sowohl heute als auch gestern, noch nie ein Grund ein Spiel nicht zu kaufen. Ab jetzt, wo die 64Bit Grenze endlich fällt und auch die Konsolen mit akzeptablen RAM-Größen ausgeliefert werden, gibts auch für den PC eine gosige Zukunft mit fordernden Games, vor allem 64Bit war das Haupthindernis für mehr Qualität (und damit mehr Hardwarehunger).
 
Zuletzt bearbeitet:
Moore´s Gesetz kann man eh in der Pfeife rauchen, das ist eine Analyse des Vergangen und daraus eine Prognose für die Zukunft gemacht. Das ist eine Prognose, kein Naturgesetz. Was beobachtet wurde muss sich nicht wiederholen, das zeigt Moore inzwischen ganz gut. Was Hardware und Crysis angeht darf man aber auch nicht vergessen, das Crytek nur schlecht Programmierten Eyecandy-Kram bastelt...
 
Zuletzt bearbeitet:
Stimmt und Moores Law wurde durch einen enorm erhöhten Stromverbrauch erkauft.
 
Geheult und gekauft. Crysis war ein großer Hit, genau wie andere Hardwarefresser in der Vergangenheit. Star Citizen wurde als Hardwaremordend angekündigt und schon vorher als Backer gekauft wie bescheuert. Hardwarehunger war in Wirklichkeit, sowohl heute als auch gestern, noch nie ein Grund ein Spiel nicht zu kaufen. Ab jetzt, wo die 64Bit Grenze endlich fällt und auch die Konsolen mit akzeptablen RAM-Größen ausgeliefert werden, gibts auch für den PC eine gosige Zukunft mit fordernden Games, vor allem 64Bit war das Haupthindernis für mehr Qualität (und damit mehr Hardwarehunger).

Das hoffe ich auch. Trotzdem hat es sich bis jetzt kaum noch einer getraut, eben weil sie Angst hatten dass es deswegen nicht verkauft wird. Crytek hatte mit Crysis auch noch den Vorteil einen großen Publisher zu haben, der ordentlich Werbung gemacht hat. Früher waren Spiele, die einen aktuellen High End PC benötigten um schnell zu laufen fast jährlich. Wo hat es denn nach Crysis je wieder so einen großen Sprung gegeben? Selbst BF4 läuft auf einer GTX285 passabel.
 
Ich weiß noch wie ich versucht hatte Crysis auf nem A64 3500+ und ner X800Pro zu zocken :fresse:

Das waren noch geile Zeiten^^
 
Ich weiß noch wie ich versucht hatte Crysis auf nem A64 3500+ und ner X800Pro zu zocken :fresse:

Das waren noch geile Zeiten^^

Das Spiel war selbst mit einem aktuellen Core 2 Duo und einer 8800GTX nicht flüssig spielbar (Max Details) und das bei 1280x1024 (4xAA + 16AF).


Zu den Shrinks:
Im Grafikkartenbereich geht es nun langsamer, aber Intel hält sich ganz gut am Plan. Das Problem bei Intel ist, dass es im Mainstream, fast die ganze "gewonnene" Fläche an iGPU abgegeben wird.
 
Das Problem bei Intel ist, dass es im Mainstream, fast die ganze "gewonnene" Fläche an iGPU abgegeben wird.

ja das sehe ich auch so Shadow.

wer weiß was für tolle cpu,s intel bauen könnte ohne diesen kram.
 
ja das sehe ich auch so Shadow.

wer weiß was für tolle cpu,s intel bauen könnte ohne diesen kram.

Wahrscheinlich Sechs-Kerner mit einer ähnlichen TDP wie AMDs Top-CPUs, nur würden sie wahrscheinlich viel mehr kosten, weil sie Konkurrenzlos wären... Moment da kommt mir doch eine Idee... Oh da Intel Core i7-4930K, 6x 3.40GHz, boxed (BX80633I74930K) Preisvergleich | Deutschland - Hardwareluxx - Preisvergleich

Blöd nur, dass man damit als Causal-Consumer-Endkunde nichts anfangen kann, weil die Software in dem Bereich fehlt...
 
Naja aber Transitoren/Flächensteigerung geht ja eigentlich mit Leistungssteigerung einher, sonst würde die Leistung ja abnehmen, warum sollte man dann den "Einsatz" erhöhen. ;)
 
Der Fortschritt ist nicht existent weil es weniger gekauft wird von den CPUs: ein durchschnittlicher Verbraucher braucht keine 4-Cores, deshalb kauft er oft nicht mal ein i5-2500, sondern geht eher mit dual cores oder entscheidet sich sogar für ein Tablet.

Tablet/Handy CPUs sind billiger und eben für den Konsum von facebook, youtube und email reichen sie vollkommen aus.

Finde ich persönlich Schade, weil alle diese Handys nicht zur produktiver Arbeit führen. Es ist kaum möglich einen Brief auf so einem Handy zu schreiben - oder eben eine längere email - denn das nimmt vier mal soviel Zeit wie am PC. Will man etwas ausrechnen, mahlen, 3D gestalten, photoshop - so geht das mit dem Tablet nicht. Zwar gibts diese Apps, die das können, aber je nach Program, kann man aufm PC das ganze 100 mal schneller und besser machen.

Zukunft? Ich denke es wird sich wenig änder in der Zukunft weil nur wenige 4 oder 8 Core kaufen werden.

Ich fands toll, dass so gut wie alle zuhause so ein Ding - einen PC - hatten, das könnte man ja fast "creatives Zeitalter" nennen - wo jeder ein Buch schreibe konnte, oder Bilder mit Photoshop gestalten. Das wird aber alles weggehen, denn der PC wird durch Tablets ersetzt, die sowas sind wie das TV damals war - einfach ein Konsumentenspielzeug. Finde ich schade, dass ein Kind heute am Tablet kaum etwas kreatives gestalten kann - kein technisches Zeichen für sein Papierspielzeug möglich, nicht mal einen Paragraph von Wikipedia kann er so leicht kopieren und in ein anderes Textdokument einfügen (für die Schule etwa).
 
Zuletzt bearbeitet:
Naja die wenigsten haben Software, die mehr als Dual Cores "braucht", das ist eigentlich das Problem beim Fortschritt. Wir haben im Vergleich zu Profi-Software ziemlich "rückständige" Consumer-Software.
 
Ich fands toll, dass so gut wie alle zuhause so ein Ding - einen PC - hatten, das könnte man ja fast "creatives Zeitalter" nennen - wo jeder ein Buch schreibe konnte, oder Bilder mit Photoshop gestalten. Das wird aber alles weggehen, denn der PC wird durch Tablets ersetzt

bezweifle ich. jeder anspruchsvolle mensch wird einen pc bevorzugen.
 
Ich personlich kenne jetzt kein der kein pc hat, ob wohl viele ein smartpfohn und tablet haben.

Die schnelsten pc sind es nicht was die haben aber für email und schreibkram brauchen die auch kein i5.
Der eine hat noch ein amd xp2400 mit win xp. Der pc reicht für all seine sachen aus.

Aber jeder hat noch ein pc den ich kenne den er auch regelmäßig nutzt.

Gesendet von meinem GT-I9505 mit der Hardwareluxx App
 
Tablets sind eine Randerscheinung und werden mMn eher zu einer "Fernbedienung" für die echten Rechner dienen in Zukunft und natürlich um online Baumarktprospekte anzuschauen beispielsweise, eben als erweiterte Zeitung gewissermaßen. Der Durchschnittsnutzer nutzt so ein Tablet genauso wenig aus wie einen PC. Das Tablet wirkt rein ergänzend und ersetzt gar nichts.

Ich sehe das auch so, dass die größte Bremse im PC-Bereich die Software ist, denn echtes Multithreading ist sehr teuer und wird nicht grade durch Windows gefördert. Es ist aber notwendig und derzeitige CPUs überhaupt auszureizen.
 
da ein blockbuster nächstes jahr auf AMD Mantle setzen wird, (Star Citizens) dürfen wir gespannt sein wie viele andere blockbuster das noch übernehmen werden. wenn es sich durchsetzt, wird es in die richtige richtung gehen was das ausnutzen der hardware angeht.
 
da ein blockbuster nächstes jahr auf AMD Mantle setzen wird, (Star Citizens) dürfen wir gespannt sein wie viele andere blockbuster das noch übernehmen werden. wenn es sich durchsetzt, wird es in die richtige richtung gehen was das ausnutzen der hardware angeht.

Sehe ich genau so. Wenn Microsoft auf der Bremse steht, muss man sich halt andere Lösungen einfallen lassen. Bleibt nur zu hoffen, dass das Ganze nicht zu einseitig wird. In Zukunft müsste auch Intel und NV in das Projekt mit einbezogen werden, um die Branche da als Ganzes weiterzubringen. Schaun mer mal.
Die Blockbuster-Liste ist aber schon beeindruckend. Da die ganzen EA-Studios sicher die neueste Frostbyte-Variante nutzen werden (kostet ja EA-Intern keine Gebühren) kann man denke ich davon ausgehen, dass alle neuen Frostbyte-Titel Mantle automatisch mitbringen werden.
- Star Citizen (CE)
- Mass Effect 4 (FB3)
- Neue NFS-Teile (FB3)
- Dragon Age Inquisition (FB3)
- BattleField 4 und 5 (FB3)
- Thief (EidosMontreal)
- DeusEx 4 (EidosMontreal)
- Tomb Raider "2" (EidosMontreal)

Wenn jetzt noch alle neuen auf CE basierenden Titel hinzukommen wird die Liste lang... Der Witz ist ja, dass jeder Pubisher sich jetzt einen Enginespezialisten hält und deshalb die gleiche Technik immer weiter verbreitet wird. Man kann also davon ausgehen, dass noch viel mehr Square-Enix-Titel Eidos-Montreal-Technik nutzen werden. Interessant bleibt ob Ubi noch auf den Mantle-Zug aufspringt oder nicht. Auch die bekommen ihre Technik AFAIK auf Montreal... ich würd sagen ist nur ne Frage der Zeit ;). Dann bliebe nur noch Zenimax (Bethesda) übrig, die werden das aber denke ich nicht tun, genausowenig wie Blizzard.
 
Zuletzt bearbeitet:
hier noch ein grund warum ich der meinung bin der fortschritt ist langsamer.
geforce 1 220nm 2000
geforce 2 180nm 2001
Geforce 4 150nm 2002
geforce 5 130nm 2003
geforce 6 110nm 2004
geforce 7 90nm 2006
geforce 8 65nm 2007
HD4000 Serie 40nm
HD5000 Serie 40nm
HD6000 Serie 40nm
R200 Serie 28nm
Am I missing something? 220/65=3,38 und 65/20=3,25, zwischen 220nm und 65nm waren nach der liste 7 jahre also wäre es im rahmen wenn es 2014 20nm gibt und ich dachte es gäbe Ankündigungen für 20nm in 2014? (Bin nicht wirklich auf dem Laufenden zur Zeit.)
 
Am I missing something? 220/65=3,38 und 65/20=3,25, zwischen 220nm und 65nm waren nach der liste 7 jahre also wäre es im rahmen wenn es 2014 20nm gibt und ich dachte es gäbe Ankündigungen für 20nm in 2014? (Bin nicht wirklich auf dem Laufenden zur Zeit.)

Willkommen im Forum. :)

Nighteye arbeitet mit nackten Zahlen, nicht mit sowas wie Faktoren oder Prozentzahlen. ;) Da sind die 155nm von 2000 nach 2007 halt viel mehr als die 45nm von 2007 nach 2014. :d Und ja 2014 sollte 20nm kommen bei den GPUs.
 
Also Stillstand im Fortschritt bin ich auch der Meinung haben wir keinen. Es geht ja weiter, sprich die IPC Leistung erhöht sich, die Fertigungstechnologien verbessern sich und die Herstellungsverfahren schrumpfen. Ebenso kann man recht einfach in die Breite gehen wenn man es braucht. Früher zu Single Core Zeiten war es im Desktop Sektor gerade mal möglich auf 2 (Single Core) CPUs mit mehr Budget zu gehen. 4 und mehr CPUs waren dann schon nur noch in Server Systemen zu finden die preislich schon ziemlich abgehoben waren und auch kaum in einem Desktop System zu realisieren waren (schon alleine wegen der Grösse der Mainboards, benötigter Versorgung durch Netzteile etc.)
Heute kann man von einer Generation von Prozessoren diese von Single Core (z.B. Celeron G440) über Dual, Quad und Six Core bis hin zu Acht und mittlerweile Zwölf Core CPUs greifen und diese in Desktops verbauen und auch nutzen. Klar sind letztere schon recht teuer im Verhältnis denn wenn man zwölf mal den Preis eines Single Cores oder sechs mal den eines Dual Cores rechnet ist man noch weiiiiiiit entfernt von den Kosten eines 12 Kerners. Aber es ist mit etwas mehr Budget machbar und selbst hier kann man noch immer relativ günstig zwei 12 Core CPUs verbauen und eben auch als Desktop nutzen da diese trotzdem nicht ein riesen Servercase, spezielle Netzteile oder sonst was benötigen.

Und ja DDR4 wird anfangs bestimmt einiges kosten und nur wenig Vorteile haben. Leistungstechnisch vielleicht ein paar %, dafür werden die aber wieder weniger Verbrauch haben. Spätestens wenn die jedoch Einzug in die Mainstream Systeme haben (Sockel 1151) und in Massen produziert werden sind die wieder so günstig wie DDR3 (noch vor ein paar Monaten?), hoffe ich zumindest. Auch mit der Geschwindigkeit wird man wohl schnell nach oben gehen bei DDR4. Ob das viel bringt ist eher Zweifelhaft (wie man jetzt bereits bei DDR3 sieht), jedoch werden wohl iGPUs und APUs davon profitieren.

@Nighteye
Die Entwicklung der Fertigungsgrösse hat wohl wirklich nur bedingt etwas mit der Leistung zu tun. Denn wie man schon oft gesehen hat kann es selbst in der selben Fertigung grosse Unterschiede geben. Bei den CPUs jedoch wohl mehr als bei den GPUs. Allerdings glaube ich auch daß es immer schwerer wird die Fertigung zu verkleinern als wenn man einfach in die Breite geht oder neue Technologien oder Architekturen zu entwickeln.

Und ja - bestimmt kann man nicht jede Software gleich gut parallelisieren bzw. dies vielleicht nur zu einem Gewissen Grad. Programmiertechnisch ist es wohl wesentlich schwerer auf SMT/SMP zu coden als wenn es nur ein Prozess/Ablauf ist. Aber so wie es derzeit aussieht dürfte das wohl der einzige Weg sein, sonst hätten wir bereits Single Core CPUs mit 10GHz.

Es ist immer ein Zusammenspiel von Hard- und Software. Es hilft wohl nichts eine x-Kern CPU zu haben wenn kaum Software dafür vorhanden ist um diese zu nutzen, ebenso rentiert es sich wohl für einen Softwareentwickler nicht die Software auf viele Kerne zu optimieren wenn jedoch die meisten Leute noch Single oder Dual Cores haben (was aktuell wohl der Fall ist).
Aktuell werden wohl am meisten (im Desktop/Consumer Sektor) Dual Cores verkauft, dicht gefolgt von Quad Cores. Six oder mehr Cores kaufen wohl verschwindend wenige (vergesst mal daß Ihr hier bei HWLuxx seid). Somit ist es wohl logisch daß die meiste Software für diesen Bereich auch für Dual Cores optimiert werden. Quad ist nice 2 have und wird oft auch genutzt, Hauptaugenmerk ist wohl jedoch Dual.

Auch Spieleentwickler legen meist wert darauf daß Ihr Spiel auf so viel Systemen wie möglich "läuft". Mit einem schwachen Sys muss man sich halt auch mit wenigen Details / niedriger Auflösung und eventuell noch Ruckerln zu frieden geben.
Spiele waren (bzw. sind) für viele bestimmt ein Anreiz upzugraden. Aktuell kenne ich genug Leute die zu mir kommen weil Ihre Kisten BF4 nicht packen. Nicht packen ist hart ausgedrückt, klar läuft es, aber nicht besonders aufregend.

Kann mich an viel früher auch noch gut erinnern, da waren u.A. Origin (nicht die Software von BF, sondern das Entwicklerstudio von damals) Entwickler die Hardwarefresser rausgebracht hatten. Wing Commander, Strike Commander etc. Strike Commander wurde als es das erste Mal angekündigt (1991-1992) wurde mit "benötigt schon einen flotten 386DX mit mind. 33MHz" beschrieben. Als es dann gute 2 Jahre später raus kam lief es nicht mal auf meinem 486DX2-50MHz gut. Und bedenkt daß man damals kaum etwas an den Details und schon gar nicht an der Auflösung ändern konnte. 320x200 mit 256 Farben (VGA/MCGA, Bitch!)

Ach und das Thema Tablet, Smartphones etc. sehe ich jetzt nicht so kritisch. Den klassischen PC werden die wohl nicht verdrängen, wenn dann sind eher Laptops die die klassische (Desktop) PCs etwas zurückdrängen, doch diese Laptops sind ja in dem Sinn auch normale PCs.
Und wenn man sich die Entwicklung bei den Smartphone und Tablets so ansieht geht es ja auch rasant dahin ... Quad Cores, Eight Cores, schnelle GPUs, hohe Auflösungen etc. Klar ist das meist ab von x86 aber hier schreitet die Technik auch noch flott voran.
 
Am I missing something? 220/65=3,38 und 65/20=3,25, zwischen 220nm und 65nm waren nach der liste 7 jahre also wäre es im rahmen wenn es 2014 20nm gibt und ich dachte es gäbe Ankündigungen für 20nm in 2014? (Bin nicht wirklich auf dem Laufenden zur Zeit.)

man erkennt ja das es bis 2004 gut vorwärts ging.
es gab bis 2004 jedes jahr eine struktur verkleinerung. das ist seit jahren schon nicht mehr so. daher gab es damals auch viel mehr leistungssteigerungen jedes jahr. und ich rede nicht von der künstlich erkauften leistungssteigerung durch mehr strom wie es heutzutage im gpu sektor gut der fall ist.

@ Bucho. deine nachrichten sind immer so gemütlich zu lesen, das man am ende meist nur einen Smiley drunter setzen möchte :)
 
Wenn wir 2000-2004 als maßstab nehmen dann ist es *0.5 alle 4 Jahre. Also 2008 55 (erfüllt von hd4000), 2012 27,5 (28 nm war erst 13 glaube ich) und 2014 19,4. Angenommen 2014 kommt in der Tat 20nm dann wäre der Wachstum in diesem Bereich nicht signifikant langsamer, nur nicht mehr so gleichmässig/in so vielen kleineren Schritten. Die Leistungssteigerung mag gesunken sein aber die nm GPU Zahl sinken oder sanken bis jetzt noch relativ gut.
 
Zuletzt bearbeitet:
...
@ Bucho. deine nachrichten sind immer so gemütlich zu lesen, das man am ende meist nur einen Smiley drunter setzen möchte :)

Danke, und ja ich weiß daß ich oft viel zu viel schreibe und gerne abschweife :rolleyes:
Aber ich denke mir halt ich schreib' lieber etwas mehr und ausfürlicher bevor Mißverständnisse auftreten oder man sich nicht auskennt was ich damit meine.

...
daher gab es damals auch viel mehr leistungssteigerungen jedes jahr. und ich rede nicht von der künstlich erkauften leistungssteigerung durch mehr strom wie es heutzutage im gpu sektor gut der fall ist.

Echt? Findest Du daß bei den GPUs die Leistungssteigerung ebenfalls abgeflacht ist?
Also ich habe den Eindruck daß es bei den GPUs ähnlich wie früher steigt. Klar gab' es die ein oder andere grössere oder auch kleinere Leistungssteigerung, aber das ist ja normal (siehe bei den CPUs, da gab' es auch grössere [Netburst -> Core2] und kleinere [Sandy Bridge -> Haswell oder Anfangs Pentium II -> III bzw. III -> 4] Leistungssteigerungen.)

Im Schnitt kann man sagen daß das Top Modell (bzw. nahezu Top Modell) zum nächsten etwa 30-40% langsamer ist. Ist vielleicht etwas schwer zu vergleichen weil sich die Anforderungen und Technologien weiterentwickelt haben, somit kann man jetzt z.B. nicht GeForce 256 (1) bis GTX 780 durch einen Benchmark laufen lassen und schön vergleichen.

Hab' hier mal von nVidia einen Vergleich bei Gamezone.de erstellt (die haben einige Karten in Ihrer Datenbank und man kann die vergleichen ... ist wohl nicht sehr genau aber besser als nichts)
Vergesst die % Werte, man kann da immer nur 5 Karten auf einmal ansehen, seht euch die Werte Balken von Karte zur nächsten an. Dann erkennt man daß hier meist so 30-40% Steigerung sind. Ab und zu auch 50 oder sogar eine Spur mehr, ab und zu aber auch nur weniger als 20%. Dies vor allem wo sich die GPUs kaum geändert haben (GF 8800GTX -> 9800GTX oder auch GTX 480->580)
 
Bei AMD-GPUs sieht das ungefähr so aus (bei NV ähnlich):


2005-2007 80/90nm

2007-2009 55/65nm

2009-2011 40nm

2011-2014 28nm

2014-2017 20nm (planar und FinFET = TSMC 16nm/GloFo 14XM)

2017-2020? 14nm FinFET (+fdSOI?)

Bei CPUs:

2007-2008 65nm SOI

2008-2011 45nm SOI

2011-2013 32nm SOI

2013-2015 28(22)nm SOI

2015-2017 20nm (FinFET TSMC 16nm/GloFo 14XM)

2017-2020? 14nm FinFET (+fdSOI?)

AMD hat also hinterher genau wie Intel nur noch einen Prozess für alles (bei beiden Foundries natürlich).

Zum Vergleich dazu Intel:

2006-2008 65nm

2008-2010 45nm

2010-2012 32nm

2012-2014 22nm FinFET

2014-2017 14nm FinFET

2017-2020? 10nm FinFET
 
Zuletzt bearbeitet:
also ich verfolge das hardware leben erst seit der geforce 5800 ultra richtig aktiv mit.

ich weiß nur das es von der geforce 5 auf 6 100% leistungssteigerung gab. und von 6 auf 7 auch. und von 7 auf 8 auch. und danach halt abbauend (dual lösungen ausgeschlossen).
 
Und das willst du mit Shrinks belegen, was null Komma gar nichts funktioniert, weil sie einander nicht bedingen.
 
also ich verfolge das hardware leben erst seit der geforce 5800 ultra richtig aktiv mit.

ich weiß nur das es von der geforce 5 auf 6 100% leistungssteigerung gab. und von 6 auf 7 auch. und von 7 auf 8 auch. und danach halt abbauend (dual lösungen ausgeschlossen).
Von 5 (130nm) auf 6 (130nm IBM) stieg die Verlustleistung auch von 50 auf 100W, bei 6 (130nm IBM) bis 7 (90nm low-K) stagnierte es und bei 7 (90nm low-K) auf 8 (90nm low-K) waren es dann 175W. Heute sind wir bei 250W (28nm low-K + HKMG). Da das Maximum für PCIe + 6Pin + 8Pin Stecker ist, wirds dabei auch erst mal bleiben. Die kommenden Grafikchips sind 20nm planar, der eigentlichen Leistungssprung wird aber erst mit FinFETs möglich sein. Bei 14XM käme dann auch noch Ultra-low-K-Material hinzu, vielleicht wechselt AMD ja dann zu GloFo. Bei der Geforce 6800 gilt auch noch die Besonderheit, dass diese als einziger Nvidia-Chip der neueren Zeit nicht bei TSMC sondern bei IBM gefertigt wurde. Zu nicht-Geforce-Zeiten kamen NV-Chips auch von IBM und STM.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh