Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
hier noch ein grund warum ich der meinung bin der fortschritt ist langsamer.
geforce 1 220nm 2000
geforce 2 180nm 2001
Geforce 4 150nm 2002
geforce 5 130nm 2003
geforce 6 110nm 2004
geforce 7 90nm 2006
geforce 8 65nm 2007
HD4000 Serie 40nm
HD5000 Serie 40nm
HD6000 Serie 40nm
R200 Serie 28nm
Geheult und gekauft. Crysis war ein großer Hit, genau wie andere Hardwarefresser in der Vergangenheit. Star Citizen wurde als Hardwaremordend angekündigt und schon vorher als Backer gekauft wie bescheuert. Hardwarehunger war in Wirklichkeit, sowohl heute als auch gestern, noch nie ein Grund ein Spiel nicht zu kaufen. Ab jetzt, wo die 64Bit Grenze endlich fällt und auch die Konsolen mit akzeptablen RAM-Größen ausgeliefert werden, gibts auch für den PC eine gosige Zukunft mit fordernden Games, vor allem 64Bit war das Haupthindernis für mehr Qualität (und damit mehr Hardwarehunger).
Ich weiß noch wie ich versucht hatte Crysis auf nem A64 3500+ und ner X800Pro zu zocken
Das waren noch geile Zeiten^^
Das Problem bei Intel ist, dass es im Mainstream, fast die ganze "gewonnene" Fläche an iGPU abgegeben wird.
ja das sehe ich auch so Shadow.
wer weiß was für tolle cpu,s intel bauen könnte ohne diesen kram.
Stimmt und Moores Law wurde durch einen enorm erhöhten Stromverbrauch erkauft.
Ich fands toll, dass so gut wie alle zuhause so ein Ding - einen PC - hatten, das könnte man ja fast "creatives Zeitalter" nennen - wo jeder ein Buch schreibe konnte, oder Bilder mit Photoshop gestalten. Das wird aber alles weggehen, denn der PC wird durch Tablets ersetzt
da ein blockbuster nächstes jahr auf AMD Mantle setzen wird, (Star Citizens) dürfen wir gespannt sein wie viele andere blockbuster das noch übernehmen werden. wenn es sich durchsetzt, wird es in die richtige richtung gehen was das ausnutzen der hardware angeht.
Am I missing something? 220/65=3,38 und 65/20=3,25, zwischen 220nm und 65nm waren nach der liste 7 jahre also wäre es im rahmen wenn es 2014 20nm gibt und ich dachte es gäbe Ankündigungen für 20nm in 2014? (Bin nicht wirklich auf dem Laufenden zur Zeit.)hier noch ein grund warum ich der meinung bin der fortschritt ist langsamer.
geforce 1 220nm 2000
geforce 2 180nm 2001
Geforce 4 150nm 2002
geforce 5 130nm 2003
geforce 6 110nm 2004
geforce 7 90nm 2006
geforce 8 65nm 2007
HD4000 Serie 40nm
HD5000 Serie 40nm
HD6000 Serie 40nm
R200 Serie 28nm
Am I missing something? 220/65=3,38 und 65/20=3,25, zwischen 220nm und 65nm waren nach der liste 7 jahre also wäre es im rahmen wenn es 2014 20nm gibt und ich dachte es gäbe Ankündigungen für 20nm in 2014? (Bin nicht wirklich auf dem Laufenden zur Zeit.)
Am I missing something? 220/65=3,38 und 65/20=3,25, zwischen 220nm und 65nm waren nach der liste 7 jahre also wäre es im rahmen wenn es 2014 20nm gibt und ich dachte es gäbe Ankündigungen für 20nm in 2014? (Bin nicht wirklich auf dem Laufenden zur Zeit.)
...
@ Bucho. deine nachrichten sind immer so gemütlich zu lesen, das man am ende meist nur einen Smiley drunter setzen möchte
...
daher gab es damals auch viel mehr leistungssteigerungen jedes jahr. und ich rede nicht von der künstlich erkauften leistungssteigerung durch mehr strom wie es heutzutage im gpu sektor gut der fall ist.
Von 5 (130nm) auf 6 (130nm IBM) stieg die Verlustleistung auch von 50 auf 100W, bei 6 (130nm IBM) bis 7 (90nm low-K) stagnierte es und bei 7 (90nm low-K) auf 8 (90nm low-K) waren es dann 175W. Heute sind wir bei 250W (28nm low-K + HKMG). Da das Maximum für PCIe + 6Pin + 8Pin Stecker ist, wirds dabei auch erst mal bleiben. Die kommenden Grafikchips sind 20nm planar, der eigentlichen Leistungssprung wird aber erst mit FinFETs möglich sein. Bei 14XM käme dann auch noch Ultra-low-K-Material hinzu, vielleicht wechselt AMD ja dann zu GloFo. Bei der Geforce 6800 gilt auch noch die Besonderheit, dass diese als einziger Nvidia-Chip der neueren Zeit nicht bei TSMC sondern bei IBM gefertigt wurde. Zu nicht-Geforce-Zeiten kamen NV-Chips auch von IBM und STM.also ich verfolge das hardware leben erst seit der geforce 5800 ultra richtig aktiv mit.
ich weiß nur das es von der geforce 5 auf 6 100% leistungssteigerung gab. und von 6 auf 7 auch. und von 7 auf 8 auch. und danach halt abbauend (dual lösungen ausgeschlossen).