Graka Zukunftsvisionen - Wie weit wird man gehen?

Hardwareking

Banned
Thread Starter
Mitglied seit
08.10.2007
Beiträge
650
Ort
auf dem Hardwarethron
Hi,
da der Fertigungsprozess der Prozessoren und Grakas immer kleiner wird, stelle ich mir die Frage, wie weit man den Chip teilen kann. Angeblich ist dies nur bis 32nm möglich, zumindest bei den prozessoren... Wie ist das bei Grakas? Gibt es eventuell in 4Jahren eine 6800XTX mit 1nm Fertigungsprozess? Oder ist das unmöglich?

Würde gerne eure Meinung darüber wissen :)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Interessante Frage Hardwareking. Falls 32nm bei Prozessoren wirklich ein Limit sein sollte, wird Intel ja bald an diesem Limit sein. Schließlich gibts ja schon den neuen "Penryn" QX9650 (oder wie der heißt) der mit 45nm produziert wird.

Eines was mit unserem HardwareLuxx Wissen möglich wäre, sind halt mehrere GPUs auf einem PCB. Ansonsten kanns natürlich sein das Nvidia/ATI eine andere Möglichkeit findet um nach 32nm oder 1nm (wie auch immer) leitungsfähigere Chips zu entwickeln.

Ich frage mich nur was passieren wird wenn Grafikkarten es schaffen absolut fotorealistische Grafik in Echtzeit zu rendern, bzw. wann das denn so ca sein wird ? 2009, 2010, 2011, 2012 oder erst später ?
 
Zuletzt bearbeitet:
Grösser ging das nicht, oder??

Aber ich glaube mit dem derzeitigen Fertigungsprozess ist die Fahnenstange mit 32nm erreicht, durch andere Materialien denke ich aber schon, wird irgendwann mehr erreicht werden.
 
Abgesehen davon, das es noch andere Möglichkeiten gibt Prozessoren herzustellen, werden auch einfach effizientere Strukturen gesucht, wie z.b. mehrere Kerne übereinander anstatt nebeneinander.Das würde z.B. die Länge der Leitungen zwischen den Kernen drastisch verkürzen.
 
Abgesehen davon, das es noch andere Möglichkeiten gibt Prozessoren herzustellen, werden auch einfach effizientere Strukturen gesucht, wie z.b. mehrere Kerne übereinander anstatt nebeneinander.Das würde z.B. die Länge der Leitungen zwischen den Kernen drastisch verkürzen.

gestapelte kerne ...
wohin mit der verlustleistung?
 
Die zukunft liegt in der Lichtleiter Technik , Intel ahtte vor 1nem jahr schon ne ´´PROTOTYP´´ CPU welche fast 100GHZ hatte durch Lichtleiter....



Eagleone19
 
PROTOTYP. Sagt ja alles, oder? Ausserdem gibt es keinen sockel der das unterstützen würde. Es wäre auch noch nicht richtig getestet worden.
 
PROTOTYP. Sagt ja alles, oder? Ausserdem gibt es keinen sockel der das unterstützen würde. Es wäre auch noch nicht richtig getestet worden.

Selbst wenn das kein prototyp wäre, würde Intel bestimmt nicht so ein Monster für den endverbraucher auf den Markt bringen. Vielleicht nach 50 Jahren wer weiß ;)

Wir sind gerade mal im durchnitt bei 3 GHZ :)
 
und wieso ist der nicht auf den markt gekommen?
Weils keiner Braucht und weis in der TESTS Phase ist.....

PROTOTYP. Sagt ja alles, oder? Ausserdem gibt es keinen sockel der das unterstützen würde. Es wäre auch noch nicht richtig getestet worden.

So sieht es aus.

Warum sollte er jetzt schon auf den markt kommen?

Und überhaupt, womit willst du den kühlen :fresse:

Lichtleiter ist wesentlich Kühler als elektroleiter.

weil man mit den anderen produkten die man in der schublade hat erst noch geld machen will

ist doch wirtschaftlich logisch


Eben , warumw erden immer noch Ottomotoren in Automobilen gebaut? Wasserstoff ist ausgereift und läuft .... Trotzdem verbaut die Industrie weiterhin Benzin und diesel modelle , das liegt darin , dass wenn alle aufeinmal ein Wasserstoff auto hätten , der weltmarkt EINBRECHEN würde , alle firmen , die nur ein Furz am Öl beteiligt sind wären binnen wochen PLEITE und das will keiner...

Eagleone19
 
ich denke mal das der nächste schritt der selbe wie bei den CPUs sein wird, Dual Core mit GPUs.

es wird mit sicherheit auch bald cache in der GPU geben, die dann nochmal ein Leistungspluss bringen wird, da ja schon die G80 GPUs von der Architektur in Richtung CPU gegangen sind.

also 2x GPU Cor, die sich einen Cache Bereich Teilen ( z.B. 512kb ) und dann zum Grakaram greifen ( 1024 - 2048 ) .
 
ich hab da ma ne frage wieso machen die den cache einfach nicht größer anstat auf ram zu setzen?
klar wird dass auch platz kosten aber meiner meinung nach wäre es wärt oder ist cache im vergleidch viel zu teuer?
 
Bei 32nm ist mit Sicherheit noch nicht schluss...

Intel baut doch schon erste Prototypen, bzw. Testwafer von 300mm Wafern mit 32nm Fertigung. ;)

AMD und Qimonda forschen in Dresden derzeit auch gemeinsam an der 32nm Technik, Qimonda sogar an noch kleineren Strukturen...

@eagleone
Warum man keine Wasserstoff Wagen baut?
Ganz einfach, weil der Sound nie und nimmer so rüber kommen wird, wie bei nem dicken V8 Benziner oder sowas!? ;)
 
ich hab da ma ne frage wieso machen die den cache einfach nicht größer anstat auf ram zu setzen?
klar wird dass auch platz kosten aber meiner meinung nach wäre es wärt oder ist cache im vergleidch viel zu teuer?

das mit dem cache ist immer so ein problem, der ist sehr aufwändig in der DIE Integriert, und wenn da nur ein Adressbereich Defekt ist, hast du nen Celeron!

also ist er sehr Teuer, deshalb auch Heute noch immer klein bei CPUs, es wird noch etwas dauern bis es 1GB auf der DIE gibt.
 
ich hab da ma ne frage wieso machen die den cache einfach nicht größer anstat auf ram zu setzen?
klar wird dass auch platz kosten aber meiner meinung nach wäre es wärt oder ist cache im vergleidch viel zu teuer?


So isses. Der Cache ist ja genauso gefertigt, wie die restliche CPU, also ziemlich teuer aus dem Wafer. Er muss ja auch mit voller Core-speed laufen.
Der Ram hingegen ist ja echt spottbillig. Wenns nur 60 euro kosten würde ner CPU 2 GB Cache zu spendieren, gäbs das schon längst.
 
ich denke mal das der nächste schritt der selbe wie bei den CPUs sein wird, Dual Core mit GPUs.

Dieser Schritt würde so irgendwie keinen Sinn machen...

Man braucht die komplette GPU nicht doppeln, das wäre Schwachsinn und verschwendung im Sinne von mehr Verlustleistung usw.

Die G80 GPUs machen es derzeit vor, wie man es machen kann.
Sprich einzellne Teile, in der GPU wo nach belieben die Anzahl gesteigert werden könnte. Was dann direkt auf die Performance übergeht, und auch die Speicherbandbreite erhöht.

Des weiteren kommt hinzu, das man beim sturen Doppeln der GPUs eine Softwarebasierte Lösung brauch, um die beiden GPUs miteinander arbeiten zu lassen, dies geschieht in Form von CF/SLI, was aber recht ineffizient ist und auch idR erst mit neuen Treibern oder Anpassung der Profile halbwegs gut funktioniert.
 
Warum wird 2D nicht komplett auf dem Mainboard verbaut und wer will kauft sich für 3D ne extra 3D Grafikkarte mit extra Physikchip usw? :hmm:

Somit würde die "3D Karte" praktisch nur aktiviert wenn diese den auch wirklich benötigt wird. :)

Mir geht es um mehr effizienz was den Stromverbrauch angeht! :hmm:
 
ich frage mich gerade was für eine cpu und graka world disney verwendet... :bigok: also für filme usw... und was für eine cpu oder cpus wohl die nasa hat... :bigok:
 
Warum wird 2D nicht komplett auf dem Mainboard verbaut und wer will kauft sich für 3D ne extra 3D Grafikkarte mit extra Physikchip usw? :hmm:

Somit würde die "3D Karte" praktisch nur aktiviert wenn diese den auch wirklich benötigt wird. :)

Mir geht es um mehr effizienz was den Stromverbrauch angeht! :hmm:


gabs schonmal, 2D Karte ( z.B. S3 Trio ) und 3D Add On Karte ( Voodoo ).
 
Warum wird 2D nicht komplett auf dem Mainboard verbaut und wer will kauft sich für 3D ne extra 3D Grafikkarte mit extra Physikchip usw? :hmm:

Somit würde die "3D Karte" praktisch nur aktiviert wenn diese den auch wirklich benötigt wird. :)

Mir geht es um mehr effizienz was den Stromverbrauch angeht! :hmm:

Das wird ja mit den neuen Internen lösungen von AMD/ATI und Nvidia möglich sein. Wenn man wenig grafikleistung braucht kann man die diskrete Graka abschalten.

Hier mal nen Link
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh