Graka Zukunftsvisionen - Wie weit wird man gehen?

Einige Notebook Mainboards unterstützen diese Funktion, d.h. auf die 3D Karte wird per Schalter oder auch automatische Erkennung der Anforderungen an den Grafikchip umgeswitcht. Sollte es wirklich mal für den Desktopbereich geben. Wobei eigentlich auch die modernen Karten sich herunterregeln.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ja das wäre echt gut dann würde z.b. ne 8800gtx nicht im office betrieb soo vile strom verheizen
 
Wobei eigentlich auch die modernen Karten sich herunterregeln.

Klar, nur diese Methode verheizt trotzdem mehr Strom wie eine separate 2D Lösung.
Es kann ja nichts sein dass eine passive Nvidia 7100GS übergangskarte, unter XP erheblich weniger Strom zieht als eine X1950XTX, obwohl beide dass gleiche darstellen. :hmm:
Hinzugefügter Post:
Das wird ja mit den neuen Internen lösungen von AMD/ATI und Nvidia möglich sein. Wenn man wenig grafikleistung braucht kann man die diskrete Graka abschalten.

Hier mal nen Link

Aber wohl nur für AMD CPUs, oder? :hmm:
 
Zuletzt bearbeitet:
Logisch brauch man mit ner HighEnd Karte mehr Strom als mit ner kleine Office Karte...
Solange nicht irgendwie ne Möglichkeit geschaffen wird, um ungenutzte Teile der GPU fast vollständig abzuschalten, wird es immer so bleiben...

Klar stellt die Karte am Ende das gleiche Bild da, aber irgendwie müssen ja die Transistoren mit Strom versorgt werden, auch wenn se nicht wirklich beansprucht werden ;)
Hinzugefügter Post:
ich frage mich gerade was für eine cpu und graka world disney verwendet... :bigok: also für filme usw... und was für eine cpu oder cpus wohl die nasa hat... :bigok:

Die haben idR gar keine Grakas, zumindest nicht solche wie wir hier verwenden...
Dort wird meist die Rechenarbeit von HPC Clustern bewältigt, Stichwort Echtzeit-Raytracing und solche Dinge...

Gleiches gilt für die Nase und andere Rechenzentren. Grakaleistung steht dort eher im Hintergrund.
 
Zuletzt bearbeitet:
Klar, nur diese Methode verheizt trotzdem mehr Strom wie eine separate 2D Lösung.
Es kann ja nichts sein dass eine passive Nvidia 7100GS übergangskarte, unter XP erheblich weniger Strom zieht als eine X1950XTX, obwohl beide dass gleiche darstellen. :hmm:
Hinzugefügter Post:


Aber wohl nur für AMD CPUs, oder? :hmm:

Wie nur für AMD CPUs? Das sind einfach neue schipsätze die das können, die können sowohl auf AMD als auch auf Intel Mainboards eingesetzt werden.
 
Müsste doch auch daheim bald mal möglich sein bei zunehmender Rechenleistung, da gabs doch mal was in der richtung... :hmm:

Neja mit der richtigen Software kannst das heute schon machen...
Es bringt nur nicht so sehr viel, da die Graka einfach schneller ist.

Macht imho derzeit nur Sinn, wenn man nen dicken Cluster hat, welche die Arbeit übernimmt.

Wie nur für AMD CPUs? Das sind einfach neue schipsätze die das können, die können sowohl auf AMD als auch auf Intel Mainboards eingesetzt werden.

Ich glaub er meint die Fusion Technik da von AMD...
Sprich wo kommende CPUs (wohl vorerst nur in Notebooksegment) ne Grafiklösung im Bauch haben und somit auf ne Graka verzichtet werden kann...
Ob Intel auch so was macht, weis ich gleich mal gar net, aber irgendwie liegt mir da was im Hinterkopf, das Intel dort mit NV irgendwie was am tüfteln ist ;)
 
und außerdem ist es einer der wenigen Sinnvollen Threads von ihm, wo es nicht darum geht einen der beiden Hersteller zu bashen :fresse:
aber nun :btt:
 
Zuletzt bearbeitet:
Ich frag mich jetzt wirklich wie alt Hardwareking ist?!?? Andauernd neue scheiss Threads, hast du reingarnix zu tun? Mittlerweile bist du schlimmer als HWK! *KOTZ*
ich wäre für nen close und delete.
keiner kann das wissen!

das sagst du doch nur weil er 2... 3 oder vielleicht auf 4 mal "scheisse gebaut" hat... meine fresse gib ihm eine chance... nein??? dann verdienst du auch keine 2. chance... :teufel:

hardwareking: ich finde es gut wie du dich entwickelst... und der thread ist auch ein wirklich sehr interessanter gedanke... ;) :bigok:
 
jaa, der king bessert sich^^

ich denk mal, dass mit den heutigen verfahren (sprich silizium) wirtschaftlich so ca. 16-8 nm möglich sind, ab dann sind die leiterbahnen so dünn, dass sie nicht mehr richtig den strom leiten bzw die transistoren so leaken dass die chips gar nicht erst funktionieren würden.
zwangsläufig wirds wohl auf quantenkomputer oder ähnliche extrem parallele systems hinauslaufen, würde auch dem raytracing zugutekommen.

gpus in dem sinne wie wir sie heute kennen wird es so nicht mehr geben, eher Raytrace Koprozessoren (ati bzw. nVidia wollen doch auch noch geld verdienen:bigok: )
natürlich sollte dann auch die threadzahl nach belieben verändert werden und teile des speicher und der spannungsversorgung (kann man ja schon heute bei gewissen Prozessor-plattforman) einfach abgeschaltet werden können, dass der stromverbrauch (beinahe) linear zur Leistung steigt und sinkt.

um eine gewissen stufe (sprich WIRKLICH reale grafik) zu verwirklichen, muss jedoch die Physik endlich mal nachkommen und die auflösung der monitore (wenn es solche dann noch gibt, bleiben fürs arbeiten aber wohl einer der besten lösungen) ins unermessliche gesteigert werden
(noch jenseits der 16*** x 8*** die vor kurzem die Japaner vorgestellt haben;XHD oder wie die das genannt haben..)

edit: ok habs gefunden, heisst uhdtv und hat auch leider nur die hälfte der von mir angegebenen auflösung :( , xhd ist ein nvidia "standard"
 
Zuletzt bearbeitet:
"However, CMOS technology will reach its ultimate limits in 10 to 15 years. As chip structures, which currently have dimensions of about 40 nm, continue to shrink below the 20 nm mark, ever more complex challenges arise and scaling appears not to be economically feasible any more. And below 10 nm, the fundamental physical limits of CMOS technology will be reached. Therefore, novel concepts are needed."

quelle: http://www-05.ibm.com/de/pressroom/presseinfos/2006/08/04_2.html


und zum thema sparsamer 2d modus:
hybrid-sli von nvidia steht ja vor der tür, wobei das auch ziemlich kompromissbehaftet ist.
 
Für alle die das mit dem Lichtleiter mal interessiert :

Lichtleiter/Halbleiter

Lichleiter bei Intel ereicht 40Gbit/s

Sehr interessant.

Hier ein bild vom PROTOTYP

36374laserchip1du2.jpg



Eagleone19
 
Zuletzt bearbeitet:
Mann mann mann, kann ich da nur sagen...
Lichtleiter in CPU oder GPU?!?
Schon mal überlegt wie ein Transistor aufgebaut ist? Was viele Transistoren ergeben...

Insgesammt ein interessanter und lustiger Thread. Keiner weiß bescheid, irgendwelche leute lesen was im Netz und stellen Theorien auf. Interessant ist auch dass neue Materialien kleinere Strukturbreiten mit sich bringen...

ich sag euch eins: bei 20nm ist Schicht im Schacht. Mit Elektronenstrahllitographie ist 10nm oder kleiner möglich, jedoch wirtschaftlich völlig unrentabel.
Das Problem liegt in der Herstellung, nicht im Material...
 
Mann mann mann, kann ich da nur sagen...
Lichtleiter in CPU oder GPU?!?
Schon mal überlegt wie ein Transistor aufgebaut ist? Was viele Transistoren ergeben...

Insgesammt ein interessanter und lustiger Thread. Keiner weiß bescheid, irgendwelche leute lesen was im Netz und stellen Theorien auf. Interessant ist auch dass neue Materialien kleinere Strukturbreiten mit sich bringen...

ich sag euch eins: bei 20nm ist Schicht im Schacht. Mit Elektronenstrahllitographie ist 10nm oder kleiner möglich, jedoch wirtschaftlich völlig unrentabel.
Das Problem liegt in der Herstellung, nicht im Material...

Du bist also der Insider ! Dann erzähl uns mal mehr, Trendsetter. :fresse:
 
Insider bin ich nicht, da ich nicht an CPUs forsche, sondern nur Dipl. Physiker bin, der momenten Promoviert.
Meine Diplomarbeit ging über ein neuartiges Material, GaMnAs, in dem sowohl die Ladung des Elektrons, als auch der Spin genutzt werden kann und somit in einem Schritt, mehr informationen übertragen und genutzt werden können.
Es sind programmierbare Prozessoren möglich, also eine Kombination aus Speicher und Logikelement also. Stichpunkt Datta-Transistor, bzw. Spintronik.
Marktreife jenseits 15 Jahre.

In den nächsten Jahren wird sich nicht mehr ändern, als kleinere Strukturen, besseres Energiemanagement und Mehrkernlösungen, auch bei der GPU.
Mehrkernlösungen sind meiner Meinung nach sowieso nur ein Notnagel um die Reduzierung der Strukturgrößen hinauszuzögern. Mehr nicht.

Optimierungspotential steckt vorallem noch in der Software und den Logikeinheiten.
Das Gesamtkonzept einer CPU bzw. GPU wird sich so schnell nicht ändern.
 
Insider bin ich nicht, da ich nicht an CPUs forsche, sondern nur Dipl. Physiker bin, der momenten Promoviert.
Meine Diplomarbeit ging über ein neuartiges Material, GaMnAs, in dem sowohl die Ladung des Elektrons, als auch der Spin genutzt werden kann und somit in einem Schritt, mehr informationen übertragen und genutzt werden können.
Es sind programmierbare Prozessoren möglich, also eine Kombination aus Speicher und Logikelement also. Stichpunkt Datta-Transistor, bzw. Spintronik.
Marktreife jenseits 15 Jahre.

In den nächsten Jahren wird sich nicht mehr ändern, als kleinere Strukturen, besseres Energiemanagement und Mehrkernlösungen, auch bei der GPU.
Mehrkernlösungen sind meiner Meinung nach sowieso nur ein Notnagel um die Reduzierung der Strukturgrößen hinauszuzögern. Mehr nicht.

Optimierungspotential steckt vorallem noch in der Software und den Logikeinheiten.
Das Gesamtkonzept einer CPU bzw. GPU wird sich so schnell nicht ändern.

Was genau ist mit promovieren genannt ? Das hat nämlich auch derschlambi getan. 6 Jahre studiert und danach 3 Jahre promoviert. Jetzt ist er Diplom Physiker. :)
 
was ist eigentlich so schwer daran chips zu teilen? Oder wird das aus marktwirtschaftichen gründen nicht gemacht?

Nach dem Anfangsposting hatte ich mir schon gedacht, dass du es nicht verstanden hast. Einfach Kartoffeln backen und brechen und schon hast gebrochene Chips...

Nein Scherz beiseite: Auf einem Wafer sind viele Chips, z.B CPUs. Das Brechen ist kein Problem, da die CPUs im Bereich 1cm*1cm groß sind. Auf den CPUs befinden sich viele kleine Transistoren. Die Strukturbreiten der Transistoren liegen momentan bei 65nm. Will man mehr Transistoren auf nem Chip bringen, so werden die Strukturbreiten verkleinert, also praktisch die Transistoren kleiner gemacht. Mehr Transistoren bedeutet in der Regel leistungsfähigere CPUs.

Promovieren heißt nen Dr. Titel zu bekommen. Bzw. bei Physik: Dr. rer. nat.
Also der Naturwissenschaften. Diplom Physiker war derschlampi schon vorher, aber mit 6 Jahren Studium war er entweder im Ausland oder hat sich Zeit gelassen?


@Hardwareking: Je länger ich deinen post les, desto mehr brech ich ab, sorry...
 
Zuletzt bearbeitet:
was ist eigentlich so schwer daran chips zu teilen? Oder wird das aus marktwirtschaftichen gründen nicht gemacht?

die geräte zum replizieren sind noch nicht ausgereift genug. wenn es aber erstmal so weit ist, hole ich mir selbst so eins - und zwar mit meinem geteilten geld (lohnt sich am meisten mit den großen scheinen! die muss man nicht so oft teilen bis man genug hat).
 
Zuletzt bearbeitet:
DAS problem dabei ist, die chips zu verbinden
und damit ist kein 0815-bus wie das fsb, ht oder sonstwas gemeint, sonden hier gehts um datenmengen jenseits der terabyte/s-marke (bzw. tebibyte oder wie heisst das jetzt:fresse: ) und extrem kurzen interconnect-latenzen, obwohl nur bruchteile von millimetern platz für datenleitungen zur verfügung steht.

konzept wurde ja schon von intel vorgestellt (ka. obs terascale oder der 80-core prozessor war;obs beides das gleiche ist, blick bei intel nicht mehr wirklich durch) nur das bei denen trotzdem alle cores auf einem die waren


was früher max 2-3 mm bzw. wenige dutzend nanometer entfernt war, muss dann über eine entfernung von unter umständen cm gleich flott kommunizieren(mann nehme ein 9-core gpu-package an)

hier könnten optische datenleiter eine lösung darstellen
 
Zuletzt bearbeitet:
Kann mir wer von euch sagen warum Wafer eigentlich rund und nicht quadratisch (sowie die Chips) sind ?
 
Ich denke mal das liegt am Herstellungsverfahren von Hochreinem Halbleitersilizium, dabei entsteht so eine art "Zapfen" und der ist halt kreisrund, der wird dann ich Scheiben geschnitten, und somit sind die Wafer rund. Und die dann quadratisch zu schneiden würde sicherlich zu viel ausschuss erzeugen, weil ja die randbereiche auch noch verwendet werden können.
 
zu raytracing, also es wird ja an prototypen extra für das raytracing entwickelt hier ein kleiner aus schnitt aus nem bericht von cb

"Raytracing hat das Potenzial, die weitläufig eingesetzte Rendering-Technologie auf Desktop-PCs zu werden. Die Anzahl der CPU-Kerne steigt und Prototypen einer Spezialhardware für Raytracing zeigen beeindruckende Ergebnisse bezüglich der Geschwindigkeit: Mit einem mit 90 MHz getakteten Prototypen konnte in etwa die Geschwindigkeit eines virtuellen Pentium 4 mit 10 GHz erreicht werden. Eine für den Massenmarkt angefertigte Karte könnte höher getaktet werden, mehrere Raytracing-Cores in einer GPU enthalten, mehrere GPUs auf einer Karte besitzen und man könnte mehrere dieser Karten in einen Rechner einbauen. Schon ist man sehr schnell bei flotten Frameraten in hohen Auflösungen."
 
hey yo ist das thema aus gelutscht oder was??? keiner neue ideen oder news zu kommenden technologien?
 
warum die wafer rund sind hab ich mich auch mal gefragt, und die lösung steht ja auch schon oben. nur habe ich mich gefragt wie son siliziumkörper aussieht bevor er geschnitten wird. wenns zylinderförmig wäre, dann wäre es doch sinnvoller längs zu schneiden um rechtecke zu bekommen... naja die werden schon wissen was die machen :)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh