[Sammelthread] Grafikkarten - Technikdiskussion

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Klar - das schon, nur hatte ich nicht mit dieser Größenordnung gerechnet...

doch das passt schon, und außerdem hat die hd5750 (hab die selbe) nen idle-verbrauch von unter 20W (genauen wert hab ich grad nicht i kopf) das sollte eigentlich noch weiter runter gehen!


btw ist ein krummer kühler kein problem solange diee karte läuft!


übrigends ist das hier nicht das richtige topic für die frage... hier gehts mehr um die funktionsweise von shadern oder die eigenheiten einer neuen gpu-architektur ;)
 
Zuletzt bearbeitet:
doch das passt schon, und außerdem hat die hd5750 (hab die selbe) nen idle-verbrauch von unter 20W (genauen wert hab ich grad nicht i kopf) das sollte eigentlich noch weiter runter gehen!
Nö, weniger wird's nicht; die 5450 hat wohl auch nur 9W Idle...

übrigends ist das hier nicht das richtige topic für die frage...

Das war jetzt mehr nur so'n allgemeiner Bericht... wo wäre das alles denn passend aufgehoben?
 
Hier gehts immernoch um die Technik allein, nicht um Kaufberatungen nicht um PhysX...
Für Kaufberatungen gibts das Zusammenstellungsforum, für PhysX gibts hier nen eigenen Thread.

übrigens, klippenkuckuck. BFBC2 unterstütz kein PhysX ;) Sondern nutzt Havok oder wie sich das schimpft. Und es wird immer von der CPU Berechnet, weswegen auch die Skallierung bei Multicore CPUs recht gut ist.
 
2004 130nm
2005 110nm
2006 90nm
2007 65nm
2008 55nm
2009 40nm
2010 -
2011 -

ich denke wir sind ganz schön im verzug :fresse:

finde es traurig dass wir 3 jahre still standen.
 
was heißt traurig?
Es gab genug Arbeit mit den Chips.
Hitzeentwicklung, Problembereinigung und dann Optimierungen. Ich denke nicht, dass das so schnell weiter gehen wird. Wo willst du denn hin? 5nm in 2013? Da wird man immernoch auf 28nm hocken.
Ich bin allerdings gespannt wie die das anstellen wollen mit der Chipgröße binnen einen Jahres die GFlops pro Watt von Kepler zu Maxwell mal eben zu verdreifachen wenn die jetzt schon nicht richtig aus den Füßen kommen. Dann kommt Maxwell auch deutlich später wie geplant.

Sehr interessant finde ich auch die Wahl des Speichers bei AMD. Hier verdoppelt sich auch mal eben die Bandbreite. Ob das das aus für GDDR Speicher ist?
 
Zuletzt bearbeitet:
Sehr interessant finde ich auch die Wahl des Speichers bei AMD. Hier verdoppelt sich auch mal eben die Bandbreite. Ob das das aus für GDDR Speicher ist?

nein denn 1. sind die karten mit GDDR zz nicht Limmitiert, und 2, könnten die Hersteller auch wieder auf 384 bzw 512 bit speicherinterface zurück greifen.

zz ist 256 ja wieder Standard, und dies schon seit 2002 (9700pro).
 
doch das passt schon, und außerdem hat die hd5750 (hab die selbe) nen idle-verbrauch von unter 20W (genauen wert hab ich grad nicht i kopf) das sollte eigentlich noch weiter runter gehen!
Problem bei Multi Monitoring bei AMD genauso wie Nvidia oder Via ist das die karten den Ram nicht runter takten auf Idle. Habe hier das gleiche Problem. Deswegen wird er nie die mindest menge an Strom auf nehmen. :)

Hier hilft höchstens via Tools den Ram und die Ramspannung der Graka runter zu takten. Aber auch das muss nicht zwingend Funktionieren. Hatte es bei mir ausprobiert, schon kamen Bildfehler. Vor allem bei der untersten Herstellerangabe vom Ramtakt. Muss man wohl einfach rum Probieren.
 
Zuletzt bearbeitet:
ja das mit dem ram ist ein leidiges problem, hatte zeitweise einen treiber, der trotz multimonitor runtergetaktet hat...
das sah dann aus, als ob man einen crt abfilmen würde (die streifen)


aber genug OT ;)
 
Bandbreite ist aber nicht alles, es kommt auch drauf an wie sie genutzt wird.

@Nighteye, zwar gab es die letzten zwei Jahre keine Sprünge, dafür mit 40nm auf 28nm jetzt aber einen Großen.
 
und die geforce karten waren trotzdem besser mit ihrem kleinerem 256bit Interface.

Ich sag dazu Theorie und Praxis die Rohleistung einer 6970 ist auch höher als die einer 580 und in der Praxis sieht man was anderes.

Da Hilft nur Warten.
 
Nicht zu vergessen bei dem Thema ist auch die Speichermenge...
Gerade im Profibereich, wo sich die GPUs selbst nicht sonderlich von den Desktop Modellen unterscheiden.
Wo damals beim G80 eben bei 1,5GB schluss war, gabs die R600 Modelle mit bis 2GB VRAM.

Heute hat NV den Vorteil auf ihrer Seite, nämlich das 384Bit SI bis 6GB aktuell bestückbar, wo bei AMD bei 4GB schluss ist.
 
ja, aber NV bietet es nicht an. Jede GTX590 die gelistet ist wird nur mit 2x1,5 GB angeboten. Gerade bei solchen Karten finde ich das Schwachsinn ³.
 
Klar gibt es bei NV 6GB Single GPUs... (Quadro und Tesla)
Dafür zahlt man dann aber auch gehörigen Aufpreis ;)

Wie sinnvoll das im Endkundenmarkt ist, ist dabei ja nicht Thema... Fakt ist aber, das seit einigen Generationen quasi die Eierlegende Wollmilchsau als GPU Entwickelt wird, die für alle Marktbereiche herhalten muss und nur dezent in der Dimensionierung angepasst wird.
Und da ist eben in meinen Augen auch der Punkt, das NV den Weg zu 384Bit SI gegangen ist. Weil man somit die VRAM Menge weiter erhöhen konnte zur Vorgängergeneration (klar die hatten 512Bit SI, aber es war bei 4GB gängigerweise schluss, weil es wohl keine größeren VRAM Module gab), ohne dabei auf zu teure riesige Speicherchips greifen zu müssen und ohne dabei das Rad neu zu erfinden.


Wobei man sagen muss, NV begeht in meinen Augen den Fehler des zu kleinen VRAMs bei Dual GPU Karten nunmehr wiederholt.
Bei der 79x0GX2 langten 512MB wohl im Schnitt vollkommen aus.
Die 9800GX2 krankte an ihren 512MB enorm. Die 295GTX im späteren Verlauf an ihren 896MB ebenso.
Die 590GTX macht es nicht so viel besser, obwohl aktuell 1,5GB noch ausreichend sind, für die Masse. In nem halben/ganzen Jahr kann sich das aber schnell ändern, schon alleine weil AMD 2GB Modelle im Massenmarkt pusht.
 
@Nighteye, zwar gab es die letzten zwei Jahre keine Sprünge, dafür mit 40nm auf 28nm jetzt aber einen Großen.

Jetzt ?

Redest du von 2011 ? weil 2012 ist für mich kein "Jetzt" Sondern Nächstes Jahr.
 
Es ist der nächste Anstehende Sprung und auch schon in Produktion, also jetzt. Manche Leute könnens mit ihrer Besserwisserei auch übertreiben :rolleyes:
 
Jetzt ?

Redest du von 2011 ? weil 2012 ist für mich kein "Jetzt" Sondern Nächstes Jahr.

was erwartet ihr von dem Shrink?
Ich denke erst mit Kepler kommt richtig Schwung in die Bude und das ist nächstes Jahr.
 
Boa Leute, hier gehts um technische Fragen im sinne von Technologien!

Das heißt:

-Keine Wertanfragen
-Keine Kaufberatung
-Keine Sachfragen auf bestimmte Marken
-Keine Hilfefragen
 
Folgende (Verständnis-)Frage:
Zu Zeiten der 5000er gab AMD an das die bsp. die 5850 "1440 Stream-Prozessoreinheiten" besitzt. Wenn meine alten Recherschen richtig sind, handelt es sich dabei um 5D-Shader-Einheiten. Teilt man dies durch 5, so erhält man die Anzahl der wirklichen Anzahl der Shadereinheiten.

Nvidia nennt seine Shadereinheiten Cudacores und 480 Cudacores, sind entsprechend auch 480 Shadereinheiten.
Genauer, Unifiedshader.

Ist das soweit richtig?

Das heißt bei allen Grafikkarten auf dieser Seite:
Mobile Grafikkarten - Benchmarkliste - Notebookcheck.com Technik/FAQ
müsste ich dies bedenken, wenn ich die Grafikkarten von AMD mit denen von Nvidia vergleiche? Oder hat sich mittlerweile etwas geändert?
 
ist in nächster zeit eigentlich mit einer neuen grafikgeneration zu rechnen ? also eine komplett neue runde und nicht eine zum 100 mal weiter übertaktete version. oder müssen wir noch länger mit der 6970 und gf590?! vorlieb nehmen ?! (was ja nicht verkehrt wäre)
 
Da hatten wir glaube ich schonmal nen Thread zu.

An sich werden Voxelengines wohl irgendwann Polygonengines ablösen, aber erst wenn die Leistung dafür zur Verfügung steht.

Was Euklidion da vorgestellt hat ist entweder nicht für Spiele geeignet (keine Animationen, keine Physik etc) oder auf keiner HW heute lauffähig.
 
ja, aber NV bietet es nicht an. Jede GTX590 die gelistet ist wird nur mit 2x1,5 GB angeboten. Gerade bei solchen Karten finde ich das Schwachsinn ³.

kann man auch anders sehen..zb. 3gig Karten da zahlste Verbrauch und Vram etc. bei dann 6gig kräftig für die Katz.
 
Er wollte damit Andeuten, dass die Quadro und Tesla karten die Über 6gb verfügen extrem teuer ist, da features geboten werden die einen Gamer einen Dreck kümmern.

Die Treiber sind daher auch anders gestaltet.
 
Ham wir eigl nicht einen "Allgemeinen Grafikkarten Laberthread"? wenn nicht muss dringend einer her, hier wird ja nur noch offtopic geschrieben :(

@dudu:
völlig wurscht, völlig wurscht, und das gehört nicht hierher, hier gehts um Shader und so ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh