[Sammelthread] Grafikkarten - Technikdiskussion

was ist besser, 8800gtx oder 2900xt? aha! 1d-shader sind klar besser
was ist besser: gtx470 oder 5870? aha! 5d-shader sind klar besser
du siehst, anhand fertiger produkte lässt sich die diskussion um das bessere prinzip, 1d oder 5d wohl nicht sinnig erörtern ;)

Die Frage ist in was besser... Es bringt nix nur eine Seite zu betrachten, nähmlich die wo die Karten gerade mal gut sind...
Eine HD2900XT ist in vielen Bereichen sehr nah an der 8800GTX dran, beispielsweise mit 8xAA und ohne AF, oder ganz ohne qualitätssteigernde Mittel.
Auch solltest du hier differenzieren, wo die G80 GPU noch die doppelte Menge 1D Einheiten zur R600 GPU hatte und dazu noch fast doppelten GPU Takt sind es mittlerweile nur noch 480 (512) vs. 320 Einheiten bei 1400MHz vs. 850MHz...

Man erkennt sehr schön, mit steigenden Einheiten wird die 1D Architektur immer ineffizienter, was Leistung pro Fläche, Leistung pro Verbrauch usw. anbelangt.
Eine derartige Aufstellung kannst du nunmal nur anhand fertiger Produkte vornehmen...

die x2800xt (wie sie ursprünglich heißen sollte) würde angeblich um die 8800gtx kreise ziehen. nvidia hat aus angst vor der angeblichen überkarte schon diverse pläne für eine 8800ultra (mit eigener gpu) und 8900gtx gehabt. allerdings wurde bereits vor release der 2900xt klar, dass sie floppen würde und so hat ati dann offiziell die 8800gts als ziel ausgerufen. ich hab die umbenennung in 2900 nie nachvollziehen können. damit haben sie sich imho lächerlich gemacht. sie wussten dass sie die 8800 nichtmal angreifen können, geschweigedenn eine mögliche 8900 und haben sich namentlich damit völlig ins abseits manövriert...

Du darfst nicht die Gerüchte mit in die Betrachtung einfließen lassen... Ob die Karte nun xyz oder abc heist, ist total Banane, offizielle Meldungen von AMD sprachen nie von GTX Konkurent. Das dieser Irrglaube soweit verbreitet ist, kommt aufgrund des riesen hypes um die Karte damals und die lange Wartezeit auf das Produkt.
Wo anfangs die Gemüter noch erzürnt waren aufgrund der anderen Marktausrichtung geht das Konzept heute voll und ganz auf...

Im übrigen, filtert man aus den ganzen Gerüchten das Fanboy gequatsche raus gab es im Bereich Jan. 2007 (also kurz nach dem G80) schon Gerüchte das die R600 Karten sich nicht an der GTX orientieren, sondern an der GTS...
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Man erkennt sehr schön, mit steigenden Einheiten wird die 1D Architektur immer ineffizienter, was Leistung pro Fläche, Leistung pro Verbrauch usw. anbelangt.
Eine derartige Aufstellung kannst du nunmal nur anhand fertiger Produkte vornehmen...

genau das geht nämlich eben nicht. vergleich mal gtx460 und 5830 und sage mir dann nochmal, welche architektur effizienter ist ;)
eine gpu besteht aus mehr als nur shader. du kannst nicht einfach den gesamten uncorebereich ignorieren. der hat massiven einfluss auf die effiziens und macht daher den direkten vergleich 1d zu 5d anhand chips mit unterschiedlichem uncore nutzlos.

offizielle Meldungen von AMD sprachen nie von GTX Konkurent.
aber die inoffiziellen infos ließen die leute an eine überkarte glauben. woher kam denn wohl die idee, dass die neue ati so ungleich stärker ist alls alles zuvor dagewesene? solche infos streuen die marketingmenschen. leider hat sich ati dabei völlig vergaloppiert (ähnlich wie nvidia bei fermi übrigends). und dann hat ati noch den fehler gemacht, die 2800 zur 2900 "aufzuwerten" was die ohnehin übersteigerte erwarungshaltung noch mal gesteigert hat.
ich wäre damals zu gern produktmanager bei ati gewesen. ich bin mir sicher, ich hätte den r600 erfolgreicher gegen den g80 plazieren können. aktuelle würde ich den job lieber bei nvidia machen. die verkaufen sich imho auch grad ziemlich schlecht...
 
Zuletzt bearbeitet:
genau das geht nämlich eben nicht. vergleich mal gtx460 und 5830 und sage mir dann nochmal, welche architektur effizienter ist ;)
eine gpu besteht aus mehr als nur shader. du kannst nicht einfach den gesamten uncorebereich ignorieren. der hat massiven einfluss auf die effiziens und macht daher den direkten vergleich 1d zu 5d anhand chips mit unterschiedlichem uncore nutzlos.
Wenn man so will wie du hier sagst, lassen sich gar keine Produkte vergleichen... Was natürlich so nicht stimmt...
Eine theoretische Betrachtungsweise bringt uns nur leider kein Stück weiter, weil es eben auf die Situation ankommt. Daher bleibt nur das ganze Produkt zur Hand zu nehmen und anhand dessen vergleichen.

Und was willst du mit dem Vergleich HD5830 vs. 460GTX? Beides sind abgespeckte/teildeaktivierte Modelle... Da beide nicht im gleichen Maße teildeaktiviert wurden, lässt sich auch nicht vergleichen.
Nimm das größte Produkt jeder Modellreihe, HD5870 und 480GTX (gut die 512ALU Version gibts noch nicht, aber die soll in nur größenordnungen 5% schneller der 480GTX sein) und vergleiche.
Im übrigen kommt es auch hier auf die Betrachtungsweise an, nimm ne GPGPU Anwendung, oder miss die Leistung in Furmark und schon ist die AMD meilenweit vorran, bei besserer Effizienz.

aber die inoffiziellen infos ließen die leute an eine überkarte glauben. woher kam denn wohl die idee, dass die neue ati so ungleich stärker ist alls alles zuvor dagewesene? solche infos streuen die marketingmenschen. leider hat sich ati dabei völlig vergaloppiert (ähnlich wie nvidia bei fermi übrigends). und dann hat ati noch den fehler gemacht, die 2800 zur 2900 "aufzuwerten" was die ohnehin übersteigerte erwarungshaltung noch mal gesteigert hat.

Inoffizielle Meldungen interessieren dabei gar nicht... Wer die Meldungen streut ist äußerst fraglich, da wird teils in Foren über Dinge spekuliert, die nichtmal die Newsseiten publizieren und über Umwege gelangt das als neues Gerücht in aller Munde... Ob Sinnig oder nicht. Hatten wir beim R600/G80 alles schon...
Für eine objektive Betrachtungsweise zählt nur das, was offiziell bestätigt wurde... Und das ist idR nich viel vor einem Release. Unbestätigtes kommt auch viel von Fanboys oder ähnlichen Leuten, die einer Firma extrem anhänglich sind. Da wird oft nur der "Liebe" zur Firma wegen von Überkarte usw. gesprochen... idR ist das Wunschdenken wenn man objektiv rangeht...

Zum Thema Namen, was hängst du dich so am Namen auf? Ob die nun X2800XTX oder HD2900XT heist, macht die Karte in keinster weise schneller oder nicht. Namen sind wie schall und Rauch. Und wenn das Teil nun super Grafikhammer 0815 heist sagt das gar nix über die Leistung aus.
Im übrigen, offiziell wurde auch hier nie von AMD bestätigt, das die Karte X2800XT(X) heißen sollte. Die erste offizielle Bekanntgabe war HD2900XT wobei Gerüchte sagten, es soll zusätzlich eine Workstation Variante in FullSize ATX Format mit dem Namen HD2900XTX inkl. höherem Takt geben...
Diese Meldungen räumte AMD aber kurz vorm Release aus dem Weg, indem man sagte, die Karte kommt allein als HD2900XT sowohl im Workstation als auch im Desktop Bereich...
Intern schien es diese XTX Version aber zu geben, denn nachträglich tauchten immer wieder Alpha Versionen der XTX in besagter größe und mit 800MHz (sprich mehr Takt) im Netz auf... Die Karte wurde aber so nie angekündigt und auch nie released.
 
@fdsonne: ich glaube, wir reden grad ein wenig an einander vorbei. ich wollte über die vor und nachteile der shaderarchitekturen sprechen, nicht über ati und nvidia. natürlich lassen sich endprodukte vergleichen, aber dann eben auch nur die summe der einzelteile. und darum wollte ich, dass für die grundsätzliche diskussion zu den shaderarchitekturen ati und nvidia außen vor bleiben. aber gut, lassen wir die shadermodelle.

ok bei den inoffiziellen meldungen und was die hersteller so durchsickern lassen, lassen wir lieber außen vor, denn das ist marketing und nicht technik^^

zu den namen aber noch: es gab bis zur 9800 (nvidia) und 2900 (ati) ein festes namensschema. die x800 von ati stand immer der x800 von nvidia gegenüber, die x900 ati der x900 nvidia, etc. das wussten auch die marketingmenschen von ati. von daher war klar, dass die erwartung an eine 2900 sein würde, dass diese sich mit der 8900 von nvidia messen lassen würde.
aber jetzt genug vom marketing^^
 
@fdsonne: ich glaube, wir reden grad ein wenig an einander vorbei. ich wollte über die vor und nachteile der shaderarchitekturen sprechen, nicht über ati und nvidia. natürlich lassen sich endprodukte vergleichen, aber dann eben auch nur die summe der einzelteile. und darum wollte ich, dass für die grundsätzliche diskussion zu den shaderarchitekturen ati und nvidia außen vor bleiben.

Ja aber was willst du da bereden? Jeder Architekturansatz hat wohl hier und da Nachteile, nur nutzt einem dieses Wissen nix, wenn man die Implementierung nicht kennt...

Allein auf die ALUs geschaut kann man wohl sagen, 5D Einheiten sind flächenmäßig kleiner als 5x1D Einheiten. Leistungsmäßig wenn die Anwendung passt aber nicht langsamer. 1D Einheiten sind dagegen minimal flexibler was die Auslastung anbelangt.

zu den namen aber noch: es gab bis zur 9800 (nvidia) und 2900 (ati) ein festes namensschema. die x800 von ati stand immer der x800 von nvidia gegenüber, die x900 ati der x900 nvidia, etc. das wussten auch die marketingmenschen von ati. von daher war klar, dass die erwartung an eine 2900 sein würde, dass diese sich mit der 8900 von nvidia messen lassen würde.

Wie gesagt, Namen sind wie Schall und Rauch und lassen in Wirklichkeit maximal in der eigenen Produktreihe vergleichen.
Beispiel Radeon 7x00/8x00 Reihe, da gabs maximal die 7500/8500er Karte welche gegen die Geforce2/Geforce3 antraten.
Danach kam NV mit der Geforce 4 TI 4600, woraufhin ATI mit einer 9700Pro konterte. (9700 nicht weil NV bei 4600 ist, sondern weil es nun drei Modelle pro Gen. gab. Sprich 9200, 9500, 9700...)
NV kam mit einer Geforce FX5800 Ultra, ATI mit der 9800Pro recht zeitgleich. Hier passt der Name zum ersten mal. (aber nur, weil die 9800Pro ein Refresh der 9700Pro war, sprich der Name einfach weitergezählt wurde)
NV kam mit einer Geforce FX5900 Ultra (später mit der 5950 Ultra) und ATI "nur" mit einer 9800 XT. --> passt nicht
Bei der 6800 Ultra vs. X800XT PE passt der Name zum zweiten mal überein. ATI legte aber etwas später eine X850XT PE und X850XT nach... Ohne Konkurent seitens NV. Stimmt also wieder nicht.
Bei der 7800 GTX vs. X1800XT PE passts zum dritten. Aber NV kam recht zügig danach mit der 7800 GTX 512. ATI aber als Antwort darauf mit einer X1900XTX (4 Monate später, hier wurde XT PE erstmalig durch XTX ersetzt) --> passt wieder nicht.
NV konterte zwei Monate danach mit einer 7900 GTX.
Woraufhin ATI durch die X1950XTX antwortete... (welche nur minimal schneller als die X1900XTX war) --> passt ebenso nicht.
NV schob dann zwar noch eine 7950GT und 7950GX2 (799GX2 lass ich hier an der Stelle weg, weil diese nicht für den Endkundenmarkt, sondern nur im OEM Bereich bestimmt war) nach, die GT war aber langsamer als die alte 7900 GTX und die GX2 bekanntlich ne Dual GPU Karte. --> passt also wieder nicht.
Danach gabs die 8800 GTX vs. 2900XT --> passt ebenso nicht.

Wenn wir jetzt zusammenzählen wären das genau 3 Übereinstimmungen von der dritten Zahl der Modellnummer bei 9 nicht Übereinstimmungen inkl. R600/G80 seit der Geforce2/Radeon 7000er Reihe. Von den kleineren Modellen mal ganz abgesehen, denn da stimmts noch weniger.

--> soviel zum Thema Namen...
 
Zuletzt bearbeitet:
Allein auf die ALUs geschaut kann man wohl sagen, 5D Einheiten sind flächenmäßig kleiner als 5x1D Einheiten. Leistungsmäßig wenn die Anwendung passt aber nicht langsamer. 1D Einheiten sind dagegen minimal flexibler was die Auslastung anbelangt.
minimal? ich denke mal, dass die effiziens im mittel bei 3 1d-shadern liegen dürfte. mich würde mal die auswirkung interessieren, wenn man cypress mit 1d-shadern und gf104 mit 4d-shadern bringen würde. wie sie sich gegenüber ihrem jeweiligen vorgänger verhalten würde und auch zueinander...

und zu den namen: das solltest du wohl mal etwas umfassender betrachten, (die nuancen haben beide mit eigenen kürzeln klargemacht): 9200 -> 5200, 9600 -> 5600, 9800 -> 5800. ja nvidia musste noch was draufsetzen, darum musst sie das namensschema ausweiten. dann kam x300 -> 6200, x600 -> 6600, hier musste ati nachbessern, daher kam dann ne x700, x800 -> 6800, und nochmal setzte ati einen drauf, mangels namen darum x850. dann x1800 -> 7800, 1900 -> 7900, 1950 -> 7950, das grobe schema war in den köpfen der leute drin. daher auch die erwartung des namens 2800 als antwort auf die 8800.
namen sind technisch betrachtet schall und rauch. die erwartungshaltung an ein produkt hängt dennoch vom namen ab. du willst mir ja auch nicht erzählen, dass wenn ati ne 2600 (oder heute ne 6670) ankündigt, dass du dann von ner highend oder lowendkarte ausgehst, oder? ;)
 
Zuletzt bearbeitet:
minimal? ich denke mal, dass die effiziens im mittel bei 3 1d-shadern liegen dürfte. mich würde mal die auswirkung interessieren, wenn man cypress mit 1d-shadern und gf104 mit 4d-shadern bringen würde. wie sie sich gegenüber ihrem jeweiligen vorgänger verhalten würde und auch zueinander...
Wieso ziehst du jetzt doch fertige Produkte zu Rate? Ich denk das willst du raushalten?

Aber ich kann dir sagen, das so ein Vergleich nicht machbar ist... Da es bei den AMD Karten stark auf die Anwendung ankommt. Im Schnitt über die Games limitieren bei AMD Karten die Shader nicht wirklich, das zeigen einige wenige Messungen im Netz. Viel eher sind das Sachen wie Pixelfüllrate, Texelfüllrate usw. ausschlaggebend.



und zu den namen: das solltest du wohl mal etwas umfassender betrachten, (die nuancen haben beide mit eigenen kürzeln klargemacht): 9200 -> 5200, 9600 -> 5600, 9800 -> 5800. ja nvidia musste noch was draufsetzen, darum musst sie das namensschema ausweiten. dann kam x300 -> 6200, x600 -> 6600, hier musste ati nachbessern, daher kam dann ne x700, x800 -> 6800, und nochmal setzte ati einen drauf, mangels namen darum x850. dann x1800 -> 7800, 1900 -> 7900, 1950 -> 7950, das grobe schema war in den köpfen der leute drin.
Was heist umfassender Betrachten? Du siehst hier ganz klar einen direkten Zusammenhang anhand der Zahlen zwischen den Konkurenten, der so wenn überhaupt nur zufällig vorhanden ist.
Nüchtern betrachtet, führte ATI damals mit den 9000er Karten erstmalig drei Performanceklassen ein. Was wiederum zur Folge hat, das sich die Zahlen irgendwie sichbar unterscheiden müssen.
Eine 9200 ist Low End, eine 9500 ist Mittelklasse und die 9700 ist HighEnd. Sowas gab es bis Dato vorher nicht. Seitens NV (und auch ATI) war vorher die Regel: kleine Karten unteres LowEnd bis Mittelklasse, große Karten HighEnd.
Sehr schön zu sehen an den Geforce 2 Modellen. Die MX 200 und MX400 waren LowEnd und untere Mittelklasse. Der Leistungsschub zur HighEnd Klasse war riesig. Die Geforce 2 GTS/Pro/Ultra lagen recht dicht beieinander.
Auch gleiches Spiel bei den Geforce 4 Karten. Die MXen waren sehr weit weg von den TI Karten.
NV zu ATI mit den Geforce 5er Karten nach und bot drei Leistungsklassen an. Sprich 5200 LowEnd. 5600 Mittelklasse und 5800 (und später 59x0) HighEnd.

Das sich die zweite Zahl in der Ziffernfolge teilsweise deckt ist da wohl eher zufällig, weil eben die Zahlen nur von 0-9 gehen und man bei drei Leistungsklassen da so viel Spielraum nicht mehr hat.
Mit aufkommen der OnBoard GPUs gab es dann noch ne vierte Leistungsklasse. Die das ganze noch enger zusammen rücken lässt.

Man kann da nicht wirklich davon sprechen, das hier das Konkurenzprodukt der ausschlaggebende Punkt zum Namen ist, sondern viel eher die Tatsache, das man anhand von 10 Ziffern 3 (und später 4) Leistungsklassen in ein Namensschema unterbringen musste.


Übrigens, man hat bei AMD die Suffixe nicht aus Lust und langer weile weggelassen, sondern das der Endkunde die Karten klarer einordnen kann. Denn schließlich weis der Endkunde ohne Studieren von Benches nicht ob nun LE, XT, SE, XTX, XT PE, oder XL besser ist.
Also steht bei AMD die erste der 4 Zahlen für die Generation ansich. Die zweite für die Leistungsklasse in der Generation. (bei vier Leistungsklassen bleibt für HighEnd nunmal nur die 8 oder 9). Die dritte Zahl steht für die Geschwindigkeitsreihenfolge der Karten in dieser Leistungsklasse. So ist eine Karte mit ner xx7x auch schneller als ne Karte mit xx5x oder xx3x. Und die letzte Zifferbehalt man sich vor, für sonstwas, weis der Geier ;)
Bei NV läuft das idR fast identisch, außer das man hier nach wie vor auf Sufixe setzt, wo der User vorher sochen muss, was dieser nun auch wirklich besagt. In meinen Augen hat aber NV am Namensschema mittlerweile so viel rumgemurkst mit gleichen Karten unter verschiedenen Namen und verschiedenen Karten unter gleichem Namen, das es hier auch bei bestem Durchblick schwer fällt wirklich zu vergleichen.

daher auch die erwartung des namens 2800 als antwort auf die 8800.
namen sind technisch betrachtet schall und rauch. die erwartungshaltung an ein produkt hängt dennoch vom namen ab. du willst mir ja auch nicht erzählen, dass wenn ati ne 2600 (oder heute ne 6670) ankündigt, dass du dann von ner highend oder lowendkarte ausgehst, oder? ;)

Auch hier gilt zu erwähnen, die Hersteller kündigen das Produkt nicht beim Namen an, die Namen werden schlussendlich erst kurz vorm Release wirklich bekannt gegeben. In erster Linie kündigt man neue Produkte anhand des Codenames der GPU an. Bei NV halt aktuell GF100 und bei AMD RV870 als Vertreter der HighEnd Klasse.

Ich denke mal viele Leute unterliegen hier dem Irrglauben, das man anhand des Names wirklich mit dem Konkurenten vergleichen kann, was so nicht tragbar ist. Bestes Beispiel sind doch auch die CPUs, wie viele glauben nach wie vor, das das Performance Rating seitens AMD beim Athlon XP und später auch beim Athlon 64 sich auf Intel bezieht? Was natürlich quatsch ist. Beim Athlon XP nimmt man seitens AMD offiziell den Athlon Thunterbird als Basis für die Zahlen (soweit ich informiert bin)
 
Zuletzt bearbeitet:
Hallo,

ich hab gerade noch durch Zufall die letzten paar Minuten der Keynote von Jen-Hsun Huang zur GPU Technology Conference 2010 mitbekommen:

Verständlicherweise liegt bei so einer Veranstaltung der Fokus auf GPU-Computing.
Dann bin ich mal gespannt, wie die absolute Leistungsaufnahme von Kepler aussehen wird.

ciao Tom
 
Zuletzt bearbeitet:
Wie aussagekräftig das Bildchen ist sieht man ja schon an der Jahreszahl unter Fermi :fresse2:


...übrigens meckert bei dir der Updater und das Sicherheitscenter nicht umsonst wegen irgendwas ;)
 
So ich hab hier mal durchgewischt... Kann doch nicht sein das ich hier im jedem zweiten Post schreiben muss, was hier drin alles nix zu suchen hat...

:btt:
 
Wenn man weg von den 1D Einheiten geht, dann wird diese vllt nichtmal so sehr hoch Ausfallen ;)

Sie müssen weg vom 1D weil irgendwann ist mal schluss! Genauso wie intel vorhaben die 10Ghz zu knacken!
 
Sie müssen weg vom 1D weil irgendwann ist mal schluss! Genauso wie intel vorhaben die 10Ghz zu knacken!

Das kann man so nicht sagen, normal sind dem Vorhaben keine Grenzen gesetzt. Aber es ist auffallend, das die 1D Einheiten mit steigender Größe immer ineffizienter werden. Man schaue sich nur mal an, wie groß aktuelle NV Chips sind und wie viel diese zu Leisten im Stande sind. Im Gegensatz dazu war damals beim G80 und R600 NV noch der effizientere, selbst mit dem RV670 konnte AMD zwar massiv die Effizienz steigern, aber man nutzte dafür den 55nm Prozess wohingegen NV noch in 90nm produzierte.

Mit den 4D Einheiten welche derzeit spekuliert werden könnte AMD nochmals einen guten Schritt in Sachen Effizienz nach vorn machen, denn es scheint im Moment so zu sein, das der fünfte Teil der AMD GPUs oft eben nix macht. (der Teil, welcher als Spezial Function Unit fungiert)
 
würde eine 8800GT für mac auf einem normalen mainboard und windows umgebung laufen?
 
hi zusammen,

mal ne klitze kleine frage für die es woh keinen extra thread braucht. kumpel von mir hat en amd athlon II x3 der auf 3,3ghz läuft, 4gb ram und ne ati 4850. jetzt hat er sich in den kopf gesetzt beim warhammer online zocken nen kleinen tft als zweit bildschirm an sein system zu hängen. problem ist, das ihm, sobald er den zweiten monitor in betrieb nimmt, die fps völlig in den keller gehen. erster monitor läuft mir 1680 x 1050, der zweite mit 1280x1024. so, jetzt stellt sich mir dir die frage:

1. ist sein system allgemein zu langsam für dual monitor betrieb?
2. müsste ne potenterer cpu her?
3. ist die graka die bremse bei der konstellation?
 
1.
das gehört hier nicht hin!

2.
wenn VIsta/Win7 dann soll er mal bei den kompatibilitätsoptionen des Spiels die haken bei
"visuelle designs deaktivieren" und "desktopgestaltung deaktivieren" setzen ;)
hab selber dual-monitor, und bei mir hilft das!
 
verdammt, das sollte eigentlich auch nicht hier her. sorry. falsches unterforum erwischt.
 
mal ne Frage zur DIE Größe von GPUs und deren Wärmeübertragung

Es ist ja nun so dass die Größe des DIEs z.b. bei ATI immer kleiner wird...siehe aktueller vergleich mit dem "Barts". Wobei hingegen die Verlustleistung immer ziemlich gleich bleibt...so ungefähr jetzt etwa 150Watt...sag ich mal.

Aber ist die Wärmeleitung da nicht schlechter weil einfach weniger Fläche zur Übertragung zur Verfügung steht??? Das ganze wirft meine Thermodynamik und Wärmeübertragung aus der Hochschule ganz schön durcheinander...

hier wars und ists ja immer so dass --->je größer die Oberfläche desto mehr Wärmetransport kann stattfinden.

Das bedeutet also für die Grakachips dass es so immer schwieriger wird die Wärme mit einem Kühler abzutransportieren...also wenn die "Verlustleistung" annähernd gleich bleibt. Als beispiel alt:150Watt neu 150Watt...

bitte mal um aufklährung!


PS: mir ist klar dass die Watt angabe auf die gesamte Karte bezogen ist. Nur 1Gb DDR3 z.b. braucht wahrscheinlich fast gleich viel Strom wie 1Gb DDR3 ;) ;) ;)
 
Ich habe den letzten Beitrag hier hin verschoben :wink:

Bei den vorangegangenen Grafikkartengenerationen waren die Dies auch alle insgesamt etwas größer (sprich, sie wurden von Zeit zu Zeit kleiner). Noch funktioniert es mit der Kühlung der GPU. Die ganze Abwärmeproblematik wird erst dann kritisch, wenn die Die-Fläche unter ein gewisses Minimum sinkt, und das bei gleich bleibender oder sogar steigender Abwärme. Sprich, du hättest ein GF100 mit einer Die Fläche von theoretischen 150mm² und der gleichen Stromaufnahme wie es derzeit der Fall ist :d (ja, ich weiß, recht unrealistisch, aber es ist absichtlich übertrieben dargestellt). Dort wird es schon kritisch werden die Wärme mit herkömmlichen Mitteln gescheit abzutransportieren. Nur darfst du bei der ganzen Sache auch nicht vergessen, dass bei fast jedem kleineren Fertigungsprozess auch gewisse Anteile vom Stromkonsum der GPU weg fallen. Sie wird etwas sparsamer...
 
Zuletzt bearbeitet:
Die Verlustleistung einer Schaltung ist letztlich eine Funktion der aktiven Fläche.

Bringt man auf einer gegebenen Flächeneinheit Silizium durch Verringerung der Strukturgröße mehr Schalteinheiten unter, erhöht sich dadurch die Verlustleistung auf dieser Fläche nicht.

Erhöht man die Packungsdichte hingegen, ohne die Strukturbreiten zu verringern, erhöht sie sich schon.
 
AMD 5D shader, was genau?

Hey,
ich frage mich gerade was genau ein 5D shader genau ist.

Der soll ja angeblich 5 aufgaben gleichzeitig lösen.

Mal so als Beispiel:

Ist die Leistung von einem 5D shader (beispiel 800MHz)
quasie 5 mal 800 MHz oder 800 durch 5 ?
 
Das ist ein ganz anderes Kapitel :P
Was mich interessiert ist, hat ein 5D shader jetzt die Leistung von 5 x 800 MHz oder nicht?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh