[Sammelthread] Grafikkarten - Technikdiskussion

gott sei dank ^^ ich hab scho dacht die hat sich durch die wärme verbogen... mit standart kühler hatte sie unter last teile über 90 Grad...

Danke 120mm nurnoch 70 @ volllast
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Fragen zu Shadern

Hallo,

ich habe Fragen ... :hail:
Ist unter Streamprozessor eine Shadereinheit zu verstehen?
AMDs HD 5850 hat nach deren Angabe...:

# 2,15 Milliarden 40-nm-Transistoren
# TeraScale 2 Unified Processing Architecture

* 1600 Stream-Prozessoreinheiten
* 80 Textureinheiten
* 128 Z-/ROP Schablonen-Einheiten
* 32 ROP Farbeinheiten

# GDDR5-Schnittstelle mit 153.6 GB/Sek. Speicherbandbreite

Quelle: http://www.amd.com/de/products/deskt...verview.aspx#2

Nivida bezeichnet ja jeden ihrer Unified-Shaders als Cuda Cores... davon sind auf einer GeForce 480, man glaube es kaum 480 Stück...
Aber was will ATI/AMD mir nun sagen???
Handelt es sich bei den Textureinheiten vielleicht um Pixel-Shader?


Dann habe ich noch eine Frage...

Shader
Auf dem oben von mir angeben Link... da steht unter Verabeitungskette:
Nachdem die Pixelberechnung abgeschlossen ist, wird der Test auf Sichtbarkeit (Z-Test) ausgeführt. Bei Sichtbarkeit findet ein Schreibvorgang in den Framebuffer statt.
Gehe ich richtig der Annahme das dieser Test auf Sichtbarkeit mithilfe des Pixel-Shaders gemacht wird?

Fragen über Fragen :-D

MfG,

Fasko
 
AMD bezeichnet eine Ausführungseinheit eines VLIW5-Prozessors als "Stream-Prozessoreinheit". Also ja, eine Shader-Einheit. Und Nvidia sagt dazu "CUDA-Core". Aber Vorsicht: AMD und Nvidia verwenden unterschiedliche Shader-Architekturen, bei der HD 5870 sind es daher 1600 ALUs bzw. 320 VLIW5-Prozessoren.

Eine Textureinheit (TMU, Texture Mapping Unit) ist KEINE Shader-Einheit, allerdings übernehmen letztere Ausgaben, die mit den TMUs zu tun haben (etwa Attributinterpolation der Texturen). Early-Z-Culling (bei AMD Hierarchical-Z) findet vor dem Shading (im Frontend) statt, da es ja Sinn und Zweck den Culling ist, verdeckte Pixel zu erkennen und zu verwerfen - das verhindert Overdraw und steigert ergo die Leistung..
 
Zuletzt bearbeitet:
Ok danke...

Jetzt habe ich noch etwas von doppelter Genauigkeit bei Fließkommastellen im Kopf. Bezieht sich dies auf alle aktuellen GPUs?

Wichtig ist dies meineswissens nach bei Simulationen gerade bezogen auf die Tesla-GPUs von Nvidia, weshalb ich davon ausgehe das dies dort aufjedenfall Anwendung findet.

Aber was ist mit den normal gebräulichen Grafikkarten der Geforce und AMD HD Serie?

Gibt es dies dort auch (und wenn ja seid welcher Serie)?
 
Cypress (XT, Pro und LE) hat DP = 1/5 SP (macht bei der HD 5850 2088 GFlops SP und 417.6 GFlops DP). Bei den kleineren RV8xx wurde es gestrichen.
Bei Wiki gibt es dazu eine Liste: http://de.wikipedia.org/wiki/ATI-Radeon-HD-5000-Serie
Bei AMD/ATi war RV670 die erste GPU, die dazu im Stande war.

Bei GF100 und GF110 sind es DP = 1/8 SP und bei GF104 und GF114 DP = 1/12 SP.
Fermi basierende Karten für den professionellen Markt (Quadro und Tesla) haben 1/2 SP Leistung.
Bei NV gibt es seit GT200 (erste Tesla-Generation) DP.

MfG
Edge
 
Zuletzt bearbeitet:
Nette Kost. Danke :-)

Kann mir jemand diese Berechnungen hier bestätigen?:

// auch wenn es leicht vom Thema abweicht ^^

Berechnung der Größe eines Bildes, welches in den Framebuffer geladen wird:
1920 Pixel * 1080 Pixel * 32 Bit (Farbtiefe) = 66,4 MBit = 8,29 MByte
1024 Pixel * 768 Pixel * 32 Bit (Farbtiefe) = 25,1 MBit = 3,14 Mbyte

Sprich früher (in einem Land vor unserer Zeit :eek:) war der (im Gegensatz zu heute) kleine Grafikspeicher daran schuld, das größere Auflösungen bei Bildschirmen nicht möglich waren.

Jetzt sage ich schonmal DANKE :p

MfG

Fasko
 
@Fasko: Ich glaube eher die Tatsache, dass mit der Methode in der die alten Röhren hergestellt wurden, mehr Pixel einfach zu teuer gewesen wären.

Ausserdem ließen sich die Röhren sehr gut "Übertakten", von daher.

Ich glaube eher, dass die Grafik einfach nicht so weit war, um auf so eine Riesen fläche ansehnlich gebracht zu werden. Von der Rohleistung der Chip´s ganz zu schweigen.
 
Die Rechnung passt schon, also zumindest für die kleinere Auflösung. 16:9 rechne ich nicht durch, iiih, bäh.
Und wenn ein Bild nichtmal in den Grafikspeicher passt, dann war die Ausgabe natürlich auch nicht möglich, schon ganz richtig.

@Chezzard: Feinere, enger beisammen liegende Löcher in die Maske zu lasern ist heute kein Problem, und wars damals auch nicht. Mehr Pixel vernünftig anzeigen lassen war lediglich ne Qualitätsfrage. Mein 19" war auch nur für 1600 freigegeben, 2048x1536 konnte er trotzdem. Erstaunlich gut sogar, aber halt nur mit 60 Hz. Und die dafür nötige Zeilenfrequenz ordne ich einfach mal unter "Qualität" ein ;)

Nebenbei, wir reden hier wohl über 2D-Erzeugung. Für 3D-Bilder wärs schon recht sinnvoll, neben einem einzelnen Bild auch vielleicht ne Textur oder anderen Kram im Speicher liegen zu haben. 1600x1200 in 3D mit 25fps+ war ne ganze Weile nach der "oh, ich kanns in 2D ansteuern"-Zeit
 
Hi, ich hab grad einen PC für nen Kollegen zusammengebaut und installiert. Es funktioniert alles bestens, nur die Auflösung kann weder im Control Center noch in der Systemsteuerung höher als 1280 x 800 eingestellt werden.
Verbaut ist eine "Sapphire Radeon HD 6870", mit dem 10.12 Treiber. 10.11, sowie die mitgelieferten Treiber funzen leider auch nicht. Mein 30 Zoll TFT hängt da gerade dran. Was kann das sein? Hat ich noch nie den Fall. Bios Update hab ich kein neues gefunden.
Noch verbaut ist:

CPU: i5 2500
Mainboard: Asus P8H67-M
Platte: Raptor 300GB
BS: Windows 7 64 bit

Chipsatz Treiber sind natürlich installiert.

Edit: Wenn ich den Haken bei nichtunterstütze Modi wegmache, kann ich noch 1920 x 1080 auswählen, aber dann bleibt der Tft schwarz."
"PnP Monitor" ist als Treiber bei Windows selber drin. Ich hab schon einen anderen versucht. Aber bei meinem PC steht auch "PnP Monitor" und funzt mit der gtx 580 einwandfrei. LG selber hat leider keine Treiber für den W3000H unter Windows 7.
 
Zuletzt bearbeitet:
@John_Q
hast Du beide DVI-Anschlüsse ausprobiert?
 
Gerade eben, und es hat funktioniert. So eine Scheisse, 2 Std für nix. Ich wusste nicht das einer nur Analog kann. Das ist schon wieder peinlich
 
@John_Q
ich hatte vor ein paar Tagen auch nur nebenbei gelesen, das es einen Unterschied zwischen den beiden Anschlüssen gibt. Was genau der Unterschied war, wusste ich aber auch nicht mehr.
 
Jupp, sowas habe ich auch schon gehört... Es soll beispielsweise auch nur bei einem der beiden DVIs möglich sein per HDMI Adapter Sound mit rauszubringen...
 
Danke übrigens für euere bisherige Hilfe ;-)

Mich verwirrt im Moment der "Alphakanal" bei den 32bit von True Color.
True Color
Die letzten 8bit werden nun für die Transperenz der Pixel genutzt. Soweit, sogut. Jedoch heißt es auch das die 24bit völlig ausreichen würde um alles natürlich darzustellen.

Seit wann wird 32bit verwendet (zeitlich)? Sehe ich "32bit"... vllt. bei der Windows7 Oberfläche die Transparenzeffekte... basieren diese auf TrueColor 32bit?

Mfg
Fasko
 
Kost kost kost...

Jetzt habe ich nochmal eine Frage...

Habenn IGPs sprich Onboard-Grafikkarten Shader-Einheiten wie normale GPUs?
Bisher habe ich keine wirklich hilfreichen Informationen zu dem Thema gefunden.
Bei GPUs wird ja zwischen den drei Shadern Pixel-, Vertex- und Geometry-Shader unterschieden bzw. mittlerweile haben die aktuellen Grafikkarten ja Unified-Shader.

Bei einem Nvidia Tegra2 Chip, der in Smartphones zum Einsatz kommen soll, steht auf der Nvidiawebseite das der Chip 8 Rechenkerne hat. Handelt es sich hierbei um Shader-Einheiten?
NVIDIA Tegra 2

Zu den Intel Core-i ´s habe ich bisher gar keine Informationen zu ihrem "Rechenkernen" gefunden. Hierbei weiß ich nur das sie einen Grafikpart besitzen.

Danke für jede Information.

MfG,

Fasko
 
Ok, danke...
Nochmal etwas nebenher...
... ja und ich will hier nicht willkürlich Äpfel mit Birnen vergleichen, das vornweg.

Bei der Nvidia Quadro 6000 steht nichts beim GPU Takt...
Quadro 6000

Ich finde auch nichts im Internet diesbezüglich, hat jemand eine Ahnung wo ich Informationen darüber finde?
Meine Vermutung ist das dieser gleich mit mit der 480GTX ist... 1,4GHz.
...
NVIDIA GeForce GTX 480

MfG
 
Bei der Quadro 6000 handelt es sich in der Tat um eine Grafikkarte für den professionellen Einsatz. Ihr "Bruder" im Gaming-Sektor wäre dann laut den Spezifikationen die GTX 480.
 
@PCZeus und Fasko
bei einem 384-Bit Speicherinterface und 448 Shadereinheiten schauts mir nach einer Mischung aus GTX 480 und GTX 470 aus.

ciao Tom
 
Zuletzt bearbeitet:
VIlleicht sollte man den Startpost überarbeiten.

Da ist noch von RV870 und GT300 die Rede.... :wink:

Muss ich bei Gelegenheit mal machen... :wink:

Intel benützt afaik noch Pixel/Vertex Shader.

Jein... Bei Intel schimpfen sich die Ausführungseinheiten wohl "Execution Units" kurz EU.
Scheinbar gibts aber wohl noch keine detailierten Infos wie sich so ein Teil direkt zusammensetzt...
Fakt ist aber, Intel setzt verstärkt auf Fixed Function Units... Sprich Einheiten mit starrer Funktion. Laut CB um mit der Leistungsaufnahme besser umgehen zu können.
Ob das nun aber wirklich echte Pixel/Vertex/Geoshader Einheiten sind, weis ich nicht. Glaube ich aber so eherlich gesagt nicht. Denn mit Einführung von DX10 wurde ja vorgeschrieben, das Unified Shader genommen werden müssen, wenn ich mich da recht entsinne.
Fixed Function Units sind beispielsweise auch bei AMD und NV die TMUs, die ROPs usw. Theoretisch könnte man das alles auch über vollvariable ALUs ausführen. Nur eben ist eine "Hardwarenahe implementation" wohl doch um einiges schneller, wenn auch unflexibler.

Intel wollte damals wohl beim LRB eine nahezu komplett in Software gefasste Grafikkarte bringen. Quasi ne "standard" CPU so stark auslegen, um mit der Rechenleistung aktueller GPUs mitzuhalten. -> Vorhaben gescheitet, so siehts zumindest im Moment aus.
Das Projekt war den Gerüchten zur Folge quasi fast ganz ohne diese Fixed Function Units ausgelegt. (Ich glaube die TMUs waren die einzigen Einheiten mit fixer Funktion)
 
Bei meinem Intel GMA 950 Chip wird mit Pixel/Vertex pipelines geworben.

Was bei den neuenren Produkten die Sachlage ist, weiß ich nicht wirklich.

Auf jedenfall kann sich Intel ranhalten wenn sie AMD udn nVidia überholen wollen.
 
frage:

kommt es nur mir so vor oder ist der Aktuelle Jahres Trent der leistungs Steigerung nicht mehr Vergleichbar mit dem Stand bis 2006 ?

man bedenke
2002 Radeon 9700 Pro
2004 Radeon X800XT
2006 Geforce 8800GTX

es gab gut alle 2 Jahre einen Massiven Leistungs Schub.

Fermi (2009) Ließ dann etwas Länger auf sich Warten, und brachte nochmal einen Extremen leistungs Schub.

seit dem gab es noch keinen Intensiven Schub wie wir es aus meinen Beispiel Jahren kannten.

Liegt das alles Weniger an den Architekturen, und mehr daran, das der Herstellungsprozess (zz 40nm) als Technologiefortschritt und die Schwierigkeit so Intensiv weiter zu machen wie vorher, den Großteil dieser "Schuld" tragen ?

denn falls ja, und wir ab 2012 für 5~ jahre bei 20-28~ nm stehen.
frage ich mich inwieweit der Fortschritt noch massiv spürbar sein wird, bzw wie viele Jahre vergehen Müssen, ehe man wieder von einem Massiven Sprung sprechen kann.
 
Bei meinem Intel GMA 950 Chip wird mit Pixel/Vertex pipelines geworben.

Was bei den neuenren Produkten die Sachlage ist, weiß ich nicht wirklich.

Auf jedenfall kann sich Intel ranhalten wenn sie AMD udn nVidia überholen wollen.

GMA 950 kann auch nur DX9 ;) Sagt zumindest die Intel Page... Dementsprechend müssen auch keine Freiprogrammierbaren Einheiten vorhanden sein.

frage:

kommt es nur mir so vor oder ist der Aktuelle Jahres Trent der leistungs Steigerung nicht mehr Vergleichbar mit dem Stand bis 2006 ?

man bedenke
2002 Radeon 9700 Pro
2004 Radeon X800XT
2006 Geforce 8800GTX

es gab gut alle 2 Jahre einen Massiven Leistungs Schub.

Fermi (2009) Ließ dann etwas Länger auf sich Warten, und brachte nochmal einen Extremen leistungs Schub.

seit dem gab es noch keinen Intensiven Schub wie wir es aus meinen Beispiel Jahren kannten.

Liegt das alles Weniger an den Architekturen, und mehr daran, das der Herstellungsprozess (zz 40nm) als Technologiefortschritt und die Schwierigkeit so Intensiv weiter zu machen wie vorher, den Großteil dieser "Schuld" tragen ?

denn falls ja, und wir ab 2012 für 5~ jahre bei 20-28~ nm stehen.
frage ich mich inwieweit der Fortschritt noch massiv spürbar sein wird, bzw wie viele Jahre vergehen Müssen, ehe man wieder von einem Massiven Sprung sprechen kann.

Das ist in der Tat so, wobei der Trend schon länger abzusehen war...

Ich denke schon, das liegt unter anderem am Herstellungsprozess bzw. dessen Auswirkungen auf die Produktion.
Gerade jüngst hat man ja AMD quasi zurückgewiesen mit dem Herstellungsprozess. Wenn 28nm Ende dieses/Anfang nächstes Jahr kommen, muss das sicher mindestens gute 2 Jahre halten, bevor da wieder was neues kommt. Vllt gar noch länger.
Und wie man aktuell sieht, hat sich seit 1,5 Jahren aktuell sogut wie nix bewegt in Sachen Leistung. Eine 580GTX ist so extrem viel schneller nicht als die schon seit 1,5 Jahren erhältliche HD5870. Und Anhand der Tatsache, das wohl dies Jahr so viel nicht passieren wird, wird die Leistung auch deutlich über zwei Jahre recht gleich bleiben.
Kann man nur hoffen, das die nächste Generation dann einen deutlichen boost gibt...
 
Jupp, sowas habe ich auch schon gehört... Es soll beispielsweise auch nur bei einem der beiden DVIs möglich sein per HDMI Adapter Sound mit rauszubringen...

Das hat mich jetzt interessiert , da die Tatsache für mich völlig neu war.
Ich bin bisher immer davon ausgegangen das DVI kein Ton übertragen kann.

Hatte mich aber eh gewundert, das meine 4870 mit 2DVI Ausgängen einen HDMI Sound Chip besitzt und diesen auch Installiert. Aber hatte es damit abgetan das es die 4870 eben auch mit HDMI Ausgang gibt und man ihn deswegen auch auf den non HDMI Karten drauf lässt, was ja auch logisch ist.

Habe mich dann mal schlau gemacht nach deiner Aussage, und so wie es aussieht soll das Tatsächlich möglich sein. Jedoch nicht über Standard DVI -> HDMI Adaptern, sondern nur mit Adaptern die direkt von AMD stammen.

Nur leider habe ich noch keine Bezugsquelle ausfindig machen können.
Auch bei AMD habe ich nichts direkt finden können, oder hab ich es übersehen?!

Vll. weißt du da mehr?

Das Thema ist für mich interessant, da ich vom PC auch zu meinem Wohnzimmer und Schlafzimmer das Bild schicke. Wird dann je nach bedarf übe ein HDMI Switch umgestellt wo ich das Bild haben möchte.

Nur musste ich leider ins Wohnzimmer / Schlafzimmer gleich immer ein Ton Kabel mit rüber ziehen. Und da ich keine Sound Karte mit Optischen Ausgängen habe, ist dies dann leider nur Stereo.

Also stehe ich vor der Wahl, entweder eine Graka kaufen mit HDMI, oder eine Soundkarte mit Optischen Ausgängen.

Wenn der Ton aber Tatsächlich auch über DVI übertragen werden könnte (Wenn ja , welche Formate? ) könnte ich mir die eine der neuanschaffungen sparen und könnte jeweils ein Kabel wieder entfernen (das jeweilige Ton Kabel ;) )
 
DVI und HDMI verwenden den gleichen Übertragungsstandard. Es ist also grundsätzlich auch möglich über DVI Sound auszugeben. Aus mangel an Geräten, die einem das Signal abnehmen geht das aber imho wohl nicht.

DVI auf HDMI Adapter gibts einige, normal sollte auch bei den Karten sowas beiliegen, zumindest war das bei meiner damaligen 4870 so.

Was aber problematisch sein kann an diesen Adaptern ist eben, der Treiber muss das Ausgabegerät als HDMI Gerät erkennen, tut er das nicht, so geht auch die Soundausgabe nicht.
Manche Adapter zeigen den Monitor aber als DVI Gerät im Treiber -> eben ohne Sound.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh