[Sammelthread] Grafikkarten - Technikdiskussion

Irgendwie hast recht und ich mich verhaspelt. Hat ja auch irgendwie nichts mit einander zu tun. Die Trennung in Pixelshader und Vertexshader fällt weg, aber ne TMU is kein Shader.
Ich frag mich nur grad was die dann überhaupt macht. Über die Vertexshader werden ja Eckpunkte festgelegt und dadurch die Geometrie bestimmt und über Pixelshader dann das aussehen jedes Pixels aufgrund diverser mathematischer Berechnungen, die den Lichteinfall, Schattenwurf etc. einbeziehen.
Was ne Textur ist, is ja klar. Das sind quasi die Tapeten. Also alles was über den Objekten liegt. Das können Grafiken sein, aber auch Informationen über Materialbeschaffenheit und ähnliches.
Ich forsch da mal weiter.

Danke für die Info.

Die TMU ist genau das, was ihr Name sagt: Eine Texture-Mapping-Unit ;) Grob gesagt: Wenn der Fragment Shader die Pixel letztendlich einfärbt, liefert die zuständige TMU den Farbwert der Textur am entsprechenden Texel. Sprich: Interpolation und Texturfiltering gehören zu den Aufgaben der TMU.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Btw tut das OS den Adressraum verwalten und nicht die CPU. ^^
Die CPU ist nur sowas wie Hände, Arme und Beine für das OS.
Und mir hat man hier schon erklärt, dass der Vram unabhängig vom Hauptspeicher angesprochen werden kann.

Neja das ist wohl immer so ne Sache...
Hab letztes beim Kumpel 4GB Speicher und ne 1GB HD4870 verbaut.

Im Bios gibts so ne Option "Memory Remap" oder sowas in der Art
Ohne diese Option auf ein zu stellen werden im Bios genau 3004MB angezeigt, welche auch im Windows XP 32Bit nutzbar waren.
Schaltet man diese Option auf ein, sind im Bios die vollen 4GB angezeigt, aber im Windows sinds auf einmal nur noch glatte 2GB Speicher nutzbar... :stupid:

Komischerweise sagte mir der Rivatuner Hardwaremonitor das die Grafikkarte nur 512MB Speicher hätte bei beiden Einstellungen (mehr konnte man in dem Diagramm nicht anzeigen lassen)
Lag aber vllt auch daran, das es noch die 2.10er Version (oder 2.11er) war.

Habe meinem Kumpel aber geraten in geraumer Zeit auf XP 64Bit umzusteigen, oder auf Vista 64Bit. (da er aber kein Vista mag, wirds wohl XP 64Bit werden)

Damit geht er dem Problem auf jedenfall aus dem Weg.

:wink:
Kurze frage ich will mir die 4870x2 holn hab aber nen sli mobo geht das oder muss ich mir nen cf mobo holn :confused:
http://www.alternate.de/html/product/Grafikkarten_ATI_PCIe/Gainward/Rampage700_2048MB_GS_Goes_Like_Hell/307776/?tn=HARDWARE&l1=Grafik&l2=Karten+PCIe&l3=ATI

Danke schon mal

Ne du brauchst kein CF Mobo, die X2 funktioniert auf jeglichen Mobos mit PCIe 16x Slot (weniger sollte es aber schon nicht sein, sonst gibts massiv Leistungseinbußen)
Zwei X2s funktionieren hingegen im CF nur mit nem CF Mobo, sollte klar sein ;)
 
Das Problem kenne ich! Nach einiger Vorschungen kann Windows XP nicht mehr verarbeiten. Als ich Windows von dem Problem berichtet hatte, flatterte gleich schon ein Angebot für Vista ins Haus. -.-
 
Ich hätte da mal ne kleine Frage, welche wohl nicht einen eigenen Thread benötigt:

Aktuell schaue ich mir die neuen High-End Grafikkarten von ATI und NVIDIA an.
Da fällt mir einiges auf:
  • ATI Karten sind oft trotz besserer Leistung (Vergleich von MHz-, bit-, MB- und GHz - Werten) einiges billiger?! Warum das?
    Ich denke kaum, das ATI es sich leisten kann, mit den Preisen einfach aus Spass unten rein zu hauen?! Oder übersehe ich hier einige wichtige Details?

Wenn ja, warum sollte ich mir dann noch eine NVIDIA Karte kaufen?
 
Zuletzt bearbeitet:
Ich verstehe nciht ganz worauf du hinauswillst.

Gerade bei den HighEnd-Karen ist es so.

9800+GTX und 4850 sind ewta gleich
GTX 260² und 4870 nimmt sich praktsich gar nchts
GTX 280/5 hatt keinen richtigen Gegenspieler da die 4870x2 viel schneller, aber auch teurer ist
4870x2 vs GTX 295 stell ich jetzt mal frech nebeneinander: Die eine ist billiger, die andere hat mehr Power.


Die Hersteller nehmen sich also nicht viel und seit der 88GT ist andauernder Preiskrieg; und nie war Highend so billig wie jetzt. Was allerdings stimmt ist, dass sich ATI nach eine grottigen Serie und einer Serie die nur P/L mäßig mithalten konnte endlich sehr stark zurückgemeldet hat.

NVIDIA hat (alles Imho!) die besser Treiber, möglicherweise mal paar (hardware)PhysX-Titel und bessere Alternative-AA-Modi, idR OC-Freudiger (va jetzt mit 55 nm) und den NHancer :d. (was aber nicht Ns verdienst ist ....)

ATI ist oft nen Tick billiger, von AMD (Man kann wirklich 1 Plattform laufen haben Board CPU Graka), läuft auch auf Intel-Chipsatz Boards im CF und DX 10.1 das genausoelten was bringt wie Ns PhysX atm.

Was richtig ist, ist dass sich die Technischen Daten der Karten sehr drastisch unterscheiden. ATI hat (4870) GDDR5 Speicher, N dafür ein 448 Bit (GTX 260( Speicherinterface; macht letztendlich keinen Unterschied in der rohen Bandbreite.
Das selbe Bild zeigt sich bei den Shadern, beim Ramtakt dem Chiptakt etc. Entweder man beschäftig sich damit aus Interesse oder man läßt es am besten gleich ganz sein und sieht auf die Leistung - nicht wie sich erreicht wird.
 
Man vergleich, wie schon angeklungen ist, zwei Grafikkarten beim besten Willen nicht anhand der Daten, die du beim Kaufen sehen kannst (also genau das, was genannt wurde - Speichermenge, Interface, Taktdomänen...), weil das absolut nichtssagend ist. Was über die Leistung entscheidet, ist die dahinterstehende Architektur und deren Effizienz.
 
Man kann auch noch sagen, das sich der Preis einer Karte eigentlich nicht aus der erzielten Leistung resultiert. Das ist ganz allein Marketingstrategie des jeweiligen Herstellers.

Man müsste das ganze eigentlich ein wenig oberflächlicher betrachten. Sprich GPU Preis, Komponenten Preis und Preis für das zusammenschrauben der Komponenten und der GPU.

Der Preis des PCBs und der darauf verbauten Einzellkomponenten wird sich so extrem viel nicht ändern im Vergleich zu LowEnd und HighEnd. Klar schon ein bisschen, schließlich sind mehr Schichten im PCB immer teurer als weniger, aber am Ende wird das vermutlich nicht so extrem viel ausmachen vom gesamten Herstellungspreis. Die GPU an sich schon mehr.
Denn hier zählt die größe des Chips an sich und wie viele von dehnen auf einen Wafer passen. Also indirekt der Herstellungsprozess und die Anzahl der Transistoren.
Viele große Chips erzeugen meist auch viel Ausschuss, was wiederum nochmals den Preis hoch treibt.

Schlussendlich kann man aber sagen, ein Preisvergleich an den internen Daten einer Grafikkarte macht keinen Sinn. Weil einfach andere Faktoren zählen.
Zu erwähnen wäre vllt noch, das beispielsweise das HighEnd GPUs eigentlich maßlich überteuert sich im Vergleich zu ihren kleineren Brüdern.
Als Beispiel, 280GTX und 260GTX, es kommt ein ähnliches PCB zum Einsatz, mit ähnlichen Teilen und mit der identischen CPU, rein vom Herstellungspreis unterscheiden sich beide Karten recht wenig. Für die größere Karte zahlt man aber idR deutlich mehr als für die kleinere Karte.

Als letzten Fakt fließt auch noch der Markt an sich mit in den Preis, Modelle mit zu wenig Leistung im Gegensatz zur gleichpreisigen Konkurenz werden zwangsläufig im Preis fallen.
Nach einer gewissen Zeit kann man fast schon sagen, der Preis zeigt auch die wirkliche Leistung einer Karte auf.
Als Beispiel hierfür, NV mit den G200 Karten anfänglich. Viel zu teuer im Vergleich zur Konkurenz, bei gleicher bzw. nur minimal besserer Leistung. --> NV hat die Preise massiv gesenkt und der 260GTX mehr Shader gegeben um konkurenzfähig zu bleiben (in dem Preissegment)
 
Die nächtste ATI HD5xxx X2 soll ja native dualGPU werden - ma sehen ob se damit Microruckler ganz und gar aus der welt bringen. Wäre zu hoffen - weil gegenwärtig hinterlässt CF/SLI wegen den mikroruckler problem immer nen bitteren beigeschmack.
 
Ich nehme an, dass man den Thread Scheduler bei einer nativen MGPU-Lösung - was ja eigentlich nur heißt, dass es sich um einen monolithischen Die handelt - in Hardware gießen würde. Und wenn man das macht, dann sehe ich keinen Grund, warum man da auch nicht für die entsprechende Synchronisation sorgen kann.
 
Die Frage ist doch eher, macht es Sinn eine Art Dualcore GPU zu fertigen, und hier sehe ich klar keinen Sinn drin?!

Einfach aus dem Grund, es würden dann Teile der GPU mehrfach vorhanden sein, obwohl sie nur einmal gebraucht würden.
Viel sinnvoller wäre es hierbei, einfach die ALUs, ROPs, TMUs usw. um den Faktor 2 zu erhöhen, das SI ebenso und schon hätte man die Leistung der beiden GPUs in einem DIE in ner einzellnen GPU.
Somit fällt in jedemfall das ganze Gerassel mit Multi GPU Problemen weg...
Und wie gesagt, wenn der Hersteller die Möglichkeiten besitzt so einen Riesen Dualcore DIE zu bauen, dann wäre es ebenso kein Problem (und sogar einfacher) nen einzellnen Core einfach um den Faktor 2 bei den Recheneinheiten zu verbessern.

Kann ehrlich gesagt nicht wirklich verstehen, warum die Leute immer nach Dualcore oder Mutlicore GPUs schreien. Die GPU ist schon massiv auf parallelarbeiten ausgelegt, für was also 2 oder mehr dieser schon parallel arbeitenden Dinge zusammen schalten?
Das ergibt keinen Sinn.
 
Mooooment. Das weiß ich genausogut wie du - diese Hasstiraden auf MGPU-Lösungen hab ich auch schon mehrfach geschwungen - und natürlich macht es keinen Sinn, wenn man eine elegante GPU designen möchte. Aber - und das ist der Punkt - es ist eben nicht einfacher, einen Core einfach an irgendeiner Stelle weiter aufzublasen. Da bekommst du gleich an mehreren Stellen Probleme, das geht bei den Signallaufzeiten los, mit der Notwendigkeit einer erweiterten Scheduler- bzw. MMUX-Logik weiter und endet damit, dass du letztlich das ganze Ding redesignen musst. Mehrere GPUs haben eben den Reiz, all das vergessen zu lassen. Allerdings muss man ja auch sagen, dass kein Chiphersteller so blöde wäre, einfach zwei eigenständig funktionale GPUs auf einem Die zusammenzuklatschen - da würde mit Sicherheit all das entfernt werden, was nur einmal gebraucht wird, und dann eben nur einmal implementiert. Aber, und das ist der eigentliche Punkt, du erhälst dir damit trotzdem eine höhere Ebene der Parallelität, wenn es trotzdem möglich ist, auf beiden GPU-Cores (die sie ja eigentlich nicht mehr sind, weil ein Teil der Logik fehlt, aber ... ) separat Instruktionen auszuführen. Da kann ich mir sehr spannende Softwarelösungen vorstellen, gerade aus GPGPU-Sicht.
 
Neja wenn man aber alles weg lässt was man nur einmal bräuchte, dann hätte man im Grunde zwei mal die Recheneinheiten + einmal die Logikeinheiten, welche für die Anbindung und für das Kommunizieren untereinander gebraucht werden würden.
Ergo, man hat ne einzellne GPU mit doppelten Recheneinheiten und mit doppelter Leistung...

Hat also quasi nicht mehr wirklich viel mit Dualcore GPU zu tun, und genau darauf will ich hinaus. Es denken doch die meisten, ja wenn das bei CPUs klappt, dann geht das bei GPUs auch. Also einfach zwei zusammen klatschen und schon hat man doppelte Leistung... NENE, so einfach ists dann doch nicht.
Und das will ich ja damit sagen, eine GPU mit doppelten Recheneinheiten so wie du sie beschreibst, wäre dann im Grunde keine Dualcore GPU mehr. ;) sondern eben eine GPU mit doppelten Recheneinheiten.
Wie intern die Verteilung der Last geregelt wird, ist dabei wohl erstmal egal.

Rein aus logischer Sicht meiner seits stelle ich es mir aber schwieriger vor, zwei GPU Teile von xxx ALUs nebeneinander am gleichen Bild rechnen zu lassen (bzw. machen sie ja gar nicht, sie rechnen ja wohl 2 unterschiedliche Bilder), als xxx*2 ALU.
Denn bei letzterem kommt, sofern die Last gut verteilt werden kann und alle ALUs ausgelastet werden können immer die doppelte Leistung raus. Bei ersterem gibts wiederum Nachteile...
Vor allem, steigt die Anzahl der GPUs wenn man so will, dann steigt auch die Zahl der vorrausberechneten Bilder, was eine schlechte Skalierung mit sich zieht usw.

Wie gesagt, das weit größere Problem bei den GPUs ist doch die Herstellung solche über GPUs, ob das nun zwei Dualcore GPUs wären oder eine aufgeblähte Single GPU macht den Kohl nicht Fett.
 
Warum gibts noch immer die sinnlose FPS anzeige(z.B. durschnitt) statt Frameverläufe

EDIT: Vl gleich thema eröffnen
 
Zuletzt bearbeitet:
Die Frage versteh ich nicht. Was hat das mit Technik zu tun? Und die Antwort ist doch relativ klar - weil sich Frameverläufe bedeutend schlechter vergleichen lassen als absolute Werte.
 
Es gibt viele PSeudo systeme mit deren ergebnis, wenn du nur 1 Zahl siehst, was willst du daraus herausleiten?

Die Frage auf Thema hat sich gerade erledigt
 
Hab da mal ne (vielleicht dumme) Frage. Ich habe einen 30` mit 2560x1600 und einen 24`mit 1920x1600 zu bedienen. Konnte das bisher mit Spielekarten nicht bewerkstelligen.

Leider sind bei den Grafikkartentests meist nicht die möglichen Auflösungen genannt. Gibts da inzwischen was bei den Highendkarten? Will kein SLI. Z. Zt. fahre ich das System mit einer ATI Fire GL V7200.

Die hat jedoch nur 256MB Speicher was z. B. ein Betreiben des MS Flightsimulator in voller Auflösung nicht ermöglicht (da bleiben dann nur noch 5 FPS oder weniger).
 
Verstehe ich jetzt nicht?

Denkst du jetzt weil in den Tests diese Auflösungen nicht vorhanden sind, dass die Karten das nicht können?
 
Ich denke er meint, dass in Tests nicht angegeben, bzw nicht getestet wird, welche Auflösungen parallel möglich sind.
Nun will er wissen, welche Grakas parallel 1920x1600 und 2560x1600 darstellen können.

Ich persönlich kann da leider auf keine Erfahrungswerte zurückgreifen. Ich denke aber, dass eigentlich alle aktuellen Karten das können sollten... :confused:
 
tun sie auch...
aber vllt ist das mit der FireGL ein wenig anders... wobei, gerade da müsste das auf jedenfall gehen.

Wie äußert sich denn das Problem, gibts die Auflösung nicht in der Liste oder kannst du sie eindrehen aber es kommt kein Bild?
 
Deswegen hab ich mir ja die Fire zugelegt weil die damals (vor etwa 3 Jahren) aktuelle Highend ATI Graka den 30 zöller nicht bedienen konnte.

Auf meinem Spielerechner hab ich ne nvidia 8800GT. Ich glaub die schafft die Auflösung auch nicht. Bei SLI würde es funzen nur dann kann ich nur einen Monitor betreiben.

Die Fire ist eine CAD-Karte und nicht zum spielen geeignet (nur 256MB). Bei einer Auflösung von 2560x1600 hab ich dann ne diashow.
 
Zuletzt bearbeitet:
Deswegen hab ich mir ja die Fire zugelegt weil die damals (vor etwa 3 Jahren) aktuelle Highend ATI Graka den 30 zöller nicht bedienen konnte.

Auf meinem Spielerechner hab ich ne nvidia 8800GT. Ich glaub die schafft die Auflösung auch nicht. Bei SLI würde es funzen nur dann kann ich nur einen Monitor betreiben.

Die Fire ist eine CAD-Karte und nicht zum spielen geeignet (nur 256MB). Bei einer Auflösung von 2560x1600 hab ich dann ne diashow.

Das da das spielen nicht geht mit der Karte liegt aber nicht am VRam sondern eher das es ne FireGL ist, die generell nicht zum Spielen taugt.

Aber wie vorhin schon mal gesagt, wie äußert sich das denn?
Geht das nicht mal einzustellen oder kannst du die Auflösung eindrehen aber es kommt kein Bild?

Und nein, mit SLI gehen auch mehrere Monitore, genau so wie bei CF auch.
Im übrigen, wenn du mit SLI die Auflösung fahren kannst, dann geht das auch mit ner einzellnen Karte.
 
das äußert sich so:
Ich bekomme natürlich mit der Fire 2560x1600. Spiele ich den MSFS im Fenstermodus und verkleinere das MSFS-Fenster bei einer Auflösung von 2560x1600 auf etwa 1280x1024 hab ich +- 6o FPS. Geh ich auf 2560x1600 funzt das Spiel auch nur eben mit 5 FPS oder weniger. Thats the problem lol.
 
das äußert sich so:
Ich bekomme natürlich mit der Fire 2560x1600. Spiele ich den MSFS im Fenstermodus und verkleinere das MSFS-Fenster bei einer Auflösung von 2560x1600 auf etwa 1280x1024 hab ich +- 6o FPS. Geh ich auf 2560x1600 funzt das Spiel auch nur eben mit 5 FPS oder weniger. Thats the problem lol.

Achso also geht ja die Auflösung prinzipiel erstmal einzudrehen...
Dein Problem ist aber wohl die Karte an sich. Die FireGL V7200 basiert auf der GPU der X1800XT (hat aber weniger Takt als diese)
Sprich du hast quasi ne Karte die es seit dem Oktober 2005 gibt im PC.

Wie gesagt, ein weiterer Punkt gegen die FireGL ist, das die Dinger wie die Quadros von NV nur bedingt zum spielen taugen...

Ich würde dir eher nahelegen, eine neuere Karte zu besorgen. FSX ist nicht gerade wenig Anspruchsvoll und knabbert auch gut am VRam.
 
Jetzt sind wir am Punkt. ) In Tom´s Hardwaretest wurden mal verschiedene Karten für den FSX getestet. Da der FSX sehr hardwarelastig ist hat damals die nvidia 9800GTX weit teuerere Karten geschlagen und war die Nr. 1 für den FSX.

Nun meine Frage nochmals: Bedient die 9800GTX einen 30` mit 2560x1600 + einen 24` mit 1920x1200?
 
Jup das sollte gehen...
Du kannst theoretisch 2560x1600 an beiden Ausgängen fahren, hab das selbst zwar noch net getestet, aber bei den neuen Karten sind immer Duallink DVI Ports verbaut, sprich die packen beide die max. Auflösung...
 
das kann nicht mal die Fire lol. Mir würds ja schon genügen, wenn ein Ausgang die hohe Auflösung könnte.
 
hi, heut is meine evgta 9800gtx+ angekommen, und ich hab mit staunen festgestellt, dass sie nur einen 6-poligen stromanschluss hat...is das normal? dachte bis jetzt, dass alle 9800gtx+ modelle 2x 6-poligen anschluss hat...

bitte um hilfe
 
hi, heut is meine evgta 9800gtx+ angekommen, und ich hab mit staunen festgestellt, dass sie nur einen 6-poligen stromanschluss hat...is das normal? dachte bis jetzt, dass alle 9800gtx+ modelle 2x 6-poligen anschluss hat...

bitte um hilfe

Wenn sie nur einen hat, dann wird das wohl so richtig sein...
 
http://www.sysprofile.de/id97896
das is mein profil

hab ne gtx 295 mit backplate (nich wirklich empfehlenswert für locker 50€ mehr)
wollte euch nur mal sagen das es sich meiner meinung nach mehr lohnt einmal tiefer in
die taschen zu greifen und zukunftssicher zu investieren
denn das teil hat echt power
ich muss aber gestehen das ich in der überlegung war mir nen 3 tri sli mit einer gtx 260 zu machen meint ihr meine entscheidung war richtig?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh