Sind Matrox-Grafikkarten SLI-fähig

Daylights

Neuling
Thread Starter
Mitglied seit
17.09.2010
Beiträge
21
Ich habe da mal eine ganz allgemeine Frage: Sind Matrox-Grafikkarten SLI-fähig? Leider habe ich dazu weder im Benutzerhandbuch noch im Internet Infos gefunden.

Habe zwei alte Matrox Millennium P650 PCIe und ein Motherboard, in das man zwei SLI-fähige Karten einsetzen kann.

Würden die beiden Karten im SLI-Betrieb funktioniern? (Will natürlich nur einen Monitor anschließen.)

Vielen Dank für eure Antworten und Hilfe.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nein können sie nicht.
Du kannst 2 Matrox Grakas in dein System bauen damit du mehr Monitore anschließen kannst aber nicht zur Leistungserhöhung.
 
Es geht rein um die Leistungsverdopplung und nicht um Multimonitoring; schließlich lassen sich an den P650 ohnehin schon zwei Monitore anschließen.

Das SLI = nViDIA ist (bzw. Cross-blabla [fällt mir gerade nicht ein] = ATI, hatte ich gelesen.
Hatte aber nichts gefunden, ob man so etwas auch mit Matrox-Karten machen kann ...

Da jede Grafikkarte nur 128 MB hat, wollte ich so die Leistung steigern. Habe die Karten nicht extra gekauft; die sind halt übrig. Und bevor mal wieder alles auf dem Elektomüllhaufen ladet, dacht' ich halt, es wäre eine Möglichkeit ...
 
Da jede Grafikkarte nur 128 MB hat, wollte ich so die Leistung steigern. Habe die Karten nicht extra gekauft; die sind halt übrig. Und bevor mal wieder alles auf dem Elektomüllhaufen ladet, dacht' ich halt, es wäre eine Möglichkeit ...



Das ist ein Trugschluss, auch im SLI/CrossFire hat jede Karte weiterhin nur ihren verbauten Speicher zur Verfügung. Er wird NICHT verdoppelt!:wink:


Lg

Eagle
 
Die Leistung hängt nicht nur von der Speichermenge ab, und wofür möchtest du die Leistung verdoppeln.

Das Wort Leistung kann sehr Facettiert unterteilt werden.

Zum Beispiel: Leistung in "3D" Anwendungen.
Leistung in echten 3D Anwendungen.
Leistung in 2D Anwendungen.
Leistung im Sinne von Multimonitoring.
Leistung im Sinne von Preis/Verbrauch/Eine der Oben genannten Kriterien.


Ansonsten lass die Karten im Schrank, man kann nie wissen was in 10 Jahren bei ebay n´haufen Knete bringt :bigok: .

Grundsätzlich wenn du Spiele in höheren auflösungen/höheren Detail´s spielen willst, frag einfach was mit welchem Budget möglich wäre.

Villeicht findet sich ja was passendes :wink: .
 
Das ist ein Trugschluss, auch im SLI/CrossFire hat jede Karte weiterhin nur ihren verbauten Speicher zur Verfügung. Er wird NICHT verdoppelt!

Soweit schon klar, aber teilen sie sich nicht die zu berechnenden Daten? Habe gelesen, dass die eine Karte die geraden Zeilen, die andere Karte die ungeraden Zeilen berechnet. Klingt ja erstmal nicht unlogisch, ob's stimmt? Ich bin kein IT-Spezialist ...

Hab gedacht, die Leistung zum spielen zu steigern und mir somit den Kauf einer neuen Grafikkarte zu sparen :d

Wenn das jedoch nicht geht, muss eben 'ne neue Grafikkarte her.
Da der PC schon älter ist (ca. 3 Jahre) und ich eh' kaum zum spielen komme (sprich: viel Geld ausgeben lohnt sich nicht), wird es wohl eine Radeon 5470 oder 5570 mit 1 GB Ram.
 
Zuletzt bearbeitet:
Jede Karte muss die gleichen Daten im VRAM liegen haben, egal ob bei SLI oder CrossFire.
 
Also wegwerfen würd ich ne Matro nicht. Sind eigentlich immer was Wert und wer weiss ob du nicht später doch nochn haufen Bildschirme anschliessen willst. :)
 
Soweit schon klar, aber teilen sie sich nicht die zu berechnenden Daten? Habe gelesen, dass die eine Karte die geraden Zeilen, die andere Karte die ungeraden Zeilen berechnet. Klingt ja erstmal nicht unlogisch, ob's stimmt? Ich bin kein IT-Spezialist ...

Hab gedacht, die Leistung zum spielen zu steigern und mir somit den Kauf einer neuen Grafikkarte zu sparen :d

Das stimmt so nur zum Teil.
Es gibt verschiedene Rendermodi, wlche gefahren werden. Im SFR Modus rendern beide Karten (oder halt mehr) am selben Bild. Sprich das Bild wird aufgeteilt. Ein Prozess splittet das zu berechnende Bild in etwa in zwei/oder halt mehr Teile. Das ganze sollte möglichst so stattfinden, das alle GPUs in etwa gleich viel zu tun haben um möglichst gut mit der Anzahl (der rechnenden GPUs) zu skallieren.
Leider klappt das ganze so scheinbar nicht sehr gut. SFR kommt sehr selten zum Einsatz und skalliert auch nicht sonderlich schön. Aber bietet auch einige Vorteile, beispielsweise das Wegfallen von Microrucklern, da es nicht zu unterschiedlichen Frametimes kommen kann.
Andererseits gibt es noch ähnliche Verfahren zu SFR, wo ebenso das Bild in verschiedene Teile zerhackt wird. (beispielsweise wie du gesagt hattest, ein zerhacken des Bildes zeilenweise/spaltenweise oder im Karomuster über das Bild usw.)
Nachteil beim SFR wäre noch, Effekte (beispielsweise Rauchentwicklung) welche sich über die verschieden zugewiesenen Bildbereiche verschiedener GPUs erstrecken, müssen alle samt von jeder GPU komplett berechnet werden. Da eben das Bild am Ende auch zusammen passen muss. Da diese Effekte sehr oft auftreten, und es quasi fast immer zu Überschneidungen dieser mit anderen zugewiesenen Bereichen von anderen GPUs kommt, wird die Sache schnell recht ineffizient.

IdR wird AFR als Modus gefahren. Alternate Frame Rendering bedeutet, jede GPU berechnet ein eigenes Bild. Bei zwei GPUs wird also die erste das aktuelle Bild berechnen und die zweite das möglicherweise darauffolgende. AFR skalliert mit der Anzahl der GPUs sehr gut. Leistungszuwächse von 90% und mehr sind da keine Seltenheit. (zumindest bei zwei GPUs. Um so mehr GPUs, um so schlechter lässt sich die Berechnung durchführen, einfach weil man nie genau vorraussagen kann, was auf dem nächsten Frame zu seinen sein wird, da Benutzerabhängig)
Problem ist halt, es entstehen oft unterschiedliche Frametimes zwischen den Bildern, was in Microrucklern enden kann.


Unterm Strich bringt dir das aber alles nix, da Matrox diese Techniken so nicht beherscht. Mal ganz davon ab, das Matrox Karten fürs spielen sowieso eher ungeeignet sind, einfach weil Matrox keine Gamerkarten baut.
Je nach Geldbeutel läuft das ganze auf ner AMD/NV Karte sowieso besser als auf Matrox. Da hätten auch zwei von Matrox nix gebracht. ;)
 
Zuletzt bearbeitet:
Da jede Grafikkarte nur 128 MB hat, wollte ich so die Leistung steigern.

:p du hättest, sofern sie denn SLI unterstützen würden EBENSO 128MB,
da es bisher noch kein Hersteller geschafft hat nur die zu rendernden Daten
in den Zwischenspeicher der einzelnen Karte zu packen.
Somit müssen beide Karten IMMER den identischen Inhalt im VRAM haben.

Kurzum: 2x 128MB @SLI/CF = 128MB :lol:

Edit: ah oben stehts schon, überlesen.. ;)
 
da es bisher noch kein Hersteller geschafft hat nur die zu rendernden Daten
in den Zwischenspeicher der einzelnen Karte zu packen.
Somit müssen beide Karten IMMER den identischen Inhalt im VRAM haben.

Das wäre das geringste Übel... Mal ganz davon ab, der der Part des Speicherverbrauchs im Gegensatz zu den Texturdaten nur sehr klein ist.
Problematisch sind die Texturen. Egal in welchem Rendermodi die Karten arbeiten würden, sie brauchen beide vollen Texturzugriff. (wobei man im SFR Modus sicher da auch nur teile der Textur einlagern könnte)

Wenn es also irgendwann mal soweit kommt, das man das ganze trennt, brauch man in jedem Fall noch einen shared Texturcache.
Potentiell sicher auch machbar, aber in meinen Augen ist im Moment die Anbindung eines derartigen Speicherbereichs an beide GPUs mit der benötigten Geschwindigkeit das Problem.
Der kostengünstigere und einfachere Weg ist also über die aktuelle Lösung.

Mal ganz davon ab, wenn man die Texturdaten auslagern würde, so wäre es nicht mehr machbar einfach zwei gleiche Karten von der Stange im CF/SLI zusammen zu betreiben ;) Denn eine Karte müsste diesen Cache haben und die andere kann drauf verzichten.
Allesfalls wäre also so eine Lösung für Dual GPU Karten erstrebenswert. Nur ob der Aufwand lohnt sowas zu entwickeln? Ich denke nicht... Der Markt ist viel zu klein...
 
Wow, da hab' ich mal wieder was dazu gelernt!
Und das Beste, meine Frage wurde auch beantwortet!

Also: Matrox-Karten ab in den Schrank und neue Grafikkarte gekauft.
Dachte, wie bereits erwähnt, an eine Radeon 5470 oder 5570 mit 1 GB Ram.
Vielleicht kann mir noch jemand beantworten, was die unterschiedlichen Speicherbus-Angaben bedeuteten; also 64 bit, 128 bit etc. und ob das bei einem ältern PC von Bedeutung ist.

Hier mal die Eckdaten:
CPU: AMD Athlon64 X2 4600+
Motherboard: Abit AN9 32X
Netzteil: 550 W von beQuiet
RAM: 2 x 1024 MB DDR2 von Kingston
Festplatte: WD Raptor, 150 GB
GPU: Matrox Millenium Pentium 650 PCIe, 128 MB
Zusätzlicher Lüfter auf der CPU (Zalman CNPS 9500)

Das war mal ein PC für Grafikarbeiten (Photoshop, InDesign etc.), daher auch die Matrox-Karte.
Wenn jemand noch 'nen Tipp - ich freu mich!
 
Mal ganz davon ab, wenn man die Texturdaten auslagern würde, so wäre es nicht mehr machbar einfach zwei gleiche Karten von der Stange im CF/SLI zusammen zu betreiben ;) Denn eine Karte müsste diesen Cache haben und die andere kann drauf verzichten.
Allesfalls wäre also so eine Lösung für Dual GPU Karten erstrebenswert. Nur ob der Aufwand lohnt sowas zu entwickeln? Ich denke nicht... Der Markt ist viel zu klein...

:shot: das hatten wir schon mal, war selbst stolzer Besitzer einer X1900 CF und einer X1900XT jeweils 512MB :shot:
Die Kabelpeitsche kam damals kostenlos von AMD aus Amerika per Luftpost,
KOSTENLOS! :fresse2:

Aber hast schon recht, der Markt ist zu klein, die Texturcachelösung wäre allenfalls bei einer DualGPU auf einem PCB interessant.

Ich glaube aber die Zukunft geht in Richtung Multicore bei GPUs, also nichts anderes als man bei CPUs zur Zeit auch macht. :angel:


@Daylights
Was willste denn nun machen? Zocken?
wenn ja, was?
Ich würde bei dem System vielleicht in Richtung HD5670 oder HD5770 gehen,
54 und 55 sind doch eher Officekarten :p
Kurz zum Speicherinterface, größer ist eigentlich besser also zwischen 64 und 128 Bit sind definitiv 128 zu bevorzugen, ein Interface über 256Bit ist
noch zu vernachlässigen, sieht man an NVIDIA :lol:
 
Was willste denn nun machen? Zocken?
wenn ja, was?
Jo, genau. Allerdings spiel ich nur noch ganz selten. Deshalb spiel ich manchmal diese Casual-Games. :( - Wenn du schon vorher weißt, dass du nur 1 oder 2 Stunden Zeit zum spielen hast und die nächsten 1 - 2 Wochen gar nicht, lohnt es sich einfach nicht, ein "großes" Spiel anzufangen. Da weißt du gar nicht mehr, was du zuletzt gemacht hast und was du als nächstes machen wolltest ...

Mit diesem etwas "modernern" PC - ist mein ausrangierter Grafik-PC - hatte ich gedacht, mal Gothic 3 zuende zuspielen - das ruckelt nämlich auf meinem jetzigen PC. Klar, dafür braucht man keine 1GB GPU.
Also eher Rollenspiele. Two World 2 oder der Nachfolger von Gothic 3 würde mich auch interessieren. Allerdings steht im Wohnzimmer noch eine PS3 und da die Spiele auch für die Konsolen erscheinen ...

Lange Rede, wenig Sinn: ich will den PC nicht für die Zukunft rüsten. Wenn mal 'nen Spiel nicht läuft, ist das kein Beinbruch. Allerdings ist eine 128 MB GPU heutzutage völlig unterdimensoniert.
 
Die Speichermenge sagt nichts über die Leistung aus. Bevor deine genannte Karte den Speicher wirklich vollmacht ist die GPU mit ihrer Leistung am Ende. Sowelche Karten werden trotzdem gerne verkauft, weil unwissende Kunden in diesem Glauben die Karten kaufen.


Hier ein älterer Test der das aber ganz gut zeigt:

http://www.hartware.de/review_788_12.html

Dein Budget liegt in etwa in dieser Leistungsregion, wie die alte 8800GT(=9800GT) daher sind 512MB vollkommen ausreichend.

http://www.computerbase.de/artikel/...adeon-hd-5570/12/#abschnitt_performancerating
 
Zuletzt bearbeitet:
Dein Budget liegt in etwa in dieser Leistungsregion, wie die alte 8800GT(=9800GT) daher sind 512MB vollkommen ausreichend.

Ich les nix von nem Budget? :eek:

Aber man könnte genauso sagen es reicht für ne HD4850 oder HD4870,
ich würd einfach nach der letzten Generation schauen, vielleicht auch mal hier im Markplatz, da is man dann auch net ganz so weit ab vom Grafikschuss. :shot:

Ansonsten hat G3cko schon recht, lieber 512MB GDDR3/5 VRAM als 1GB DDR2 ums mal hart auszudrücken.
Speicher ist für die Texturen da, hohe Auflösung viele Details und schon braucht man Speicher, wobei dann auch kein langsamer Speicher zur langsamen GPU was bringt, es ist ein Teufelskreis... :hail:
 
es reicht für ne HD4850 oder HD4870,
Macht die 5xxx-Serie sinn? Die sind DirectX 11-fähig und da ich überlege kurz- bis mittelfristig auf Windows 7 umzusteigen ... Ja, ich weiß, bisher gibt's kaum Spiele und die, die es gibt laufen wahrscheinlich eh nicht auf meinem System ... aber das kann sich ja auch ganz schnell ändern - oder liege ich da völlig falsch? Denn ich hatte gedacht, die nächsten zwei Jahre diesen PC zu nutzen.

Deshalb hatte ich mir dieses Exemplar ausgesucht: ALTERNATE - HARDWARE - Grafikkarten - PCIe-Karten ATI - Radeon HD5000 - Sapphire HD5550
 
Ich glaube aber die Zukunft geht in Richtung Multicore bei GPUs, also nichts anderes als man bei CPUs zur Zeit auch macht. :angel:

Warum kommen bei dem Thema alle immer auf Dual/Multicores bei GPUs?
Das macht wenig Sinn. Denn eine total auf paralleles Arbeiten ausgelegte Gesamteinheit wie es eine GPU ist mehrfach auszuführen macht grundsätzlich erstmal wenig Sinn. Man müsste in dem Fall Einheiten die nur einmal gebraucht werden auch doppelt auslegen...
Wenn man das ganze nun rein auf die Recheneinheiten runterbricht, so kommt man zu dem Punkt wie sie ihn heutige GPUs schon bewältigen. Man hat xxx ALUs, yyy TMUs, zzz ROPs usw. Das was nur einmal gebracht wird, ist auch nur einmal da. Beispielsweise die Anbindung der Ausgabegeräte oder von mir aus auch der Speichercontroller ansich... (grundsätzlich zumindest als Gesamtbild gesehen)
So und ob ich nun xxx ALUs in Core 1 und xxx ALUs in Core 2 zusammen auf einem DIE unterbringe und diese Cores durch umständliche Logic miteinander Rechnen lasse kann ich doch auch gleich 2*xxx ALUs in einem Core integrieren. Rein von der DIE Fläche her spart man absolut gar nix. Ich denke sogar man muss minimal was drauf packen.

Unterm Strich bleibt also, Dual/Multi Cores bei GPUs macht wenig Sinn...

Ansonsten hat G3cko schon recht, lieber 512MB GDDR3/5 VRAM als 1GB DDR2 ums mal hart auszudrücken.
Speicher ist für die Texturen da, hohe Auflösung viele Details und schon braucht man Speicher, wobei dann auch kein langsamer Speicher zur langsamen GPU was bringt, es ist ein Teufelskreis... :hail:

Das kommt massiv auf die Anwendung an, in gängigen Games mag das durchaus hinkommen. Aber es gibt auch genügend Beispiele wo das nicht so sein muss. Denn mehr Speicher ist idR immer besser als weniger schneller Speicher. Sofern dieser zwingend von der Anwendung benötigt wird. Letzteres entkräftet das Argument aber ein wenig, denn selbst 512MB sind aktuell immernoch halbwegs zeitgemäß. Geht man halt mit den Details bisschen runter. Rein objektiv betrachtet hat die GPU Geschwindigkeit pauschal keine Abhängigkeit von der Speicheranbindung, da massiv Anwendungsabhängig.
 
Klar macht die Sinn. Ich persönlich habe mir letztens die hier geschossen: ALTERNATE - HARDWARE - Grafikkarten - PCIe-Karten ATI - Radeon HD5000 - Sapphire HD5670 DP

Ist fast baugleich zur 5550, hat etwas mehr GPU Takt, mehr Speicher-/-takt (1GB) und damit kann man sogar Dirt2 spielen :d Ich würde dir auch 1GB Videospeicher empfehlen, gerade wenn du sie noch ein Weilchen benutzen willst. Bedenke jedoch, dass sie unter Last 20W mehr benötigt. Lauter, als die die du dir ausgesucht hast, ist sie aber nicht.
 
Denn mehr Speicher ist idR immer besser als weniger schneller Speicher. Sofern dieser zwingend von der Anwendung benötigt wird. Letzteres entkräftet das Argument aber ein wenig, denn selbst 512MB sind aktuell immernoch halbwegs zeitgemäß. Geht man halt mit den Details bisschen runter. Rein objektiv betrachtet hat die GPU Geschwindigkeit pauschal keine Abhängigkeit von der Speicheranbindung, da massiv Anwendungsabhängig.

Nix anderes habe ich gesagt. Wenn ich mir sein System anschaue und auch seinen ersten Vorschlag(Budget), dann sind 1024MB einfach zuviel, weil die Karte zu langsam wäre um den gesamten Speicher je zu nutzen.

Auch wäre eine 5870 oder der gleichen zu viel für sein System, von daher war es nur eine grobe Peilung und Hinweis für ihn, weil er sehr Speicherfixiert war. Also Speicher=Leistung, was ja nicht stimmt.

Also lieber den Aufpreis bei einer Grafikkarte für mehr Speicher sparen und dafür das Geld in die nächst schnellere Grafikkarte mit weniger Speicher stecken. :bigok:

Also lieber eine 5670 mit 512MB anstatt eine 5570 mit 1GB. Die 5670 ist 30% schneller als die 5570.
Test: ATi Radeon HD 5570 (Seite 12) - 09.02.2010 - ComputerBase

Aber bei deinem Budget, ich schätze mal liegt so bei 60-70€, lohnt es sich nicht in eine DX11 Karte zu investieren, da die Leistung einfach nicht ausreicht um DX11 in Spielen wirklich zu nutzen.

Halte lieber ausschau nach einer gebrauchten 8800GT, 8800GTS, GTX260, oder 4850, 4870. Die können zwar kein DX11, aber am Ende bekommste deutlich mehr Leistung für dein Geld.
 
Nix anderes habe ich gesagt. Wenn ich mir sein System anschaue und auch seinen ersten Vorschlag(Budget), dann sind 1024MB einfach zuviel, weil die Karte zu langsam wäre um den gesamten Speicher je zu nutzen.

Das ist aber absoluter Quatsch... Weil die Leistung der Karte bzw. der GPU im allgemeinen nix mit der Speichergröße zu tun hat.
Es kommt eben auf die Anwendung an. Anwendung A profitiert massiv von mehr Speicher, Anwendung B gar nicht.
Es gibt durchaus auch Anwendungen wo eine kleine 9400GT mit 1GB RAM die großen 260GTX Karten abziehen könnte...

Das Thema hatten wir damals schon zu Zeiten G80/R600. Es beschwerte sich jemand das in seiner Simulationssoftware mit dem 2900XT 512MB gegen einer X1950XTX absolut gar kein Performancegewinn drin war, obwohl viele vorher sagten da gibts ein gutes Stück an Mehrleistung. Und was war? Die Simulation war massiv VRAM limitiert... Abhilfe schaffte dann die 1GB R600...
 
Das ist aber absoluter Quatsch... Weil die Leistung der Karte bzw. der GPU im allgemeinen nix mit der Speichergröße zu tun hat.
Es kommt eben auf die Anwendung an. Anwendung A profitiert massiv von mehr Speicher, Anwendung B gar nicht.

Ich habe oben doch einen netten Test verlinkt der das auch bestättigt. Klar hängt die Leistung nicht direkt mit der Speichermenge zusammen, aber meine Aussage ist ja nicht Falsch. Wenn die GPU nur noch 15fps zusammenbekommt kann man es nicht mehr spielen nennen. Und zum zocken soll die Karte sein.

Du musst mal dein Fachwissen so zusammenschreiben, dass es auch der Threadersteller versteht und auch auf seine Fragestellung/ Bedürfnisse eingegangen wird. Wenn du nur andere Aussagen, die aber im Kern richtig sind zerpflückst und es dem Threadersteller nicht weiterhilft hast du nichts erreicht.

Es gibt durchaus auch Anwendungen wo eine kleine 9400GT mit 1GB RAM die großen 260GTX Karten abziehen könnte...

Weil du ja so genau beim Zitieren bist hätte ich gerne ein Beispiel. Egal was, hauptsache einen Bench! Muss nicht abziehen sein, da reichen mir 10% vollkommen. ;)

Wenn du das nicht findest bestätigt das nur, dass dieses könnte, hätte, aber, vielleicht, in eventuellen Extremsituationen - total zuvernachlässigen ist und der Standard-VRam einer Grafikkarte für 99% aller User, besonders für welche die nur ein wenig daddeln wollen ausreichend ist! :shot:
 
Ich habe oben doch einen netten Test verlinkt der das auch bestättigt. Klar hängt die Leistung nicht direkt mit der Speichermenge zusammen, aber meine Aussage ist ja nicht Falsch. Wenn die GPU nur noch 15fps zusammenbekommt kann man es nicht mehr spielen nennen. Und zum zocken soll die Karte sein.

Lies dir nochmal genau durch, was ich im vorherigen Post fett markiert habe...
Einerseits bestätigst du meine Aussage, andererseits kommst du mit, deine Aussage ist nicht falsch!?

Und nein, eine Aussage wie 1024MB sind zu viel für die Karten weil die Leistung der GPU nicht ausreicht um diese voll zubekommen ist eben totaler quatsch. Es steht nirgendwo geschrieben, um welche Software es sich im Detail handelt. Ergo bringst du hier eine Paschalaussage, die genau so gut nach hinten losgehen kann.
Und genau das gehört richtig gestellt bzw. zumindest angemerkt...

Wenn du nur andere Aussagen, die aber im Kern richtig sind zerpflückst und es dem Threadersteller nicht weiterhilft hast du nichts erreicht.
Damit erreiche ich sehr viel, nämlich das inhaltlich falsche Aussagen bzw. Pauschalaussagen die eben nicht immer zutreffen, richtig gestellt werden. Ob das dem Schreiber dieser Aussagen nun passt oder nicht ändert nix daran, das diese richtig gestellt gehören.

Weil du ja so genau beim Zitieren bist hätte ich gerne ein Beispiel. Egal was, hauptsache einen Bench! Muss nicht abziehen sein, da reichen mir 10% vollkommen. ;)

Wenn du das nicht findest bestätigt das nur, dass dieses könnte, hätte, aber, vielleicht, in eventuellen Extremsituationen - total zuvernachlässigen ist und der Standard-VRam einer Grafikkarte für 99% aller User, besonders für welche die nur ein wenig daddeln wollen ausreichend ist! :shot:

Ich habe dir oben schon ein Beispiel gegeben. Nutz die SuFu hier im GPU Luxx, dann wirst du den Thread finden...
Mal ganz davon ab geht es hier nicht darum irgendwas beweisen zu müssen, sondern um das klarstellen von Aussagen, welche pauschal eben nicht immer richtig sein müssen ohne zu wissen was überhaupt im Detail gemacht werden soll.
Im übrigen sprach der TE auch Photoshop und andere Tools an. Mit GPU Beschleunigung oder anderen Rendertechniken der verschiedenen Programme und Plugins kann auch der VRAM schnell überfüllt werden beispielsweise. (beispielsweise deshalb, weil wir nicht wissen was genau im Detail)
Hier zu sagen, brauchst du nicht, ist da leider der falsche Weg... Wenn du es nicht brauchst, ist das OK, wenn das 90% aller anderen ebenso nicht tun, dann auch. Aber weist du ob der TE es nicht vllt doch braucht!?
 
Zuletzt bearbeitet:
Zuerst einmal @G3cko und @fdsonne: Bitte nicht die Köppe einschlagen; vielen Dank für die Hilfe und Engagement.

Dann noch mal zum Thema wofür das System genutzt wird: es war ein Grafik-PC (ist mein alter Arbeitsrechner) -- und, sorry, dass muss ich jetzt mal los werden mein neuer Grafik-PC ist inhaltlich sehr schick mit i7-930-Prozessor, 8 GB RAM und einer nvidia quadro FX1800 :d etc. etc.
Nun wird der alte Grafik-PC nur noch zum spielen genutzt werden. Photoshop & Co. bleiben zwar drauf aber nicht um damit "wirklich" zu arbeiten und daher völlig zu vernachlässigen. Da ich mit meinem jetzigen Spiele-PC Gothic 3 nicht mehr zuende spielen mochte (ruckel, schnarch) würde ich das mal zuerst spielen. Ruckelnd und langsam liefe das Spiel auf einem 1-Kern-Prozessor AMD 3800+ (oder so) mit 2 GB RAM und einer GT6xxx ??? mit 128 MB. Also sollte das mit dem "neuen" alten Grafik-PC und mit der HD5550 kein Problem sein. ?
Spore hab' ich letztlich angefangen; das läuft zwar ... aber die Details :( ... sollte dann also auch spielbar sein.

Hab' mir mal angeschaut, was so verschiedene neuere Spiele, die mich interessieren würden, für Systemanforderungen haben und ich denke, dass ich mit der HD5550 zurecht kommen sollte. Sprich, nicht jedes Spiel muss ich mangels GPU direkt wieder aus der Hand legen. Und dann steht da ja noch die PS3 im Wohnzimmer mit dem 46" Fernseher ... also, wenn mal ein Spiel nicht läuft, wäre da ggf. noch eine Option. Wenn's das Spiel für die PS3 nicht gibt, ist das auch noch so.

Bin Anfangs von einem Budget um die 90,- € ausgegangen. Zwischenzeitlich bin ich aber der Meinung, dass es sich weder für den PC noch für mich lohnt "so viel" auszugeben. Denke, dass ich, auch Dank eure Hilfe und eurer Denkanstöße, eine Grafikkarte gefunden habe, die ein gutes und für mich sinnvolles Preis-Leistungsverhältnis bietet.
 
Wenn es dir um Gothic 3 geht, dann nimm ne NV Karte mit um die 1GB RAM ;)
Gothic vor allem mit ein wenig ini tuning verbraucht streckenweise über ne gute Ecke 1GB VRAM ohne Probleme. Auf AMD Karten läuft das sehr bescheiden. Ich hab es damals auf ner X1950Pro, auf ner 2900XT und auf ner HD4870 512MB probiert. Ging zwar aber nicht sehr schön.
Mittlerweile mti der 470GTX mit 1280MB gehts brauchbar und gut ;)
 
Also ich schlage mir ja ungerne die Köpfe mit Jemand anders ein, aber langsam hackts glaube ich...

Moderator hin oder her, aber der einziger der hier blödsinn erzählt bist ja wohl du...

Bevor du mich zitiert hast habe ich folgendes gepostet:

Die Speichermenge sagt nichts über die Leistung aus. Bevor deine genannte Karte den Speicher wirklich vollmacht ist die GPU mit ihrer Leistung am Ende. Sowelche Karten werden trotzdem gerne verkauft, weil unwissende Kunden in diesem Glauben die Karten kaufen.

Hier ein älterer Test der das aber ganz gut zeigt:

GeForce 8800 GT: 256 vs. 1024 MByte : Crysis - Review Hartware.net

Dein Budget liegt in etwa in dieser Leistungsregion, wie die alte 8800GT(=9800GT) daher sind 512MB vollkommen ausreichend.

Test: ATi Radeon HD 5570 (Seite 12) - 09.02.2010 - ComputerBase


Danach habe ich folgendes geschrieben dessen Inhalt du als Quatsch hingestellt hast:

Nix anderes habe ich gesagt. Wenn ich mir sein System anschaue und auch seinen ersten Vorschlag(Budget), dann sind 1024MB einfach zuviel, weil die Karte zu langsam wäre um den gesamten Speicher je zu nutzen.

Sry, aber guck dir mal meinen Link genauer an. Natürlich gibt es Ausnahmen, aber das ist nicht die Regel.


Es gibt durchaus auch Anwendungen wo eine kleine 9400GT mit 1GB RAM die großen 260GTX Karten abziehen könnte...

Diese Aussage ist Quatsch mein Freund! Ich werde sicherlich nicht die SuFu benutzen. Wozu auch ich werde nix finden. Belege es mir mal - nicht mit deiner Aussage. Schön einen Link, oder Benchmark...

Es steht nirgendwo geschrieben, um welche Software es sich im Detail handelt.

7. Post von oben:
Hab gedacht, die Leistung zum spielen zu steigern und mir somit den Kauf einer neuen Grafikkarte zu sparen :d


Und wenn der Threadersteller selbst eine Grafikkarte vorschlägt die 60€ kostet wird sein Budgedt wohl kaum bei 250€ aufwärts liegen. Das nennt man "logische Schlussfolgerung". Denn das einzige was du machst ist irgendwie mit aller Kraft zu begründen wie wichtig ja 1GB VRam wären. Und erzählst wie toll es doch mit deiner GTX470 läuft. Totaler Quatsch.

In Post #25 habe ich schon geschrieben, dass der Standard verbaute VRam in der Regel ausreicht. Denn VRam kostet Geld und die Hersteller sind nicht dumm. So wählt man in der Regel die für die Leistung der Grafikkarte passende VRAM-Menge damit die Grafikkarte ein gutes P/L-Verhätniss hat. Wäre es zu wenig würde sie schon vorab in vielen Test einbrechen und schlechte Kritik bekommen.

Und meine Aussage, dass 1GB VRAM zuviel für eine aktuelle 60€-Graka sind ist in sofern richtig, da man in dem Bereich wo die Grafikkarte die VRAm Menge benötigt, die Rohleistung der GPU nicht mehr ausreicht um die Anwendung in dem Fall das Spiel flüssig darzustellen. Das sieht man ja auch ganz gut an meinem geposteten Link wo zwar die 512MB Variante der 8800GT irgendwan einbricht und vielleicht noch 3fps darstellt, aber die 1GB version auch nur noch unspielbare 15fps darstellt.

Und nun kommst du mit deinem "Gothic 3 ini-tuning-Extrembeispiel" wo du selbst sagst, dass es erst deine GTX470(250€) flüssig darstellen kann. Nun kommt der Threadersteller und möchte sich eine AMD 5550(50€) mit 1GB VRAM kaufen dessen Leistung bei der HÄLFTE einer 8800GT liegt.

Man sieht, dass du zwar schön von ALUs und co erzählen kannst, aber es 0 in der Praxis hilft.

@Daylights

Um nocheinmal etwas produktives beizutragen zitiere ich mich am besten selbst:

Aber bei deinem Budget, ich schätze mal liegt so bei 60-70€, lohnt es sich nicht in eine DX11 Karte zu investieren, da die Leistung einfach nicht ausreicht um DX11 in Spielen wirklich zu nutzen.

Halte lieber ausschau nach einer gebrauchten 8800GT, 8800GTS, GTX260, oder 4850, 4870. Die können zwar kein DX11, aber am Ende bekommste deutlich mehr Leistung für dein Geld.

Eine 8800GT gibts es ab ca 40€ gebraucht und hat über die doppelte Leistung einer AMD 5550. Kauf dir eine gebraucht Karte und lass dich nicht vom VRAm blenden. Ich habe fertig...
 
Zuletzt bearbeitet:
Sry, aber guck dir mal meinen Link genauer an. Natürlich gibt es Ausnahmen, aber das ist nicht die Regel.
Ja und was ist jetzt an meiner Aussage falsch? Du kommst hier mit einer Pauschalaussage ohne zu wissen was der TE für Anwendungen fährt... Und belegst das mit irgendwelchen Links.

Ich sage, es ist quatsch eine solche Aussage zu treffen ohne zu wissen worum es geht. Einfach weil Pauschalaussagen hier nicht sinnvoll sind. Da nutzt auch nichts hier zu wissen, das es um Spiele geht. In Spiel A ist es so, in Spiel B siehts komplett anders aus. Wenn du meinst Ahnung von der Praxis zu haben, dann sollte dir das durchaus bewusst sein... ;)

Diese Aussage ist Quatsch mein Freund! Ich werde sicherlich nicht die SuFu benutzen. Wozu auch ich werde nix finden. Belege es mir mal - nicht mit deiner Aussage. Schön einen Link, oder Benchmark...

Glaub es oder lass es... Aber bitte komm nicht mit Pauschalaussagen, welche genau so gut nicht zutreffen müssen...


7. Post von oben:
Ja Spielen... Und nu?
Welche Spiele? DOS Games von vor 15 Jahren? Oder vllt die neuesten der neuesten mit max. Details und allen Bildverbesserungen die es gibt?
Weist du es? Ich kann es nicht rauslesen um was es sich handelt...

Spielt er vllt HL2 mit Cinematic Mod? Nur um mal ein kleines Beispiel zu bringen... Mit ner 512MB Karte macht das absolut keinen Spaß auch wenn das Spiel ansich nicht wirklich Ressourcenfressend ist und selbst mit Karten ala 9800Pro von vor 7 Jahren schon brauchbar fix lief... Aber selbst 1GB könnten da schon zu wenig sein.

Und nochmal mir geht es hier nicht um absolute VRAM Zahlenwerte für Karte xy. Sondern um deine Aussage von oben, das die GPU Leistung der für sein Budge passenden Karten zu schwach wäre um 1GB auszulasten. Was eben quatsch ist. In machen Anwendungen passt das vllt, in anderen eben nicht... Und das ist der Punkt. Du weist nicht welche Anwendungen, bringst aber eine Pauschalaussage...


Und wenn der Threadersteller selbst eine Grafikkarte vorschlägt die 60€ kostet wird sein Budgedt wohl kaum bei 250€ aufwärts liegen. Das nennt man "logische Schlussfolgerung". Denn das einzige was du machst ist irgendwie mit aller Kraft zu begründen wie wichtig ja 1GB VRam wären. Und erzählst wie toll es doch mit deiner GTX470 läuft. Totaler Quatsch.

In Post #25 habe ich schon geschrieben, dass der Standard verbaute VRam in der Regel ausreicht. Denn VRam kostet Geld und die Hersteller sind nicht dumm. So wählt man in der Regel die für die Leistung der Grafikkarte passende VRAM-Menge damit die Grafikkarte ein gutes P/L-Verhätniss hat. Wäre es zu wenig würde sie schon vorab in vielen Test einbrechen und schlechte Kritik bekommen.
Bitte nochmal lesen... Ich empfehle hier niemanden eine 250€ Karte, sondern habe meine Erfahrungen mit AMD Karten in Gothic 3 wiedergegeben...
Für Gothic 3 empfehle ich ganz klar eine NV Karte mit möglichst viel VRAM. Ob das nun eine 8800GT 1GB ist, oder vllt ne 460GTX 1GB, oder was ganz anderes ist dabei ziemlich schnurz. G3 skalliert so stark nicht mit der GPU Leistung, aber bei zu wenig VRAM gibts extreme Einbrüche der FPS Rate. Dann lieber etwas weniger avg FPS im Schnitt und weniger total Einbrüche als viel avg FPS aber permanente Nachladeruckler.

Und meine Aussage, dass 1GB VRAM zuviel für eine aktuelle 60€-Graka sind ist in sofern richtig, da man in dem Bereich wo die Grafikkarte die VRAm Menge benötigt, die Rohleistung der GPU nicht mehr ausreicht um die Anwendung in dem Fall das Spiel flüssig darzustellen. Das sieht man ja auch ganz gut an meinem geposteten Link wo zwar die 512MB Variante der 8800GT irgendwan einbricht und vielleicht noch 3fps darstellt, aber die 1GB version auch nur noch unspielbare 15fps darstellt.
Und wo machst du diese Aussage dran fest?
Die getesteten Games in deinem Link? Gut und schön... Spielt die der TE? Ich lese nix davon... Vllt steht er auf TexturMods noch und nöcher? Weist du es? Ich sehe ebenso davon nix...
Was wäre also der richtige Rat auf seine Frage? Richtig, das das ganze Stark vom Spiel abhängt...

Und nun kommst du mit deinem "Gothic 3 ini-tuning-Extrembeispiel" wo du selbst sagst, dass es erst deine GTX470(250€) flüssig darstellen kann. Nun kommt der Threadersteller und möchte sich eine AMD 5550(50€) mit 1GB VRAM kaufen dessen Leistung bei der HÄLFTE einer 8800GT liegt.

Wie schon gesagt, der TE hat Gothic 3 selbst in den Raum geworfen, weil er es spielen möchte. Und die Empfehlung ist ganz klar für Gothic 3 -> NV Karte mit möglichst viel VRAM.
Ob er mit einer 8800GT 512MB in Gothic 3 glücklich wird, muss er selbst austesten. Mit dem 1GB Modell wird er mit 100% Sicherheit deutlich mehr Spaß haben, aufgrund weniger Nachladeruckler. (die selbst da noch vorhanden sind)

Aber bevor du nun wieder losmeckerst. Das gilt einzig für Gothic 3. Bei anderen Games kann es ganz anders ausschauen. Aber wie du nun hoffentlich siehst, bringen den TE pauschalaussagen nicht wirklich weiter...
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh