ATI R680 (HD 3870 X2) [News- & Sammelthread] [Part 1]

Status
Für weitere Antworten geschlossen.
ATI HD 3870 X2

ati3870x2lm7.jpg



r680x2pe6.jpg
Erste Informationen zur Radeon 3870 X2

"Während AMD durch die Vorstellung der Radeon HD 38x0 Serie mit NVIDIA im Mittelklasse-Segment nahezu gleichgezogen hat, klafft im High-End Bereich noch eine große Lücke, die der Prozessorhersteller aus Sunnyvale Anfang des kommenden Jahres mit der HD 3870 X2 stopfen will. Als potentieller Einführungstermin wird derzeit die CES gehandelt, die vom siebten bis zum zehnten Januar 2008 in Las Vegas stattfindet.

Weitere Informationen zum R680

[...]


zum Beispiel bekannt, dass die beiden verbauten RV670-Chips angeblich mit 777 MHz takten sollen, was man aber auch schon in gewisserweise durch den Namen erahnen konnte.

Damit nicht genug präsentierte AMD auch noch ein Octa-Crossfire-System bestehend aus vier HD 3870 X2 Karten, das so zwar wohl niemals in den Handel gelangen dürfte bzw. mit momentanen Treibern noch nicht lauffähig ist,

[...]
"



Quelle: hardware-infos.com

r680x2backdn8.jpg


Radeon HD 3870 X2: Bilder


Erste Detailaufnahme von AMDs kommender R680-Grafikkarte

"Vor wenigen Tagen berichteten wir über AMDs kommende High-End Grafikkarte "Radeon HD 3870 X2". Bislang gab es zu der Karte noch keine Bilder, auf denen viel zu erkennen war.

[...]

was bislang vermutet worden war: Der "R680" wird auf zwei RV670-Grafikchips basieren.

Mit nur zwei dieser Karten hat man somit ein Quad-CrossFire-Gespann. Theoretisch soll, wie einige Quellen berichten, auch eine Kombination aus vier "HD 3870 X2"-Karten möglich sein, was dann der geballten Grafikleistung von acht Chips entsprechen würde. Aktuell arbeitet AMD jedoch noch an der Realisierung eines Zusammenschlusses von mehr als zwei dieser Karten. Der Stromverbrauch der Karte soll angeblich bei rund 200 Watt liegen."



Quelle: hardware.net



Bild eines Engineering Sample des R680:

r6801hk3.jpg






AMD: Neues zu Multi-GPU-Karten


Die Zukunft heißt: Multi-Grafikchip-Radeon

"Dass AMD im Januar oder Februar des kommenden Jahres 2008 mit dem R680 eine auf zwei RV670-Chips basierende Multi-GPU-Grafikkarte auf den Markt bringen will,

[...]

dass diese auf den Namen "Radeon HD 3870 X2" hören soll.

[...]

erste Preisangaben aufgetaucht: Angeblich soll die leistungsstarke Radeon gerade einmal
zwischen 300 und 350 US-Dollar kosten.

Beim R680-Modell wird ein auf die Bezeichnung "PEX6347" hörender Chip für die Verbindung der beiden GPUs sorgen. AMD will diesen bei der übernächsten Generation, genannt "R700" in die GPU integrieren und damit Kosten einsparen.

[...]"



Quelle: hartware.net



r680x2neubz5.jpg

Neues zur Radeon HD 3870 X2

Foto und technische Details zur RV670 Dual-Chip-Grafikkarte

"[...] neue Informationen zu der Dual-Chip-Grafikkarte (RV670) aufgetaucht. [...]
Das gezeigte Modell stammt aus dem Hause "Unika" und kommt mit zwei mal 512 MByte GDDR4-Speicher. Der Chip läuft mit 775 MHz, der Speicher mit 1225 MHz. Angebunden ist letzterer per 256 Bit Interface."

Quelle: hartware.de




Radeon HD 3870 X2 am 23.1.

Neue High-End Dual-Chip Grafikkarte ab 23. Januar für 449 US-Dollar

"[...] hat AMD seine Partner darüber informiert, dass die Einführung der neuen ATI Radeon HD 3870 X2 High-End Grafikkarte (Codename: R680) vom 28. auf den 23. Januar vorgezogen wurde. Dieses Modell basiert auf zwei RV670 Grafikchips und soll in Nordamerika 449 US-Dollar kosten. Hierzulande darf man wohl mit einem Einführungspreis von 400 Euro rechnen.

Gleichzeitig mit der ATI Radeon HD 3870 X2 werden angeblich neue Mainstream-Grafikkarten eingeführt: Radeon HD 3650 (RV635) und HD 3450 (RV620). Auch der AMD 780G Chipsatz mit integrierter Grafik soll zu diesem Termin an den Start gehen.
AMD hatte die Radeon HD 3870 X2 schon bei der Einführung von Rdaeon HD 3850 und 3870 in Warschau gezeigt, [...]"
Quelle: hardware.net
.
 
Zuletzt bearbeitet:
Ich denke die werde immer Probleme mit den treibern haben, denn nicht jedes spiel unterstützt crossfire..
 
also die karte wird hoffentlich gut abgehen!muss man bei der karte auch nen crossfire mobo haben? sowar des doch bei der 7900gx2 das man nen sli board brauchte oder?!^^
 
Danke für den Fred. Da werd ich bestimmt öfter mal reingucken. Und da die Karte so anders ist und es sowas von Nvidia wohl in absehbarer Zeit nicht geben wird denke ich auch mal das wir von den Fanboys und Flamern hier gut verschont werden ;)

Denke mal das ich für 2 Karten nen neues Netzteil bräuchte :)

Aber egal ich will nur eine.

Sobald es nen Crysis bench von einer X2 gibt bitte posten.
 
man man man, die ist aber verdammt lang, oder täuscht das nur?
 
@ Castle: Kein Thema, werde versuchen auch diesen Thread so aktuell wie möglich zu halten.
Ob wir von "Fanboys und Flamern" verschont bleiben, liegt ja auch an jedem selbst, gelle?! ;)
 
gibts auchne längenangabe zu der graka? das sieht ja nimmer feierlich aus :d
 
sehr gut, endlich mal ne Karte die es würdig ist meine 1950xtx in Rente zu schicken. Genau das richtige für mein langes Servergehäuse. Bisher hab ich nur solche fake Bilder gesehen, aber die Bilder oben sind wohl echt. merci
 
ca. 12" lang :cool:


Ich könnte mir vorstellen das der hintere Core (von Lüfter aus gesehen) doch Heißer wird :hmm:

Nunja der Radiallüfter muss halt schon ziemlich Druck aufbauen damit der Luftzug durch beide Kühlelemente gut durchgeht. Aber wenn das nicht der Fall wäre, würde ATi nicht so ein Design vorsehen. Man hätte ja auch einfach wie damals bei der Rage Fury MaXX 2 einzelne Lüfter nehmen können, oder wie die 7950 GX2, 2 PCBs mit je einzelnen HD3850 Lüftern.
Daher denke ich, dass sich das Design wohl am effizientesten in allen Belangen (Kosten/Nutzen) herausgestellt hat. ;)
 
ca. 12" lang :cool:


Ich könnte mir vorstellen das der hintere Core (von Lüfter aus gesehen) doch Heißer wird :hmm:

30,48cm mit 12" kann hier sicher nicht jeder etwas anfangen. :fresse:

Diese Dual Slot Lüfter setzen sich so schnell mit Staub voll, dass man die Karte nur unter Reinstraum- Bedingungen zuverlässig betreiben kann. :stupid:
Die erste CPU vom Slot her gesehen bekommt nach ein paar Tagen keine Luft mehr ab, also ich würde die nicht so betreiben wollen. :stupid:
Hinzugefügter Post:
Nunja der Radiallüfter muss halt schon ziemlich Druck aufbauen damit der Luftzug durch beide Kühlelemente gut durchgeht. Aber wenn das nicht der Fall wäre, würde ATi nicht so ein Design vorsehen. Man hätte ja auch einfach wie damals bei der Rage Fury MaXX 2 einzelne Lüfter nehmen können, oder wie die 7950 GX2, 2 PCBs mit je einzelnen HD3850 Lüftern.
Daher denke ich, dass sich das Design wohl am effizientesten in allen Belangen (Kosten/Nutzen) herausgestellt hat. ;)

Ati Karten sind wegen solcher Lüfter schon abgeraucht, da hat sich ATI nichts bei gedacht. Zwei Lüfter auf einem Kühlkörper wären sicher machbar, aber diese Slot Lösung ist nix und eine Dual PCB Lösung ist noch bescheidener.
 
Zuletzt bearbeitet:
Meine Meinung:

Vorteile der Karte:
- 2 GPU-Cores auf 1 PCB
- Leistung von bis zu 2 GPUs
- auf jedem Mainboard einsetzbar
- Quad-CF mit 2 Karten (oder gar Octa mit 4x? :fresse: )

Nachteile der Karte:
- CF ist nicht immer zu 100% effizient
- bei neuen Games eventl. Treiberupdate nötig
- eventl. Profilfummelei (geht bei CF ja nun auch)
- wird CF nicht oder schlecht unterstützt (s. Crysis), dann so lahm wie Einzelkarte
- 2x512MB -> bleibt 1x512MB, daher kommendes Jahr imo nicht mehr zeitgemäß für High-End. 2xHD3870 1GB sinnvoller.
- sehr langes PCB (länger als bei 88Ultra?) und damit nicht für jeden User
- hoher Stromverbrauch idle/load
- hohe Wärmeentwicklung
- Kühlerdesign errinnert an HD29er (laut!) und vermutlich ineffizient für Dual-GPU -> ergo hohe Drehzahlen :(

Naja ich warte lieber mal ne R700er Karte oder sowas in die Richtung ab. Dual-GPU macht imo erst dann Sinn, wenn es wie bei CPUs gelöst wurde (2 GPUs in 1 Kern), vorher nicht.
 
- 2x512MB -> bleibt 1x512MB, daher kommendes Jahr imo nicht mehr zeitgemäß für High-End. 2xHD3870 1GB sinnvoller.

Also ne X2 mit 1 GB sollte wohl Ramtechnisch ganz normal als ne 1 Gig Karte funktionieren und besser sein als eventuelle neue 2 x 3780 mit jeweils 1GB im CF.

Ansonsten kann ich mir nich vorstellen das 2 mal 512 exakt 1 mal 512 bleibt.

Klärt mich auf :)
 
Zuletzt bearbeitet:
30,48cm mit 12" kann hier sicher nicht jeder etwas anfangen. :fresse:

Diese Dual Slot Lüfter setzen sich so schnell mit Staub voll, dass man die Karte nur unter Reinstraum- Bedingungen zuverlässig betreiben kann. :stupid:
Die erste CPU vom Slot her gesehen bekommt nach ein paar Tagen keine Luft mehr ab, also ich würde die nicht so betreiben wollen. :stupid:
Hinzugefügter Post:


Ati Karten sind wegen solcher Lüfter schon abgeraucht, da hat sich ATI nichts bei gedacht. Zwei Lüfter auf einem Kühlkörper wären sicher machbar, aber diese Slot Lösung ist nix und eine Dual PCB Lösung ist noch bescheidener.

Ob die Karte wirklich so lang wird, weis man nicht, es gab im RV670 Thread mal paar Pics von der Karte, wo diese auf nem Mobo gesteckt zu sehen waren und auf dem Bild sah man das ne GTX nicht wirklich kürzer war...
Sprich die Karte wird sich so auf GTX Niveau bewegen, von der länge her, vllt bissl länger, aber das wäre dann auch egal :fresse:

Zu den anderen Punkten, ich glaub du weist net was du da schreibst, es ist hupe wie viele Kühlkörper in dem Tunnel hintereinander gebaut werden, es kann zwar sein das der erste Kühler Staub ansetzt, aber das hat man bei jeder einzel-GPU-Karte auch, von daher, ist das kein Problem...

Die Karte wird wohl scheinbar wie ne HD3870 sein, bzw. dessen zwei, wenn man nun die Spannungswandler ein wenig optimiert und nur eine Spannungsversorgung baut (also nicht pro GPU die Spawas, sondern einmal Spawas für beide GPUs), dann kommen schätzungsweise ca. 190-200W für die Karte raus.

Was wie ich finde für die Karte durchaus noch vertretbar ist. Vor allem für die Leistung die man rausbekommt ;)


Meine Meinung:

Vorteile der Karte:
- 2 GPU-Cores auf 1 PCB
- Leistung von bis zu 2 GPUs
- auf jedem Mainboard einsetzbar
- Quad-CF mit 2 Karten (oder gar Octa mit 4x? :fresse: )

Nachteile der Karte:
- CF ist nicht immer zu 100% effizient
- bei neuen Games eventl. Treiberupdate nötig
- eventl. Profilfummelei (geht bei CF ja nun auch)
- wird CF nicht oder schlecht unterstützt (s. Crysis), dann so lahm wie Einzelkarte
- 2x512MB -> bleibt 1x512MB, daher kommendes Jahr imo nicht mehr zeitgemäß für High-End. 2xHD3870 1GB sinnvoller.
- sehr langes PCB (länger als bei 88Ultra?) und damit nicht für jeden User
- hoher Stromverbrauch idle/load
- hohe Wärmeentwicklung
- Kühlerdesign errinnert an HD29er (laut!) und vermutlich ineffizient für Dual-GPU -> ergo hohe Drehzahlen :(

Naja ich warte lieber mal ne R700er Karte oder sowas in die Richtung ab. Dual-GPU macht imo erst dann Sinn, wenn es wie bei CPUs gelöst wurde (2 GPUs in 1 Kern), vorher nicht.

Als Vorteil würde ich noch Mutlimonitoring Support im CF mit hinschreiben. ;)

Übrigens, CF geht auch in Crysis, zwar nur in DX9 aber in DX10 geht SLI auch net, von daher kein Nachteil für CF.
Treiberanpassungen sind immer Nötig, was aber nicht an CF liegt, sondern eher an der Architektur der Karten.
1GB Speicher brauch man derzeit nicht, was die HD2900XT mit 1GB gezeigt hat. Klar kann sich das ändern, aber wenn selbst NV auf 512MB zurück geht mit der GT (und NV ja nach wie vor Probleme mit dem Speicher hat, sprich VRam Bug) sollte wohl zu erkennen sein, das dort erstmal 512MB reichen werden...
Zum Verbrauch, neja mit ca. 200W unter Last und wenns so kommt der ca. 1,5 fachen Leistung einer Ultra wäre die Karte dann immernoch gut effizient (Performance pro Watt). Im Idle sind die Karten auch im CF sparsamer als eine Utlra ;)

Zum letzten Punkt, neja also die HD2900XT Kühler sind so ziemlich das effizienteste was es auf dem ganzen Grakamarkt gibt.
Das Problem ist, die Leute sehen nie was die Karte an Strom verballert sondern nur die Temps.
Mal angenommen, bei Verdopplung der Kühlfläche (weil zwei Kühler) bräuchte man theoretisch nur die hälfte an Luft um genau so gut zu kühlen, wird jetzt aber die 1,5 fache Leistung verbraten, dann müsste man ca. den Luffi auf 75% absenken, richtig?

Das heist am Ende, die Karte wird wohl bei gleicher Temp wie die HD2900XT etwas leiser sein, wenns der gleiche Lüfter wird.




Also ich find die Karte auf jedenfall sehr interessant, man müsste nur wissen was das Ding am Ende kostet, ich würde mal auf ca. 400€ tippen.
 
Zu den anderen Punkten, ich glaub du weist net was du da schreibst, es ist hupe wie viele Kühlkörper in dem Tunnel hintereinander gebaut werden, es kann zwar sein das der erste Kühler Staub ansetzt, aber das hat man bei jeder einzel-GPU-Karte auch, von daher, ist das kein Problem...

Kein problem wenn die Karte abraucht weil Sie eben durch den Staub nicht mehr effektiv gekühlt wird!? :fresse:
Ist ja alles schon passiert... :bigok:
 
Soweit hört sich ja alles was ich über die Karte gehört habe ganz gut an aber wenn das doch nur ein minimal geänderter R670 ist und na ja keine der aktuellen Chip-Generationen bringt mir die Leistung die ich mir wünsche zumindest habe ich bisher nirgendwo lesen können das mit irgendeiner Graka im High End Bereich Crysis auf very high gespielt wurde (verbessert mich wenn ich mich irre) und ich gebe ganz sicher nicht 400-600 € aus für eine Karte mit der ich nicht einmal die höchsten Einstellungen auswählen kann
Aber bekanntlich stirbt die Hoffnung zuletzt und da ich Ati bis dato immer wesentlich ansprechender fand hoffe ich auf eine sehr überzeugende Karte
 
Also ne X2 mit 1 GB sollte wohl Ramtechnisch ganz normal als ne 1 Gig Karte funktionieren und besser sein als eventuelle neue 2 x 3780 mit jeweils 1GB im CF.

Ansonsten kann ich mir nich vorstellen das 2 mal 512 exakt 1 mal 512 bleibt.

Klärt mich auf :)

Doch das bleibt so, da du im CF Modus bei beiden Karten exakt den gleichen Inhalt im Speicher laden musst.
Sprich wenn bei ner SingleKarte 500MB Speicher verbraucht werden, dann wird im CF zwei mal 500MB verbraucht.
Das liegt daran, das beide GPUs ja auf Daten im Speicher zugreifen müssen, und da der Zugriff auf den Speicher der anderen GPU nur über ne ganz Lahme Verbindung zu stande kommt (wohl über den PCIe Bus, also mit knapp 8GB pro sec, bzw. 16GB/sec bei PCIe 2.0) im Gegensatz zu über 70GB pro sec beim eigenen Speicher, kannst dir vorstellen wie das bremsen würde wenn man auf die Daten des anderen Speichers zugreifen müsste.
Hinzugefügter Post:
Kein problem wenn die Karte abraucht weil Sie eben durch den Staub nicht mehr effektiv gekühlt wird!? :fresse:
Ist ja alles schon passiert... :bigok:

Neja es ist durchaus möglich das sowas passiert, aber das hat nix damit zu tun, das es zwei GPUs sind, sondern das kann dir auch bei jeder Einzellkarte passieren.

Aber ich sag mal so, die Freaks hier im Forum welche sich potentiell so ne Karte kaufen würden, bauen entweder ne Wakü drauf oder sind auch nicht abgeneigt alle paar Monate die Karte mal zu entstauben ;)

Soweit hört sich ja alles was ich über die Karte gehört habe ganz gut an aber wenn das doch nur ein minimal geänderter R670 ist und na ja keine der aktuellen Chip-Generationen bringt mir die Leistung die ich mir wünsche zumindest habe ich bisher nirgendwo lesen können das mit irgendeiner Graka im High End Bereich Crysis auf very high gespielt wurde (verbessert mich wenn ich mich irre) und ich gebe ganz sicher nicht 400-600 € aus für eine Karte mit der ich nicht einmal die höchsten Einstellungen auswählen kann
Aber bekanntlich stirbt die Hoffnung zuletzt und da ich Ati bis dato immer wesentlich ansprechender fand hoffe ich auf eine sehr überzeugende Karte

Neja mit zwei HD3870 Karten sollte doch Crysis auch auf Very High laufen, oder? Ich denk mal schon.
Ich komme in Very High mit der HD2900XT@880MHz im GPU Bench bei 2xAA und 1680x1050 auf ca. 10FPS.
lässt du das AA weg und zählst die Performance beider Karten sollten doch durchaus so um die 25FPS drin sein.

Dual-GPU macht imo erst dann Sinn, wenn es wie bei CPUs gelöst wurde (2 GPUs in 1 Kern), vorher nicht.

Das ist übrigens auch so ein Punkt, welcher so gar keinen Sinn macht. GPUs arbeiten schon seit ewigkeiten parallel. Sprich eine Erhöhung der GPU an sich ist eigentlich nur ne Maßnahme der Hersteller um mehr Leistung zu bieten.
Wenn man nun Dualcore GPUs bauen würde, sprich zwei GPUs auf einem DIE würde man viele Teile der GPU doppelt auslegen, die eigentlich gar net gebraucht werden.
Im Grunde braucht man nur die Shader/TMUs/ROPs usw. welche maßgeblich für die Leistung verantwortlich sind.

Erhöht man nun die Shader usw. und legt noch ein paar neue Features hinzu ala DX10.1 usw. dann hast du im Grunde ne komplett neue GPU Generation.

Viel besser wäre, wie ich finde, eine Möglichkeit zu schaffen, wie es NV derzeit macht, sprich eine Art Cluster, wo nach belieben Teile hinzu kommen können oder abgeschaltet werden können.

Des weiteren sollte man bei solchen Aussagen mal die technische Seite betrachten, eine GPU mit zwei vollständigen GPU Kernen auf RV670 Basis beispielsweise würde über 1,3Mrd. Transistoren verfügen, das ist derzeit technisch nicht zu realisieren.

Eigentlich bringt ne Dualcore GPU in nur einem Punkt einen Vorteil, nämlich im Platzverbrauch auf dem PCB.
Dagegen stehen aber mehrere Punkte: (beispielsweise)
- Hochkomplexes PCB durch zwei mal 256Bit SI (oder gar noch mehr)
- extreme Wärmeentwicklung auf kleinstem Raum, lässt sich bedeutend schlechter Kühlen als zwei Wärmequellen.
- schon angesprochene Fertigung, solche Transistorschaltungen sind derzeit nicht wirklich herstellbar.

wenn man ein wenig überlegt, findet man sicher noch mehr Nachteile.
 
Zuletzt bearbeitet:
Ja das leuchtet mir ein aber es hört sich komisch an wenn man sagt, gerade erst bei hohen Auflösungen bringt Sli, Crossfire was, aber genau bei hohen Auflösungen wird der Speicher voller aber ja halt nicht mehr sondern bleibt auf 512, 768zb., Niveau. Also auch doof irgendwie :)

Ich versteh einfach nicht warum die das nicht so konzipieren können das jede Karte eine Bildhälfte macht oder ein Bild die eine und die andere das nächste so das jede Karte von einem Spiel für 100Frames nur 50 Machen muß.

Aber das is wohl in der programmierung zu schwer und die karten müßten ja immer untereinander kommunizieren um synchron zu bleiben. Und die Spieleentwickler müßten danach entwickeln. AAber so würde ich mir als Laie ne wirkliche richtige Doppelkartenlösungvorstellen.
 
Bei Auflösungen von deutlich über 1280x1024 bei Crysis @very High wird auch die HD3870X2 zu lahm sein und an AA/AF braucht man da auch nicht denken. ;)
 
Ja das leuchtet mir ein aber es hört sich komisch an wenn man sagt, gerade erst bei hohen Auflösungen bringt Sli, Crossfire was, aber genau bei hohen Auflösungen wird der Speicher voller aber ja halt nicht mehr sondern bleibt auf 512, 768zb., Niveau. Also auch doof irgendwie :)

Das ist genau so ein irrglaube, bzw. ein Glaube, welcher nicht mehr Zeitgemäß ist.
Damals zu Zeiten von 4-16MB Grafikspeicher war dieser noch maßgeblich dafür verantwortlich viel hoch man die Auflösung drehen könnte. Heutzutage mit 512MB Speicher ist das, was für die Auflösung verbraucht wird nur noch ein Bruchteil dessen, was das Game sowieso an Speicher für Texturen usw. verbrät.
Schlussendlich kann man sagen, ob du nun 640x480 oder 1920x1200 zockst ist total hupe, solange die eingestellten Details im Game die gleichen bleiben, dann hast du nur wenige MB Mehrverbrauch bei hohen Auflösungen.

Ich versteh einfach nicht warum die das nicht so konzipieren können das jede Karte eine Bildhälfte macht oder ein Bild die eine und die andere das nächste so das jede Karte von einem Spiel für 100Frames nur 50 Machen muß.

Aber das is wohl in der programmierung zu schwer und die karten müßten ja immer untereinander kommunizieren um synchron zu bleiben. Und die Spieleentwickler müßten danach entwickeln. AAber so würde ich mir als Laie ne wirkliche richtige Doppelkartenlösungvorstellen.

Neja du kannst ja zwischen verschiedenen Modi wählen, exakt die hälfte des Bildes kann aber eine Karte nur selten bearbeiten, da beispielsweise der Himmel bei weitem weniger Rechenlast erfordert als der Boden bzw. eventuell Wald oder Wasser. Sprich es bedarf ne dynamischer Lastverteilung das beide Karten exakt die gleiche Last anliegen haben und das wird ja derzeit so gemacht ;)

Besser hätte ich es auch nicht formulieren können! Und 512MB sind schon JETZT bei 1920x1200 und aktiviertem AA und AF nicht mehr zeitgemäß!

AA/AF brauchen nicht mehr Speicher, und zur Auflösung siehe Beitrag oben...
Des weiteren sollte man bei VRam Messungen ein wenig Abstand von den G80 Karten von NV nehmen. Dort klappt die Speicherverwaltung nur schlecht und die Karten knallen den VRam voll ohne weiteres, obwohl Teile davon überhaupt nicht gebraucht werden.
Das kann Vorteile haben, oder auch Nachteile, Nachteile im Sinne von, das es irgendwann vorkommt, das der Speicher voll ist und dann umständlich Daten umgelagert werden sprich in den Arbeitsspeicher. (welcher ja nur über den vergleichsweise lahmen PCIe Bus angesprochen werden kann)

Die GTX und Ultra Karten haben so viel Speicher an Board, das heutige Titel eigentlich nahezu alle Daten dort reinknallen können. Ob diese dann gebraucht werden, ist dabei der Karte egal.

Die ATI Karten oder auch die alte NV Generation machte dies noch besser, dort wurden nur die gebrauchten Daten auch in den Speicher geladen und bei nicht bedarf wieder rausgeschmissen um Platz für andere Daten zu schaffen.
 
Habe hier wenige flamende Beiträge rausgenommen!

Gibt es schon Preisvorstellungen! :)

Gruß
:wink:
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh