Weitere Eckdaten zur AMD Radeon R9 390X

Ja, das wäre denkbar. Allerdings hatte doch auch NV ja mal im Rahmen ihres "Wundertreibers" schon unter DX11 angeblich hierauf hin optimiert...

Unter DX11 ist man aktuell ja auch besser dran als AMD. Warten wir zumindest einmal ab bis Windows 10 erscheint, bis dahin sollten von beiden Akteuren noch einige Treiber kommen, die noch besser auf DX12 optimiert sind.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Warten wir vorallem auch mal ab bis es Spiele gibt die DirectX 12 aktiv nutzen!
Die ersten die paar Features verwenden wird es dieses Jahr noch geben, aber Spiele welche komplett auf das neue DirectX ausgelegt sind, das wird noch dauern!

War doch genauso damals mit DirectX 11.
Eine ordentliche Zeit nach Release kam BF3 und erst dort hat man das neue DirectX in vollem Umfang genutzt und als Spieler hat man es erst dort so richtig gemerkt!

Und erst dann ging es mit der Zahl an DirectX 11 Spielen ordentlich bergauf!


Ich denke das gleiche wird mit DirectX12 sein, bis Engines/Spiele raus kommen die komplett auf DirectX12 ausgelegt sind, vergeht noch sehr viel Zeit!


Und wer weiß vlt. passiert dann ein überraschender Vulcan ausbruch (versteht ihr, Vulcan und so... *hust*)
 
Das ist aber einfach nur eine Schlussfolgerung ohne jegliche technische Erklärung zu dem Thema...
Speicherbandbreite ist wichtig, allerdings nicht so wichtig, wie man es hier hinstellt.

Hier mal eine technische Erklärung.
Die GTX Titan X ist eine Speicherbandbreitengeizkragenkarte für 1200 Euro.
GTX Titan X mit Arctic Accelero Xtreme IV: Bis zu 1.550 MHz dank Mod-BIOS [Benchmark-Update]

Zitat:
Letztendlich skaliert die GTX Titan X nicht eins zu eins mit den höheren Taktraten. Während das bei 1.300/4.001 MHz (+21/+14 %) noch nahezu der Fall ist, sind es bei 1.550/4.001 MHz (+44/+14 %) "nur" noch 30 Prozent mehr Bilder auf dem Monitor. Der Grund dürfte die bremsende Transferrate des Grafikspeichers sein, der bei unserem Exemplar dauerhaft stabil nicht mehr mitmacht und daher in Sachen Bandbreite den Kern limitiert.
Zitat Ende:

Das sollte auch erklären warum AMD auf HBM-Speicher umstellt mit deutlich mehr Bandbreite. :wink:
 
Zuletzt bearbeitet:
Da keiner weiss wie Grafikkarten mit HBM performen tritts du gerade wieder in Afrika auf AmeisenHügel. uglygruebel.gif
 
Da keiner weiss wie Grafikkarten mit HBM performen tritts du gerade wieder in Afrika auf AmeisenHügel.Anhang anzeigen 317640
Naja, dass sie schlechter performen als mit GDDR5 ist jedenfalls seeeeeeehr unwahrscheinlich (außer es gibt irgendwelche Bugs oder Hynix hat seine Versprechungen nicht erfüllt)...
Die Bandbreite war aber eher nicht AMD's Hauptgrund für HBM, würde ich mal behaupten. Eine 512er Anbindung zu GDDR5 hätte es vorerst auch getan, auch wenn das technische Limit damit langsam aber sicher in greifbare Nähe rückt.
 
Zuletzt bearbeitet:
AMD testet gerne und lässt andere das Geld verdienen. :hmm:
Leider manchmal nicht unwahr... :/

Oder meinst du das garnicht ironisch? Dann sag mir mal wieso ein 512er Interface nicht für eine Karte der Leistung von Titan X bei AMD reichen sollte?
AMD hat auch eine Kompressionstechnik (recht zeitgleich) wie NV entwickelt (kommt in Tonga zu Einsatz)!
 
Gar nicht ironisch.Der Markt ist wie er ist.AMD muss mal aus der Knete Kommen und einen Kracher bringen.ati2y2ue3.gif
 
Ich fürchte die einzige Möglichkeit heute noch einen "Kracher" zu bringen ist per Effizienz. Und "leider" hat da NV schon eine gute Vorreiterstellung ><
Bleibt aber noch die Hoffnung dass AMD durch HBM gut punkten kann! Wir wissen immer noch nicht wie sich die verbesserten Latenzen usw. auswirken werden.
Auch interessent ist wie sich AMD mit DX12 schlagen wird. Nach diesem neuen Bechmark scheint da AMD deutlich besser zu punkten als NV. Könnte aber natürlich an Treibern liegen.
 
Zuletzt bearbeitet:
Ganz ehrlich man verwechselt bei Maxwell ständig Stromverbrauch der Referenzkarten mit Leistung der Customkarten.Wenn man mal vom Nvidia Karusell runter kommt sieht der Abstand gar nicht mehr uneinholbar aus. uglygruebel.gif
 
Was zum Teufel ist mit dir los? Hat dich deine Freundin gerade verlassen. Komm mal wieder runter...

Danke, so habe ich nach der Mittagspause noch etwas zum lachen gehabt.
So stand es, mit schwarzer Tinte in dem PCGH Magazin damals. So jetzt hol dir dein nächstes Bier, oder zieh dir sonstwas durch, damit du den Tag überstehst!
Das ist ja wieder unter aller Kanone!
PS: Einer meiner besten bekannten hat seit Jahren eine GTX480 im Ref.Design und die zieht nie im Leben mehr als 225W, beim zocken.
Sein System, Xeon E3 1231v3, 16GB DDR3, Crucial M550, GTX480 und ein Thermaltake XT775W. Aus der Steckdose werden da, je nach Spiel zwischen 322 und 358W gesaugt. Bei Anno 2070, Crysis 3 und BF4.
Also informier dich.

Und zur 285, es ist so das die letzten Bench die ich gesehen habe, alle von mehr als 2GB profitiert haben. Und der verlinkte HWLuxx Test sieht die 285 nun wirklich auch nicht deutlich vorne, wenn man alle einzel Werte mal durch geht, sieht man das mal die 285 1-2 Fps schneller ist, mal die 280 1-2Fps. Und wirklich aktuell ist der Parcour auch nicht.
Zur Leistungsaufnahme,
jedes Spiel zieht unterschiedlich viel aus der Dose. Auch wenn bei beiden 99% GPU Auslastung angezeigt werden.

@Pickebuh
genau das meinte ich, außerdem hat pcgh die Titan x mit getestet und die gleichen Framtimeprobleme, wie die 980.
Gleich dein erster Satz, ob mich meine Freundin verlassen hat, ist das Sinnbild für deine Aussagen die du machst. Du hast keine Ahnung. Praktisch weniger als Null.
Ich habe dir klar und deutlich mit Links gezeigt, dass du einfach Unsinn erzählst.
http://www.hardwareluxx.de/communit...md-radeon-r9-390x-1065102-9.html#post23314879

Als Gegenargument kommt von dir nur. Ein Freund hat seit Jahren eine 480 und die zieht nie im Leben mehr als 225W beim Zocken.
Klar, wenn du das sagst, sind dies natürlich ultimative und erdrückende Beweise und natürlich unumstößlich. Reale Messungen von Redaktionen wie HWL, HT4U und CB sind
dazu im Vergleich wohl maximal Schätzungen oder was?

Die R9 285 ist über alle Benche gleich schnell zu einer 280X und fertig. Da kannst du sagen was du willst. Bringe Belege. Nur das zählt und nicht irgendein Quatsch ob mich meine Freundin verlassen hat.

Sowohl die GTX 480 als auch die GTX 580 ziehen im Referenzdesign 250W. Die HD 5870 nur 160W. Die GTX 480 hat also bei bis zu 15% mehr Spiele Power 90W mehr verbraten. Die GTX 580 hat es dann wenigstens deutlich besser gemacht. Bei 30%+ mehr Spiele Power 90W mehr verblasen. Im Idle haben beide Karten 10W mehr genommen als eine 5870.

Fazit:
Dieses infantile Geseier, AMD immer scheiße und AMD immer viel zu viel Stromaufnahme und langsam und laut, disqualifiziert eben. Das muss man ganz klar und deutlich sagen.

Hätte Nvidia die 970 einfach in Hardware mit 3,5GB und realen Angaben gebracht für maximal 290€ wäre jede Stimme zu einer alternativen Lösung in Form von einer AMD Karte auch infantiles Geseier. Doch Nvidia treibt es aktuell nach meiner ganz persönlichen Meinung einfach zu bunt.
AMD hat gute Produkte, doch die Leistungsklasse GTX 750 Ti GTX 960/970/980 geht klar an Nvidia. AMD muss und wird schon noch kommen.
Würde ich jetzt von der damaligen HD 5770 umsteigen, würde ich mir die GTX 960 kaufen. Mir sind dabei alle anderen Sachen wie G oder A Sync völlig egal. Ich will einfach nur günstig bessere Leistung. Und es würde ganz sicher wieder eine MSI sein.
MSI HD 5770, MSI GTX 760.
 
Ich würde hier im Forum gerne ein einziges mal vernünftig diskutieren und nicht ständig von irgendwelchen fanboys von seite x oder y angemacht werden was ich wieder alles falsch gesagt habe nur weil SIE !!! es anders sehen. Echt traurig das ständig ein Mod durchwischen muss um die ganzen Flames wegzuräumen.

+1

Die beiden Streithähne haben doch beide keine Freundin ;) LOL ... da hätte man ganz annere Sachen im Kopf ...
 
wenn die entsprechenden Threads (sowie der hier auch) nicht immer mit Lobhudeleien für die jeweils andere Marke zugemüllt werden würden, könnte es eine sachliche diskussion geben,

leider mit so manchem Forumsteilnehmer nicht möglich bzw. nicht erwünscht ...
 
Eine 512er Anbindung zu GDDR5 hätte es vorerst auch getan, auch wenn das technische Limit damit langsam aber sicher in greifbare Nähe rückt.

Naja, wenn es nur um Leistung ginge, dann vielleicht. Aber die Umsetzung ist nicht immer sinnvoll. Beim Chipdesign müssen immer mehrere Faktoren in Einklang gebracht werden. Nicht immer passt eine Verdopplung, Verdreifachung oder Vervielfachung ins Gesamtkonzept. Ein 512bit Speicherinterface nimmt verhältnismäßig viel Die-Fläche ein und damit auch entsprechend viel Energie auf. Nach all den bisherigen Informationen über Fiji würde man wahrscheinlich mit einen 512bit Speicherinterface viel zu fett und ineffizient werden. Da bei TSMC die maximalen Chipkapazitäten nur bis knapp über 600mm² gehen, ist es sogar zweifelhaft ob ein solch fetter Chip fertigungstechnisch überhaupt machbar wäre. Schon mit flächesparenden HBM-Interface wird Fiji eine Die-Fläche über 550mm² nachgesagt. Ich halte es deshalb für wahrscheinlicher, dass AMD mehr oder weniger auch gezwungen ist auf HBM zu setzen.

Außerdem, wenn der GM200 bereits bei einen GDDR5-Speichertakt von 8GHz ins Limit läuft, was immerhin beachtliche 384GB/s wären, würde ein 512bit Speicherinterface mit 7GHz GDDR5 auch nur 448GB/s liefern können. Für diesen im Vergleich minimalen Zugewinn an Bandbreite, müsste man aber enorme Defizite bei Effizienz und Gesamtkosten in Kauf nehmen. Da würde dann HBM wesentlich besser ins Gesamtkonzept passen.
 
Zuletzt bearbeitet:
Ich fürchte die einzige Möglichkeit heute noch einen "Kracher" zu bringen ist per Effizienz. Und "leider" hat da NV schon eine gute Vorreiterstellung ><
Bleibt aber noch die Hoffnung dass AMD durch HBM gut punkten kann! Wir wissen immer noch nicht wie sich die verbesserten Latenzen usw. auswirken werden.
Auch interessent ist wie sich AMD mit DX12 schlagen wird. Nach diesem neuen Bechmark scheint da AMD deutlich besser zu punkten als NV. Könnte aber natürlich an Treibern liegen.

Auf den Futuremark würde ich nichts geben. Nvidia wird bei den Fähigkeiten der eigenen Softwareentwicklungsabteilung maximal 3 Monate benötigen und dann haben die den Benchmark komplett reverse engineered. Die Ergebnisse werden dann erheblich anders aussehen als heute.
 
OT:

Mir hat es schon gereicht als ich gemerkt hab das Standardmäßig bei nVidia die Texturqualität nur auf "hoch" steht bei ner Highendkarte... und man wundert sich das die Bildquali so komisch ist wenn man seine mittlerweile Altbackene 7870 im Zweitrechner daneben laufen hat... :wall:

Mittlerweile traue ich denen alles zu.



Und nein, ich werde net von einem Tag zum anderen zum nVidia Hasser... 970 ist weg und gut. Wer sich eine nVidia kaufen will gerne, rein nach P/L beste Karte. Aber mir gehts ums Ego... und das Verhalten von nVidia war die letzten Monate einfach nur echt das letzte... Ergo: :wink: nVidia... bis ihr mal wieder normal geworden seid...



BTT:

Die Entwicklung von DX12 ist ja auch noch nicht fertig, wie hier jemand schrieb: Mantle 1.0 und DX12 sind beide in der Beta.

Cool ist das via DX12 nVidia seinen Willen bekommt eine "Standard-API" mit den Features von Mantle zu bekommen... nachdem sie FreeSync ja schön direkt boykottiert haben obwohl es wohl auch in Zukünftige DisplayPorts aufgenommen wird (Außer die bekommen die VESA irgendwie dazu das sie das fallenlassen) und auch Mantle nicht mal im Ansatz angeschaut haben... wundern würde mich heutzutage nichts mehr.

Danke MS das ihr euch der Sache angenommen habt. :bigok:


AMD machts richtig sich jetzt noch bisschen Zeit zu lassen den Treiber zu optimieren und wahrscheinlich die R9 390X noch fit zu machen um die Titan X zerlegen zu können. Wenns keine Probleme geben würde hätten die sich nicht die Butter vom Brot nehmen lassen... meine Meinung. Ist eh zu spät jetzt... dann lieber richtig anstatt nen Schnellschuss.


Ich hoffe nur das sie es nicht wieder übertreiben siehe R9 290X - wobei ich das Referenzdesign echt schnieke finde... so laut ist die nicht - ist ja nen dumpfes Rauschen, Luftgeräusche halt.


Wenn ich daneben die HD 7870 Referenz aufheulen höre... :shot:
 
Zuletzt bearbeitet:
Gleich dein erster Satz, ob mich meine Freundin verlassen hat, ist das Sinnbild für deine Aussagen die du machst. Du hast keine Ahnung. Praktisch weniger als Null.
Ich habe dir klar und deutlich mit Links gezeigt, dass du einfach Unsinn erzählst.
http://www.hardwareluxx.de/communit...md-radeon-r9-390x-1065102-9.html#post23314879

Als Gegenargument kommt von dir nur. Ein Freund hat seit Jahren eine 480 und die zieht nie im Leben mehr als 225W beim Zocken.
Klar, wenn du das sagst, sind dies natürlich ultimative und erdrückende Beweise und natürlich unumstößlich. Reale Messungen von Redaktionen wie HWL, HT4U und CB sind
dazu im Vergleich wohl maximal Schätzungen oder was?

Die R9 285 ist über alle Benche gleich schnell zu einer 280X und fertig. Da kannst du sagen was du willst. Bringe Belege. Nur das zählt und nicht irgendein Quatsch ob mich meine Freundin verlassen hat.

Sowohl die GTX 480 als auch die GTX 580 ziehen im Referenzdesign 250W. Die HD 5870 nur 160W. Die GTX 480 hat also bei bis zu 15% mehr Spiele Power 90W mehr verbraten. Die GTX 580 hat es dann wenigstens deutlich besser gemacht. Bei 30%+ mehr Spiele Power 90W mehr verblasen. Im Idle haben beide Karten 10W mehr genommen als eine 5870.

Fazit:
Dieses infantile Geseier, AMD immer scheiße und AMD immer viel zu viel Stromaufnahme und langsam und laut, disqualifiziert eben. Das muss man ganz klar und deutlich sagen.

Hätte Nvidia die 970 einfach in Hardware mit 3,5GB und realen Angaben gebracht für maximal 290€ wäre jede Stimme zu einer alternativen Lösung in Form von einer AMD Karte auch infantiles Geseier. Doch Nvidia treibt es aktuell nach meiner ganz persönlichen Meinung einfach zu bunt.
AMD hat gute Produkte, doch die Leistungsklasse GTX 750 Ti GTX 960/970/980 geht klar an Nvidia. AMD muss und wird schon noch kommen.
Würde ich jetzt von der damaligen HD 5770 umsteigen, würde ich mir die GTX 960 kaufen. Mir sind dabei alle anderen Sachen wie G oder A Sync völlig egal. Ich will einfach nur günstig bessere Leistung. Und es würde ganz sicher wieder eine MSI sein.
MSI HD 5770, MSI GTX 760.

Der einzige Müll hier kommt von dir.
Ich habe alles nochmal nach geschaut und selbst im HWluxx Test zur 285 ist die nicht wirklich schneller als eine 280! Und ja, bei vielen neueren Games, die halt von mehr als 2GB profitieren ist die 280 sogar schneller!
Zur 480 bleibe ich dabei, was PCGH damals gemessen hat deckt sich nun mal mit dem was ich selbst nachgemessen habe, zu meiner 570 GLH und der 480 von meinem Kollegen. Wenn dir blindes glaube lieber ist, als selber zu messen, bitte.

Und was hast du bitte die ganzen Zeit mit deinem Vergleich HD5870 zur GTX480, ich habe nirgends über die HD5870 gesprochen.
Und AMD Geseier?
Nicht von mir! Ich habe auch gesagt, das die beste Karte die ich bisher hatte eine AMD war (HD7950). MSI HD7950 OC/V2 ca125W und eine gute Spieleleistung! Jetzt kommst du bestimmt und behauptest das Gegenteil, aber egal.
Und zu deiner Freundin, irgendwoher muss dein nicht nachvollziehbares Verhalten ja her kommen!
Also entspann dich mal!
Auch ich bin der Meinung, das die 970 billiger sein sollte. Und ja AMD kommt bald mit neuen Karten und ich hoffe die werden gut. Ich erwarte aber nicht viel, da es vermutlich nur Rebrands bis zur 380X geben wird.
Mit freundlichen Grüßen!
 
Ganz ehrlich man verwechselt bei Maxwell ständig Stromverbrauch der Referenzkarten mit Leistung der Customkarten.Wenn man mal vom Nvidia Karusell runter kommt sieht der Abstand gar nicht mehr uneinholbar aus. Anhang anzeigen 317646

Eigentlich nicht. Hat ja nicht jeder eine Gigabyte Gaming G1, die zieht deutlich mehr. Aber so eine Asus Strix oder MSI... die ziehen kaum mehr, bieten auch mehr Leistung. Abstand bleibt.
 
coole informationen für amd nutzer seit HD7000.

Next-Gen-APIs: AMD will neben der CPU auch die GPU besser auslasten - ComputerBase

- - - Updated - - -

Gegenüber Nvidia sieht sich AMD in diesem Aspekt im Vorteil. Maxwell von Nvidia sei nicht in der Lage, mehrere parallele Kommandoströme zu erstellen.

Beachtenswert ist hierbei insbesondere die Klarstellung der bisher durch AMD verbreitete Fehlinformation, allein AMD könne (mit der GCN-Architektur) "Asynchronous Shading" liefern: nVidia kann dies mit der Maxwell-2-Architektur genauso, so daß für aktuelle und kommende Hardware kein Unterschied existiert. Allein beim Support älterer Hardware hat AMD seine Vorteile, da man "Asynchronous Shading" bis hinunter zu den allerersten GCN-basierten Beschleunigern bieten kann, und bei nVidia eben nur Maxwell 2 dieses Feature hat – alle früheren nVidia-Architekturen aber nicht.
So viel da zu.:wink:
 
Ist wohl auch logisch. Sonst würde das wohl kaum ein DX12 Bestandteil werden.
Immerhin, ältere AMDs werden mehr von DX12 unterstützen als ältere NVs.
 
Ist wohl auch logisch. Sonst würde das wohl kaum ein DX12 Bestandteil werden.
Immerhin, ältere AMDs werden mehr von DX12 unterstützen als ältere NVs.

Sagen wir es erstmal so das ist mal ein Feature was sich auch durchsetzen kann.
Da nicht nur einer seine Suppe kocht somit profitieren am Ende zumindest alle Endverbraucher ob nun AMD oder NV.
Nur noch noch die Programmierer müssen da mit ziehen.
 
Zuletzt bearbeitet:
Ist doch super. Ich halte es hier noch eine Weile aus mit meiner 7970. Wenn ich mir anschaue wieviel Geld ich im Moment ausgeben müsste für die % Mehrleistung teilweise, werde ich vielleicht auch bei einer 390X nicht schwach. 700 Euro :stupid:
 
Immerhin, ältere AMDs werden mehr von DX12 unterstützen als ältere NVs.

Naja, warten wir mal ab was davon praktisch überbleibt. Wenn kommende DX12 Spiele mit diesen älteren Karten ohnehin nicht mehr flüssig dargestellt werden können, dann ist es eher Makulatur das ältere AMD Karten davon mehr profitieren würden...
 
bei mir ist die 7970 lighting trotz massivem oc schon sehr hart an ihrer Grenze und darüber - Far Cry 4 und vor allem Assassins Creed und project cars kann ich bereits nicht mehr mit den Einstellungen spielen, die ich gerne hätte, ich hoffe das Gta 5 halbwegs läuft wenn es für den Pc kommt- wobei ich dachte das ich nach der ganzen Verschieberei von Gta ich beim Release schon locker eine neue Graka haben werde - aber Pustekuchen.

Mir geht das ewige Gewarte auf die neuen Amd Karten schon sowas von auf den S****, wenn mir Nvidia ob der 970er Aktion aktuell nicht so dermassen unsympatisch wäre hätte ich schon lange 1-2 980er im Rechner.
 
@ ilovebytes,

ich hätte mir zwei titan x reingebaut, wenn nVidia mich mit den 970er nicht verarscht hätte... aber so wird es diesmal definitiv AMD, wenn AMD es nicht knallhart verkackt.
 
Ist doch super. Ich halte es hier noch eine Weile aus mit meiner 7970. Wenn ich mir anschaue wieviel Geld ich im Moment ausgeben müsste für die % Mehrleistung teilweise, werde ich vielleicht auch bei einer 390X nicht schwach. 700 Euro :stupid:

700€ sind doch keine Seltenheit mehr. Wenn die R9 390X die Titan X angreifen soll, dann sicher nicht für unter 700€
 
bei mir ist die 7970 lighting trotz massivem oc schon sehr hart an ihrer Grenze und darüber - Far Cry 4 und vor allem Assassins Creed und project cars kann ich bereits nicht mehr mit den Einstellungen spielen, die ich gerne hätte, ich hoffe das Gta 5 halbwegs läuft wenn es für den Pc kommt- wobei ich dachte das ich nach der ganzen Verschieberei von Gta ich beim Release schon locker eine neue Graka haben werde - aber Pustekuchen.

Na klar mache ich auch Abstriche bei der Kantenglättung und so. Aber die meisten Sachen laufen auf Ultra aber mindestens High. ACU @ 40 FPS, damit kann ich bei einem SP SPiel gut leben. Ich muss auch sagen das die Grafikkarte seit dem Wechsel auf den 4790K nochmal ordentlich zugelegt hat. Komme allerdings von einem FX-8350 @ 4,6. Bei deinem Project Cars Problem kann ich dir dann nur Assetto Corsa empfehlen. Das läuft rund. Mit GTA V hast du recht. Das habe ich auch schonmal gesagt im Sammler glaube ich. Ich warte mal ab wie es auf einer 7970/280X performt. Wenn schlecht, dann warte ich eben bis ich es spielen kann.

700€ sind doch keine Seltenheit mehr. Wenn die R9 390X die Titan X angreifen soll, dann sicher nicht für unter 700€

Ist nach wie vor, meiner Meinung nach, viel zu viel Geld für eine Grafikkarte. Was da im Moment mit den Preisen abgeht ist absolut nicht mehr zu rechtfertigen.
Nur weil NV nen Tausender für Leistung X nimmt. Es gab auch mal Zeiten da war die aktuelle Leistung nicht so teuer.
Wir reden hier über, und ja, manchmal bin auch ich noch ein kleiner Umrechner, 2000 Mark (falls jemand von den anwesenden mal in dieser Währung etwas gekauft hat) für eine Grafikkarte (bei NV).
Die Dinger haben einen schlimmeren Wertverlust als Autos. Mein erster Rechner bestehend aus nem Duron 800 + Geforce2 + Monitor + allem PiPaPo, komplett halt, hat 2500 Mark gekostet.
Ich werde niemals mehr als 300 €uro für eine Graka bezahlen. Und im Moment lohnt sich das für mich einfach nicht.

Edit: Na gut, sagen wir 400. Mit Bauchschmerzen.
 
Zuletzt bearbeitet:
Ist mir schon klar. Trotzdem mache ich das manchmal. :) Das es nicht ganz so viel wie DM ist ist klar.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh