[Sammelthread] Grafikkarten - Technikdiskussion

guter einwand FDSonne. P/L hab ich nicht bedacht.

mein problem ist weniger der anschaffungspreis, sondern mehr die leistung pro watt bei den derzeitigen modellen.
denn eine Radeon R9 270 mit ihren 150W ist bei mir zz stromtechnisch obergrenze, und die ist mir noch einen kleinen tick zu langsam.

so 12-15% mehr performance bei gleichem verbrauch wäre schon nötig damit ich aufrüste. mal sehen was Tonga bringt. :wink:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hallo zusammen,

ich habe da mal so eine Frage hoffe ich darf die hier stellen.

Und Zwar hatte ich eine PowerColor R9 290 PCS+ Grafikkarte und konnte damit Battlefield 4 auf 150 FPS und mehr spielen.
Durch einen Defekt der Karte ging diese in Reparatur. Weil ich nicht so lange auf die Reparatur warten wollte kaufte ich mir folgende Grafikkarte Sapphire Radeon R9 290X Vapor-X Tri-X OC Aktiv
Der Witz an der Sache ist das die Sapphire Radeon R9 290X Vapor-X Tri-X OC Aktiv beim 3DMark test 5% mehr leistung hat gegenüber der PowerColor R9 290 PCS+, hat aber bei Battlefield 4 nur rund 90 - 140 FPS.

Wie ist das zu erklären ? Das sonstige System und Monitor sind gleich genau so wie die Grafikeinstellungen.

Vieleicht hat da ja einer eine Erklärung oder ggf. eine Lösung ;)
 
Die Sapphire hat um 50mhz mehr Speichertakt, aber um 10mhz weniger Chiptakt.

Wie ich dier Systeminfo entnehme dient ein i7-4770k als CPU.

Wie ist die Auslastung der Karte, der CPU Ingame? Die Frame-droops können von der CPU kommen.

Und wie warm wird die Karte?
 
habe für einen freund gerade ein neues system zusammen geschraubt. Der Rechner wollte nicht an gehen, bis wir irgendwann die graka als fehlerquelle ausgemacht haben, es handelt sich um eine r9 290(powercolor, turboduo). Wir bekommen kein bild aufs display, hab dann meine 650ti eingebaut, siehe da es läuft. Hab die ATI dann noch bei mir in den Rechner gepackt, bekomme auch kein bild, habe jedoch auch nur einen 8-pin pci-e stromanschluss. Bei meinem kumpel sind beide stromzufuhr steckplätze 6-pin und 8-pin angeschlossen, wie es sich gehört. Es handelt sich um ein 500w be quit! netzteil, habe dann jedoch gerade gesehen, dass laut hersteller, ein 750w netzteil pflicht sein soll. Jetzt meine Frage, kann es wirklich angehen, dass ich beim booten kein bild habe, weil das netzteil zu schwach ist? ich mein, der zieht ja nicht beim booten direkt 500w aus der dose?!

ASRock H97 Pro4
Be quiet! Pure Power L8 500W
Intel Xeon E3-1231 v3
 
Ich denke auch nicht das es am NT liegt. Wird wohl echt die Karte sein.

Hat das Bord zufällig onboard Grafik? Oder Platz für eine 2te Karte?

Vll mal kombinieren und schauen ob sie im win überhaupt auftaucht.

Denke aber auch ohne dem das die Karte ein sitzen hat.
 
ein frage, klingt jetzt noob mäßig aber warum zum henker kosten TESLA bzw. QUADRO Karten so viel mehr bzw. was rechtfertigt den Preis von 10000€ einer QUADRO 6000 mit veralteter Fermi Architektur?
 
Die Zertifizierung der Hardware nebst Software/Treiber von diverser Profisoftware. In dem Bereich legt man viel Wert auf Support und Zertifizierung... weil man im Ernstfall mit her Bastellösung alleine mit seinem Problem steht ;) und wenn Zeit = Geld ist, kostet dich Jede Minute, die die Hardware nicht das tut, was sie soll ein heiden Geld.

Deswegen nutzt man dort häufiger zertifizierte Hardware und Software, weil dir da eine Funktion quasi garantiert wird.
 
Korrekt. Auch sind z.b. die Treiber auf Leistung und Qualität optimiert. Gerade in CAD, Maya usw kann das gewaltige Unterschiede machen.
 
Moinsen,

mal eine Frage, kann man die Betriebsstunden der Grafikkarte auslesen...??..ich habe heute meine AustauschGraka von Evga bekommen (super Service muss man dazu sagen) und Sie ist released im März 2012 (GPU-Z). Was im Grunde ja normal ist für eine alte 680.

Nun würde mich ja mal interessieren, wie lange die schon ind en letzten 2 Jahren gelaufen ist. Laut google kann man es noch nicht, aber hier gibt es bestimmt richtige "Cracks" die einen weg gefunden haben, sowas auszulesen...;)

grtz
 
Moin!

Ich hätte da mal eine Frage zu den Grafikkarten-BIOS und deren Versionen.

Ich habe eine "Inno3D GTX 980 iChill Air Boss" und habe dort in der Info die BIOS-Version "84.04.1F.00.AD" ausgelesen. Andere Karten nutzen da zB "84.04.1F.00.C6", usw. und auch auf techpowerup.com ist bei der Inno3D eine andere Version angegeben. (Aber leider nicht zu meiner eigenen Karte).


Wie kann ich bei Nvidia Karten feststellen, welche Version eine neuere und "bessere" Version ist?



Und kurz zum Thema BIOS-flashen: ist es möglich, auch auf meine Inno3D zB ein "Zotac AMP!Extreme" BIOS zu flashen? (Nur eine Beispielfrage)



Danke & Lg!
 
Zu 1) stell dir die Frage, ob irgendwas nicht so läuft wie du willst oder ob das Bios ein feature liefert, dass du noch nicht hast (bei evga war es nachträglich das 0% Lüfter Bios beispielsweise). Ein Flash ist meiner Meinung nach unnötig, wenn du bisher keine Probleme hast/ Feature vermisst
zu 2) Wenn beide Karten das gleiche Design (Ref Design beispielsweise) ohne weitere Veränderungen haben, dann wird es zu 99% gehen, bei unterschiedlichen Designs: lass es definitiv sein!
 
Weiss jemand wo ich nen Tool finden kann das mir anzeigt wie voll der Graphikkartenspreicher beim spielen ist? Im Idealfall dass ich das nachgucken kann wenn ich fertig mit zocken bin. Würde gerne wissen ob mein 7970 noch Luft hat oder der Speicher voll läuft.
 
Der afterburner kann das, aber dein vorhaben wirst du so nicht realisiert bekommen. Wenn da steht das 3gb voll sind heißt das noch lange nicht das du ein speicherproblem hast, denn solange speicher da ist wird quasi nicht aufgeraeumt. Sprich nach einer gewissen zeit hast du muell im speicher. Mir ist nur eine methodik zum ueberpruefen eines zu kleinen speichers bekannt: hast du nachladeruckler? Alles andere ist meiner meinung nach Kaffeesatz leserei.
 
Hallo Leute!
Ich brauch mal schnell euren Rat.


Momentan besitze ich eine r9 295x2 (ca 1 Monat alt) und habe ein Angebot von 700€ für die Karte bekommen.

Hier meine Frage:
Soll ich sie verkaufen und mir eine Gtx 980 und später (oder eher früher ^^) eine zweite holen?

Eigentlich bin ich mit der r9 295x2 ganz zufrieden aber die zwei 980er ziehen halt nicht ganz so viel Strom (was eher nebensächlich ist) und sind im sli noch um einiges schneller!

Ob ich die Leistung brauch oder nicht sei jetzt mal dahin gestellt ;)


Danke im voraus :)
 
Wer bitte gibt dir 700 dafür? :d

Gesendet von meinem One plus One 64GB mit der Hardwareluxx App.
 
Hammer Typ :d

Naja also ich würde es nicht machen, sondern erstmal die neuen AMD Karten abwarten.
Dann kannst du immer noch entscheiden ob du wirklich nochmal auf 4GB Karten wechseln willst.
Es hat schon einen Grund warum alle ihre 780/780ti rausschmeißen.
In einem Jahr wars das mit 1080p und ich persönlich möchte dann nicht schon wieder am Speicherlimit hängen.

Gesendet von meinem One plus One 64GB mit der Hardwareluxx App.
 
Zuletzt bearbeitet:
Ok also besser warten? ^^
Ich glaub eh auch dass das gescheider ist :)

Danke
 
Was macht euch eigentlich so sicher, dass gerade die AMD Modelle mehr VRAM bringen sollen?

Nach aktuellen Gerüchten zur Folge soll doch der Bermuda bei AMD mit HBM Speichern kommen. Obs stimmt, ist zwar nicht 100% raus, aber das Gerücht hält sich...
HBM in der ersten Ausführung kommt mit 4GB :wink:
Es wäre zwar technisch möglich auch 8GB zu verbauen, dafür müsste man das Ganze wohl aber doppeln... Sprich doppeltes SI, doppelte Menge, doppelte Bandbreite.
Erst die zweite Version von HBM soll dahingehend sklierbar sein. (bis 32GB, wenn ich das richtig lese)

Nach Meldungen von Hynix ging die erste Version HBM Ende 14 in Serienproduktion (oder Massenproduktion, wenn man es so will) -> sprich v2 kommt später... Ggf. erst mitte oder gar Ende 15...
Könnte natürlich sein, Bermuda verspätet sich bis dahin. Oder kommt vielleicht doch nicht mit HBM. Aber die Gerüchteküche brodelt ;)
 
5000 -> 1GB
6000 -> 2GB
7000 -> 3GB
200x -> 4GB
300x -> 6/8GB

Da bin ich mir eigentlich relativ sicher.
Aber wer wartet gewinnt immer.
295x verliert langsamer an Wert als 2 290x.
Und dass Nvidia runtergeht wenn die neuen AMD Karten da sind sehe ich als gesichert an.

Also egal wie es kommt, auf der Leistung der 295x kann man sich erstmal ausruhen und brauch nicht hektisch aufzurüsten.

Gesendet von meinem One plus One 64GB mit der Hardwareluxx App.
 
Und worauf fußt diese Zusammenfassung? Anhand irgendwelcher Fakten?

HBM ist von Hynix in erster Instanz mit 4GB Ausbau angekündigt, wenn ich das richtig sehe. Nix mit 6 oder 8GB. Für 8GB würde man das HBM Teil komplett doppeln müssen... Denn erst HBM in der zweiten Version soll quasi variable Speichermengen zulassen.
Die Preisfrage bleibt, kommt das Teil mit HBM oder GDDR5... Wenn letzteres, wären auch mehr wie 4GB drin.

Ob NV mit preisen runtergeht, wenn AMD released ist ebenso absolut nicht raus.
AMD hat Hawaii gebracht und NV hat munter Titan, später TitanBE und 780TI Karten zum Vollpreis verkauft.
NV hat mit GK104 mal ebenso der Tahiti 100-150€ vom ca. 500€ Releasepreis gemopst.
Und der GM204 ist/war mit den 500€+ für die 980er nun auch nicht wirklich beeindruckt von dem, was AMD macht.

Ob sich das mit kommenden Karten ändert? Abwarten ;)
 
für mein build warte ich auf jeden fall das release und ein paar karten und tests ab. da soll auf jeden fall ein dual gpu gespann rein, ob cf oder sli wird sich zeigen. und dann muss es ja noch farblich + wakü zum rest (schwarz weiss) passen.

*wart* :coffee:
 
HBM ist von Hynix in erster Instanz mit 4GB Ausbau angekündigt, wenn ich das richtig sehe. Nix mit 6 oder 8GB. Für 8GB würde man das HBM Teil komplett doppeln müssen... Denn erst HBM in der zweiten Version soll quasi variable Speichermengen zulassen.
Die Preisfrage bleibt, kommt das Teil mit HBM oder GDDR5... Wenn letzteres, wären auch mehr wie 4GB drin.

http://www.hotchips.org/wp-content/...Bandwidth-Kim-Hynix-Hot Chips HBM 2014 v7.pdf

2nd Gen HBM
- 8Gb per DRAM die
- 2Gbps speed/pin
- 256Gbps Bandwidth/Stack
- 4/8 Hi Stack (4GB/8GB)

Fazit: 4GB HBM = 2nd Gen HBM. 8GB mit HBM mit jetziger Generation bereits machbar.
 
Ich möchte nicht extra einen Thread aufmachen habe aber etwas sehr interessantes gefunden

Truth about the G-sync Marketing Module (NVIDIA using VESA Adaptive Sync Technology – Freesync)


Für alle die die englische Sprache nicht ganz beherschen, dort wird im groben folgendes behaupted:

Bei Nvidias G-Sync handelt es sich nur um ein DRM Modul, tatsächlich nutzt es aber einfach die selbe Technik wie der VESA Standart also quasi AMDs FreeSync. G-Sync soll angeblich einfach und alleine über modifizierte Treiber möglich sein.

Evtl. kann das ja mal jemand ausprobieren und bestätigen oder widerlegen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh