AMD zeigt vermutlich erstmals eine Radeon HD 6990

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zumindest kein leeres PCB wie nV :fresse:
 
Warum machen die nicht wie die CPU hersteller DUAL-Core-GPUs und packen dafür 2 GPUs nebeneinander ? Und die KArte sieht für mich ganz ok aus, ich errinnere mich noch an 4870x2 von damals, die sah ja grauenvolll aus :d
 
So gesehen ist die Cayman GPU dual core, da es aus 2 identlische Einheiten besteht.
 
Moment mal... hier wird die ganz Zeit von Mikrorucklern geredet, welche den Kauf einer solchen Graka hinfällig machen sollen. Dazu fällt mir folgendes ein:

- Die Karte ist noch nicht draussen - wenn sie nicht getestet ist, woher soll dann Gewissheit bestehen, dass es Mikroruckler gibt?
- Ab wann treten Mikroruckler merkbar auf? Wie hoch müsste man die Grafikeinstellungen drücken, damit man bei der Dual-Lösung überhaupt in diesen Bereich kommt? Ich denke selbst Crysis 2 wird unter dieser Karte > 60 FPS haben
- Die GPU wurde redisigned. Eventuell hat man sich bei AMD des Problems angenommen?
- Falls nicht, ist eine Dual-GPU-Karte günstiger als 2 Single-Karten und skaliert einen tick besser, als 2 seperate Karten. Für Leute, die eh planen sich 2 dieser Monster zuzulegen, wäre eine Dual-GPU-Karte die perfekte Lösung

Und was NV damit zu tun haben soll ist mir auch schleierhaft. Erst wenn beide Firmen eine vergleichbare Dual-Karte auf den Markt geschmissen haben, darf man anfangen zu vergleichen. Vorher ist das irgendwie... sinnlos.

Tief einatmen, den Sauerstoff ins Hirn fließen lassen, Hirnzellen aktivieren und denken. DANN posten.
 
Mikroruckler sind generell immer noch Vorhanden jedoch müssen die Frames schon unter 30fps sein damit sie wirklich zum vorschein kommen. AMD hat es sehr stark verbessert mit den neuen Karten und Treibern. DualGPU Karten skalieren immer etwas schlechter als 2 gleiche Karten in CF.
 
Warum machen die nicht wie die CPU hersteller DUAL-Core-GPUs und packen dafür 2 GPUs nebeneinander ?


Thermische Probleme;)
Moment mal... hier wird die ganz Zeit von Mikrorucklern geredet, welche den Kauf einer solchen Graka hinfällig machen sollen. Dazu fällt mir folgendes ein:

- Die Karte ist noch nicht draussen - wenn sie nicht getestet ist, woher soll dann Gewissheit bestehen, dass es Mikroruckler gibt?
- Ab wann treten Mikroruckler merkbar auf? Wie hoch müsste man die Grafikeinstellungen drücken, damit man bei der Dual-Lösung überhaupt in diesen Bereich kommt? Ich denke selbst Crysis 2 wird unter dieser Karte > 60 FPS haben
- Die GPU wurde redisigned. Eventuell hat man sich bei AMD des Problems angenommen?
- Falls nicht, ist eine Dual-GPU-Karte günstiger als 2 Single-Karten und skaliert einen tick besser, als 2 seperate Karten. Für Leute, die eh planen sich 2 dieser Monster zuzulegen, wäre eine Dual-GPU-Karte die perfekte Lösung

Und was NV damit zu tun haben soll ist mir auch schleierhaft. Erst wenn beide Firmen eine vergleichbare Dual-Karte auf den Markt geschmissen haben, darf man anfangen zu vergleichen. Vorher ist das irgendwie... sinnlos.

Tief einatmen, den Sauerstoff ins Hirn fließen lassen, Hirnzellen aktivieren und denken. DANN posten.

Es ging bei nV ums Placebo PCB weil hier einige von Fakre redten, nV hatte damals die Fermis mit nem Leeren PCB vorgestellt, das ging einzig alleine ums Thema Fake;)

@Rest
Danke:wink:

:hail:

Eagle

---------- Beitrag hinzugefügt um 17:26 ---------- Vorheriger Beitrag war um 17:24 ----------

Mi DualGPU Karten skalieren immer etwas schlechter als 2 gleiche Karten in CF.
Quatscho_O wo steht das? Die lassen sich meistens nur nicht so hoch Ocen;)

Eagle
 
Zuletzt bearbeitet:
Quatscho_O wo steht das? Die lassen sich meistens nur nicht so hoch Ocen;)

Eagle

Das kann man bei reviews sehen wo sie neben der dual Karte auch die entsprechende 2 Karten CF testen oder auch bei Benchmark listen, wenn eine Dual Karte und die entsprechende CF auf der Liste ist, schneiden die 2 einzelnen Karten immer etwas besser ab im Vergleich, auch wenn die Takte ähnlich sind.
 
AMD, das zieht nicht!

Ich weigere mich nach wie vor Dual-GPU Karten als "Grafikkarten" anzuerkennen.
Ob Du das anerkennst oder in China ein Sack Reis umfällt, beides ist so ziemlich egal.
keks.gif
 

Man muss bedenken dass die 5970 1600SP-s hat im gegensatz zum 1440SP-s. Ich hatte eine 5970 und habe auch bei ein Paar user Benchmarks mitgemacht, da war es immer so dass die 5870 CF beim selben Takt etwas schneller war. Technisch ist es auch erklärbar da die 2 GPU-s erstens die Bandbreite teilen müssen, und der PCI-E Chip für den internen Crossfire sorgt für zusätzlichen Latenz. Das alles führt zu einen Geschwindigkeitsverlust.
 
Ja 2x HD 5870 takten auch stückchen Höher als die 5970;) mann kann es garnicht vergleichen, wäre alles 1:1 gäbe es 0 Unterschied;)

mom habe da 2 rewies in erinnerung, suche die gerade mal raus:)
 
Zuletzt bearbeitet:
Ich verstehe was du meinst, aber ich hatte 2 Rewies wo wgn. der PCIe Bandbreite getestet wurde und es belegt wurde das der selbst bei einer Dualkarte noch nicht ausgelastet ist;)

ich finde die noch :fresse:
 
Die news gibt ja auch nicht viel her, kein Wunder dass dann nur Polemik und Schnellschüsse kommen.

Technisch ist es auch erklärbar da die 2 GPU-s erstens die Bandbreite teilen müssen,

Kostet soviel ich weiß 1 bis 5%, also eher gar nix.
Eventuell geht das dann stärker gegen Null, wenn der neue PCIe Standard rauskommt. :)
 


Hä? :fresse:

Es geht um PCIe 16x Slot und der hat def. ausreichend Bandbreite auch für 2x GTX580 ;) wenns dann eine geben würde...:asthanos:

Das es einen Unterschied zwischen 8 und 16 gib weis ich ;)

Ich finde es noch ;)

---------- Beitrag hinzugefügt um 18:20 ---------- Vorheriger Beitrag war um 17:46 ----------

KLICK ME

Hier siehst du es, Dunkelblauer Balken vs. Grüner Balken Das ist stock HD5970 vs. 2x5870 Crossfire, trotz weniger Takt führt die 5970 fast überall, wenn du dir dann den grauen Balken OC Anschaust sieht das CF Gespann kein Land mehr. Íst zwar relativ hohes OC aber als gutes BSP wgn Bandbreite;) Würde da was Limitieren, würde OC sich garnicht auswirken.

so

gruß

Eagle
 
Genau das wollte ich sehen. Ne Dual-Karte ist doch meist geringer getaktet, als zwei einzelne.
Wenn ich zwei 6970 im CF laufen lasse und die 6990 bei gleichem (!!!) Takt dagegen antreten lasse, würde ich mir vorstellen, dass die 6990 besser ist.
Ergo skaliert die 6990 besser als zwei 6970 im CF. Nur müsste man die 6990 dann auf den Takt der 6970 overclocken.

... oder versteh ich da was falsch?
 
Dein denken geht in die richtige Richtung:wink:

Gruß
 
dann gibts ja endlich paar 580/570 im MP wenn die ATI Leute wieder zur 6990 greifen

nur zu ;)
 
Ich Glaube kaum das jmd. der eine 580/570er besitz zu einer 6990er greifen wird, dieser kauft sich eher eine 2te der obrigen Karten:fresse:


Gruß
 
Woher wollt ihr eigentlich schon im Voraus wissen, dass AMD das Problem mit den Mikrorucklern nicht mit der 6990 beseitigt hat?^^
Ich mein, es KÖNNTE ja sein..... :bigok: :shot:

Eher unwarscheinlich... Dafür muss man wissen, wie MR entstehen. Und das liegt nunmal in der Natur des AFR Modi...
Man kann das Problem im besten Fall bei AFR eindämmen und die Frametimes möglichst angleichen. Was aber in Summe Leistungsverlust zur Folge hat.

Warum machen die nicht wie die CPU hersteller DUAL-Core-GPUs und packen dafür 2 GPUs nebeneinander ?

Nativ Dualcore GPUs machen aus mehreren Sichten wenig Sinn.
Thermische Probleme sind da nur das geringste Übel ;)

- Die Karte ist noch nicht draussen - wenn sie nicht getestet ist, woher soll dann Gewissheit bestehen, dass es Mikroruckler gibt?
- Ab wann treten Mikroruckler merkbar auf? Wie hoch müsste man die Grafikeinstellungen drücken, damit man bei der Dual-Lösung überhaupt in diesen Bereich kommt? Ich denke selbst Crysis 2 wird unter dieser Karte > 60 FPS haben
- Die GPU wurde redisigned. Eventuell hat man sich bei AMD des Problems angenommen?
- Falls nicht, ist eine Dual-GPU-Karte günstiger als 2 Single-Karten und skaliert einen tick besser, als 2 seperate Karten. Für Leute, die eh planen sich 2 dieser Monster zuzulegen, wäre eine Dual-GPU-Karte die perfekte Lösung

MR sind immer und allgegenwertig, sofern nix an den Frametimes angeglichen wird und AFR zum Einsatz kommt. Nur nimmt diese Frametimeunterschiede jeder anders wahr.
Ab einer gewissen FPS Rate sind die Unterschiede so gering, das auch sensible Leute nix mehr erkennen.

Und MR sind nicht die einzige Problematik bei AFR, das Inputlag ist noch viel schlimmer. Um so niedriger die FPS Rate, desto stärker fällt das ins Gewicht und um so mehr GPUs mitrechnen, desto größer die Wartezeit -> auch negativ.

Technisch ist es auch erklärbar da die 2 GPU-s erstens die Bandbreite teilen müssen, und der PCI-E Chip für den internen Crossfire sorgt für zusätzlichen Latenz. Das alles führt zu einen Geschwindigkeitsverlust.

Das würde ich so nicht sagen... Der Signalweg ist deutlich kürzer durch den PCIe Brückenchip. Die beiden GPUs sind intern durch den Brückenchip mit je 16x zusammen angebunden. Es ist also eher sogar ein Leistungsplus zu sehen.
Bei zwei Karten geht das Signal den weiten weg über den Chipsatz/die CPU.

ist sie. und zwar nach echten fps gerechnet. (abstand in ms zwischen den bildern)

Ich hab dir doch damals schon erklärt das es keine echten/unechten FPS gibt.
Eine Sache gemessen in FPS (Frames pro Sekunde) ist immer ein Durchschnittswert der geleisteten Frames in eben einer Sekunde. Wie diese sich zusammensetzten spielt absolut keine Rolle.
Aber man könnte sagen, FPS ist eigentlich denkbar ungeeignet bei der Messung von Multi GPU Gespannen, eben weil nur Durchschnittswerte...

Jetz im Nachhinein kann ich auch schlau daher reden. Ich habe halt irgendwo damit gerechnet das sich der technische Fortschritt auch positiv in der Größe wiederspiegelt. In Richtung kleiner.

Wie lange gibt es die ATX Spezifikationen schon?
Seit dem Pentium 1? Oder gar länger?
Mit sowas muss man halt vorher rechnen... FullSize ATX Karten hatten wir ja in der Vergangenheit hin und wieder auch schon (7900GX2, erste OEM HD2900XT Modelle usw)

7 von 10 war gemeint, meine meinung ist, je teurer die karte, je mehr wird drauf geachtet, auch rede ich vom luxx, wir sind ja hier im luxx und nich bei der mediamarkt forenberatung.. Es gehtja hier darum was uns interessiert und nich opa willi der ne neue graka fürs onlineskat braucht..

Da hast du natürlich recht... Wobei es in Rellation zum Preis gesehen auch klar ist. Denn eine Karte die 30€ koste, und mit 10€ Aufpreis optisch mehr her macht ist ein riesen Unterschied zu einer Karte die 300€ kostet und ebenso 10€ mehr für das optisch hübschere Modell verschlingen würde...
Relativ gesehen ist der Unterschied bei letzterem gesehen deutlich geringer, was eben für viele dann nicht so extrem ins Gewicht fällt.
 
Kannst mir ja gern mal zeigen wo steht wie lang eine Karte laut der Spezifikation sein darf um in einen Mini Tower zu passen wo der Hersteller sich dran gehalten hat.
 
FullSize ATX heist irgendwas von ich glaube 12" sprich knapp über 30cm. Und den Wert hat bis jetzt keine einzige Steckkarte im PC Bereich überschritten seit ATX der Formfaktor ist, der im Desktop Bereich angesagt ist.

Und wenn ein Casehersteller meint, sich nicht daran halten zu müssen, dann muss man wohl oder übel als Käufer des Cases damit leben...
 
Eher unwarscheinlich... Dafür muss man wissen,


Das würde ich so nicht sagen... Der Signalweg ist deutlich kürzer durch den PCIe Brückenchip. Die beiden GPUs sind intern durch den Brückenchip mit je 16x zusammen angebunden. Es ist also eher sogar ein Leistungsplus zu sehen.
Bei zwei Karten geht das Signal den weiten weg über den Chipsatz/die CPU.

Wo ich zumindest die 5970 hatte war es so dass zumindest bei heavens benchmark und mafia 2 benchmark die 5870 crossfire schneller war beim selben Takt.
 
Und MR sind nicht die einzige Problematik bei AFR, das Inputlag ist noch viel schlimmer. Um so niedriger die FPS Rate, desto stärker fällt das ins Gewicht und um so mehr GPUs mitrechnen, desto größer die Wartezeit -> auch negativ.

Wer ist da eignt der grössere faktor beim input lag? Mensch oder computer? wer hat die längere leitung?
 
Wer ist da eignt der grössere faktor beim input lag? Mensch oder computer? wer hat die längere leitung?

Die menschliche Wahrnehmung ist ja quasi variabel, einige merken es eher, andere später.
Fakt ist aber, wenn eine Dual GPU Karte 1FPS liefert, und der Mensch am PC führt eine Aktion aus, dauert es genau 2 Sekunden bis überhaupt auf dem Monitor diese AKtion sichbar wird.
Das ganze steigt linear zur Anzahl der rechnenden GPUs im AFR Modus...

bei 100FPS hingegen sind das nur wenige ms Unterschied, da muss man dann schon geübter Spieler sein um diese Verzögerung wahrzunehmen.

Auch kommt dazu, das das ganze Thema alles eine Verkettung von verschiedenen Ereignissen ist. Der TFT wird ein Inputlag haben, die Maus/Tastatur hat ein Inputlag durch den USB Bus usw. Das summiert sich alles zusammen. Die GPUs setzen dem ganzen halt noch einen oben drauf.
 
Wobei man sagen kann, in der Regel wird die Situation mit input lag von den FPS gewinn stärker verbessert als von den zusätzlichen gpu-s verschlechtert. Ich habe zb Metro mit eine und 2 hd 5970 karten getestet und mit 2 Karten und dadurch auch mehr fps fühlte sich das ganze viel direkter an.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh