AMD "Bulldozer" vs. Intel Core i7-990X im Multi-GPU-Test

Bei der Auflösung sind die zwei GTX580 trotzdem der Limitierende Faktor.
Im SLI hätte sie maximal bei 1680x1050 Benchen dürfen...

Lies den Text nochmal. Man wollte ein CPU Limit bewusst ausschliessen. Der Test gehört deswegen eigentlich ins Grakaforum.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich denke mal bei dem Test war das Thema nicht, die Rohleistung der CPU im CPU-Limit zu zeigen. Da war wohl der Anspruch eher, die SLI-tauglichkeit im GPU-Limit zu zeigen. Dass die durchaus unterschiedlich sein kann und damit auf ihre Art auch eine Aussagekraft hat, zeigt ja der Test auch direkt.

Diese Ergebnisse sind also absolut nicht übertragbar auf ein Single GPU Szenario im CPU-Limit. Deswegen ist auch die Auflösung genau richtig gewählt für mehrere 580er.
 
Nochmal langsam auf Deutsch: Ich will die CPU Leistung messen und soll Hohe Auflösungen wählen, damit ich ja die GPU´s am limitieren habe und nicht den Prozessor den ich eigentlich testen will:confused:

Hier liegt das Problem. Hier soll dargestellt werden welche CPU ein SLI / CF Gespann besser auslastet und nicht welche CPU generell schneller ist. Das sind 2 Paar Schuhe. Ein Test im CPU Limit wäre wünschenswert aber hier gar nicht gewollt.
 
das teil hat bestimmt 125 W TDP wa??

soweit ich weiß war das auch nie anders geplant....die brauchen auch vcore wiekein anderer....is ne amd krankheit, wobei wir dann wieder bei den grenzen der übertaktbarkeit sind die bedingt durch die brachiale abwerk vcore doch ziemlich eingeschränkt auf dem papier wirken
 
es geht doch nicht um die sprachliche ausdrucksweise in diesem forum, das interessiert hier nur die wenigsten.

Das denkst du.

Wenn in den Beiträgen hier "digga" und "alda" stehen würde, hättest du auch solches Klientel hier. ;)

Davon ist das Forum natürlich glücklicherweise meilenweit entfernt aber ein gewisses Niveau sollte gehalten werden. Und das gilt für Rechtschreibung und das richtige Verwenden von Wörtern genau so.

Gute Ausdrucksweise und korrekte Rechtschreibung sind nichts schlimmes.
 
Zuletzt bearbeitet:
wenn der Intel bei der auflösung schon schneller ist mit nem alten 990x wird das echt vernichtend gegen einen I7 2600K bei 1920x1080!
Da wäre dann ein 3,4Ghz bulldozer wohl max 200€ wert und selbst dann würde ich lieber 60€ drauf packen und einen i7 2600K kaufen welcher ein sehr hohes Taktpotenzial bietet und auch noch sparsamer sein wird bei deutlich mehr gaming power!
Bin mal auf die final tests gespannt ob AMD das noch drehen kann fals da wirklich noch controller probleme sein sollten was ich kaum glaube aber wenn nicht ist das ding totaler schrott!

Wenn dann noch der SB E kommt ist AMD nochmal ein ganzes stück weiter abgeschlagen!
 
Zuletzt bearbeitet:
wenn der Intel bei der auflösung schon schneller ist mit nem alten 990x wird das echt vernichtend gegen einen I7 2600K bei 1920x1080!
Da wäre dann ein 3,4Ghz bulldozer wohl max 200€ wert und selbst dann würde ich lieber 60€ drauf packen und einen i7 2600K kaufen welcher ein sehr hohes Taktpotenzial bietet und auch noch sparsamer sein wird bei deutlich mehr gaming power!
Bin mal auf die final tests gespannt ob AMD das noch drehen kann fals da wirklich noch controller probleme sein sollten was ich kaum glaube aber wenn nicht ist das ding totaler schrott!

Wenn dann noch der SB E kommt ist AMD nochmal ein ganzes stück weiter abgeschlagen!

Meine Meinung.

1. Abwarten und Tee trinken, man weiß wirklich nicht ob alles 100% richtig lief beim Test oder es vielleicht noch Probleme gab bei BD.

Falls jedoch alles richtig lief, steht eins fest, in Sachen Gaming ist BD hinter SB, aber

deswegen ist BD noch lange kein "Schrott".
deswegen kann BD dennoch ein gute CPU sein und AMD ist näher bei Intel als zu Phenom 2 Zeiten.

sicherlich wäre AMD dennoch wieder mal "nur" zweiter und müßte wieder über Preis die Kunden holen, noch dazu gibt es Sb schon eine ganze Weile länger am Markt.

Man darf aber auch nicht vergessen, wir wissen noch garnicht was BD evtl. in Sachen Anwendungen leistet...man darf aber nicht immer gleich so abwertend über ein Produkt schreiben, wenn eig. noch keine echten und vorallem offiziellen Reviews erschienen sind.


Man sollte bei auch mal die Realität nicht vergessen, Intel ist um ein vielfaches größer, kann viel mehr kapital in F&E (Forschung & Entwicklung) stecken als z.B. AMD, kein Unternehmen kann mal eben so schnell die Verhältnisse umkehren, das Bedarf immer Zeit, überlegt mal selber, bis auf die ATI 5K Reihe hatte immer nV die schnelleren GPU's, weil die eben in diesem Sektor auch größer sind. Ich finde aber, obwohl ich Intel mag, aber AMD deswegen nicht schlecht...die machen einen guten Job. Wenn BD in etwas die Leistung eines SB erreicht ist es eine gute CPU, sie haben aufgeholt. LIano ist z.B. auch sehr gut, hier sieht man das es sich auszahlen kann CPU und GPU KnowHow unter einem Dach zu haben. So kann z.B. AMD evtl. auch mal später Entwicklung in Sachen Konsolen vorantreiben, denn eine All-In-One Lösung ist sicherlich günstiger als stets CPU's bei dem einen Hersteller und GPU's bei dem anderen Hersteller zu ordern.

Das ist zumindest meine persönliche Meinung.
 
Zuletzt bearbeitet:
Nicht zu vergessen, dass AMD bei ca. 10% Marktanteil mit Intel noch mithalten kann.
 
Der BD wird schon gut laufen. In den PC Märkten wird ein großes Schild neben den BD-PC gestellt, auf dem "8 Kerne" steht und dann weiß der Durchschnittskäufer, dass das Ding doppelt so schnell sein muss wie die Intel-Alternative mit dem "4 Kerne" Schild. Das läuft doch wie bei den Megapixeln der Fotoapparaten - wer achtet denn da schon auf die wirkliche Leistung...
 
Der BD wird schon gut laufen. In den PC Märkten wird ein großes Schild neben den BD-PC gestellt, auf dem "8 Kerne" steht und dann weiß der Durchschnittskäufer, dass das Ding doppelt so schnell sein muss wie die Intel-Alternative mit dem "4 Kerne" Schild. Das läuft doch wie bei den Megapixeln der Fotoapparaten - wer achtet denn da schon auf die wirkliche Leistung...

:hail: :hail: :love: :love: Genauso kann es kommen........
 
Wenn die simple Angabe der Kernzahl ziehen würde, hätte AMD auch mit der aktuellen Produktpalette einen exzellenten Stand. Intel z.B. vermarktet die Kernzahl praktisch gar nicht, aus der Produktbezeichnung ist sie nicht erkennbar. Ähnlich wie die früher so wichtige Taktrate ist das heute auch für den Dau kaum noch ein relevantes Kriterium.
 
Na ja, aber trotzdem werden die Aldi PC gekauft auf denen großartig mit Super HD Grafik geworben wirbt und riesiger HDD usw.

Es gibt immer noch genug Leute die sich mit der Materie nicht beschäftigen oder wollen. Und es auch einfach nicht benötigen sich großartige Gedanken darüber zu machen, wozu auch wenn der PC für Offfice und Surfen genutzt wird.
 
:hail: :hail: :love: :love: Genauso kann es kommen........

das bezweifle ich aber stark weil wer war es denn der massiv werbung machte?? Es war immer intel bei Mediamarkt wie z.B. echte 3,2Ghz ganz fett im auf dem bildschirm und in der zeitung mit ihrer drecks Pentium 4 drecks kacke wo ich mich imm drüber lustig gemacht habe weil ein AMD 64 den so platt gemacht hat mit viel weniger takt!!!
 
soweit ich weiß war das auch nie anders geplant....die brauchen auch vcore wiekein anderer....is ne amd krankheit, wobei wir dann wieder bei den grenzen der übertaktbarkeit sind die bedingt durch die brachiale abwerk vcore doch ziemlich eingeschränkt auf dem papier wirken
Seit wann ist Spannung, selbst wenn sie etwas höher ist, eine Krankheit? Das ist lediglich ein Prozessparameter von vielen. Zumal ich auch den Eindruck habe, dass AMD generell etwas mehr Spielraum einplant. Und woher weisst du, welche Spannung Bulldozer haben wird?


wenn man jetzt überlegt, dass ein 2500k für weit unter 200€ zu haben ist und das schon seit ner halben ewigkeit, sehe ich keine gute zukunft für den BD im gaming bereich.
[ ] dir ist bekannt, dass es auch FX-4xxx und FX-6xxx geben wird
[ ] dir ist bewusst, dass FX-4xxx und FX-6xxx weniger als FX-8xxx kosten wird


wenn der Intel bei der auflösung schon schneller ist mit nem alten 990x wird das echt vernichtend gegen einen I7 2600K bei 1920x1080!
Da wäre dann ein 3,4Ghz bulldozer wohl max 200€ wert
Seit wann werden Prozessoren explizit für Spiele verkauft?


Sry, aber manche Kommentare sind einfach nur :wall:




Falls jedoch alles richtig lief, steht eins fest, in Sachen Gaming ist BD hinter SB
Begründung? Seit wann gibt es einen Sandy Bridge Prozessor mit 4 GHz? Wo kann ich offiziell nachlesen, mit welchen Taktraten Zamebzi gelaunched wird? Wurden hier überhaupt schon mal Gulftown vs Sandy Bridge SLI Tests aufgezeigt?

man darf aber nicht immer gleich so abwertend über ein Produkt schreiben, wenn eig. noch keine echten und vorallem offiziellen Reviews erschienen sind.
Eine der ganz wenigen gehaltvollen Aussagen, die ich hier lese. Leider.
 
Man sollte bei auch mal die Realität nicht vergessen, Intel ist um ein vielfaches größer, kann viel mehr kapital in F&E (Forschung & Entwicklung) stecken als z.B. AMD, kein Unternehmen kann mal eben so schnell die Verhältnisse umkehren, das Bedarf immer Zeit, überlegt mal selber, bis auf die ATI 5K Reihe hatte immer nV die schnelleren GPU's, weil die eben in diesem Sektor auch größer sind.


Eben nicht, bei Grafikkarten erlebt man da erstaunlicherweise ein ständiges auf und ab, seit ATI mit dem R300 das erste Mal deutlich schneller war als Nvidia. Beim R4x0 vs. NV4x war es halbwegs ausgegliche, AFAIR war ATI schneller, aber Nvidia konnte mit SM3.0 punkten. Dann war ATI mit dem R520 erst wieder deutlich schnlechter, um dann mit dem R580 wieder gleich auf oder vorbei zu ziehen.
Erst mir dem R600 kam für ATI eine längere Durststrecke, bei RV670 und RV770 konnte man nur über den Preis gehen, Nvidia hatte zuerst mit dem G80 und dann dem G200 immer deutlich schnellere Karten. Was hat es gebracht? Nicht viel, der RV870 war dann lange Zeit ungeschlagen und der GF100 konnte nur mit massiven Defiziten in anderen Bereichen knapp die Leistungskrone erringen.
Trotzdem hat dann wieder AMD gepennt und Nvidia ist mit den GF11x Chips mehr als konkurrenzfähig, bei AMD geht es wieder über den Preis. Zugegeben, einen solchen Gleichstand bei vielen Modellen (bis auf die GTX580 haben alle Modelle einen fast gleichschnellen Gegenpart) hatten wir schon lange nicht mehr, aber im Grafikkartenbereich ist mit jeder neuen Geration wieder spannend.

Bei den CPUs dagegen ist Intel seit dem Core2 immer leicht bis deutlich schneller. Hier lassen sich offenbar Defizite nicht so leicht ausbügeln, vielleicht wirklich weil Intel ein viel größerer Chipgigant und damit Gegner ist als Nvidia.
 
Hi mr.dude

ich gebe dir da vollkommen recht, wer hier annimmt das ein 2600K einen 990X in einer SLI umgebung abhängt (singel Grafikkarte ist der 2600K gemittelt keine 2% schneller durch die anspruchslosen Games) der sollte sich erstmal schlau machen.
Ich finde die Werte für eine SLI umgebung garnicht so schlecht, klar sind einige parameter nicht bekannt aber grundsättzlich finde ich die werte nahe beieinander sehr viel positiver wie manch einer hier ausdrückt. Den der NV SLI Treiber hat noch Beta Stadium sollte man anmerken.

lg
 
Bei den CPUs dagegen ist Intel seit dem Core2 immer leicht bis deutlich schneller. Hier lassen sich offenbar Defizite nicht so leicht ausbügeln, vielleicht wirklich weil Intel ein viel größerer Chipgigant und damit Gegner ist als Nvidia.
Zum einen das. Zum anderen aber auch, weil man bei GPUs durch den Treiber einen viel grösseren Einfluss auf die Performance hat.
 
[ ] dir ist bekannt, dass es auch FX-4xxx und FX-6xxx geben wird
[ ] dir ist bewusst, dass FX-4xxx und FX-6xxx weniger als FX-8xxx kosten wird



Seit wann werden Prozessoren explizit für Spiele verkauft?


Sry, aber manche Kommentare sind einfach nur :wall:


Begründung? Seit wann gibt es einen Sandy Bridge Prozessor mit 4 GHz? Wo kann ich offiziell nachlesen, mit welchen Taktraten Zamebzi gelaunched wird? Wurden hier überhaupt schon mal Gulftown vs Sandy Bridge SLI Tests aufgezeigt?

Ich habe meine Meinung du deine!
Ich zocke halt mit meinem Zocker PC und daher hatte ich auch leicht intresse am BD allerdings habe ich auch schon videos bearbeitet und so weiter aber beim Zocken sind mir die FPS wichtiger weil da was in echtzeit passiert wärend ich beim Video Bearbeiten nicht umbedingt am PC sitzen muss um mir die berechnung an zu sehen! Das kann von mir aus auch etwas länger dauern da wären mir die paar minuten nicht so wichtig wie die FPS beim zocken!
Die leute die ich kenne die etwas von der CPU berechnen lassen den rechner meist eh machen und kümmern sich dann derweil um andere dinge!

P.s. mir ist es persönlich auch latte ob ich nun einen AMD oder Intel im rechner habe oder Nvidia oder AMD GPU das ist latte hauptsache die leistung passt!
Bei dir denke ich meist du arbeitest für AMD so wie du den BD verteidigst :rolleyes:

Ob es nun einen SB@4Ghz gibt oder nicht.... So gut wie alle leute die ich kenne die ein spiel zocken haben auch OC auf der CPU weil man damit sehr günstig viel leistung bekommt die man grade bei starken Grafikkarten braucht und da ist der SB echt ne granate in sachen OC+ verbrauch!
Tests gibt es auch zu genüge mit SB vs Gulftown und der SB hatte dabei immer die nase vorn
 
Zuletzt bearbeitet:
Hi mr.dude

ich gebe dir da vollkommen recht, wer hier annimmt das ein 2600K einen 990X in einer SLI umgebung abhängt (singel Grafikkarte ist der 2600K gemittelt keine 2% schneller durch die anspruchslosen Games) der sollte sich erstmal schlau machen.
Ich finde die Werte für eine SLI umgebung garnicht so schlecht, klar sind einige parameter nicht bekannt aber grundsättzlich finde ich die werte nahe beieinander sehr viel positiver wie manch einer hier ausdrückt. Den der NV SLI Treiber hat noch Beta Stadium sollte man anmerken.

lg

Gerne, dann schieb mal nen Link rüber......
 
SB ist gerade im Sli deutlich den ersten Core i7 Modellen überlegen.

Zum Thema GPU... seit der 8800GTX ist wohl nV bis auf Ausnahme der ATI 5800 Serie stetig schneller gewesen.

8800Serie > 3800Serie, GTX 200 Serie > 4800Serie, 5800 Serie > GTX 200 Serie, aber < GTX 400 Serie, GTX 500 Serie > 6800 und 6900 Serie.

zu Dude...ich meine natürlich bei gleichem Takt, darum geht es doch in diesem Fall. Wenn der BD mit 4Ghz released wird und schneller ist als SB mit 3,4Ghz schön, dann muß aber auch im Verhältnis das gleiche OC Potential vorhanden sein, also z.B. SB auf 4,5Ghz möglich und BD auf 5,0Ghz...wenn aber beide sagen wir mal human nur 4,5Ghz schaffen, dann kann ich auch annehmen, das BD auf z.B. 4 Ghz gehen muß um vorbei zu ziehen, da bei gleichem Takt eben SB schneller ist, zumindest in Sachen Gaming.

Wie gesagt, das waren nur hypothetische Gedankenspiele, nicht mehr nicht weniger.
 
SB ist gerade im Sli deutlich den ersten Core i7 Modellen überlegen.

Zum Thema GPU... seit der 8800GTX ist wohl nV bis auf Ausnahme der ATI 5800 Serie stetig schneller gewesen.

8800Serie > 3800Serie, GTX 200 Serie > 4800Serie, 5800 Serie > GTX 200 Serie, aber < GTX 400 Serie, GTX 500 Serie > 6800 und 6900 Serie.

zu Dude...ich meine natürlich bei gleichem Takt, darum geht es doch in diesem Fall. Wenn der BD mit 4Ghz released wird und schneller ist als SB mit 3,4Ghz schön, dann muß aber auch im Verhältnis das gleiche OC Potential vorhanden sein, also z.B. SB auf 4,5Ghz möglich und BD auf 5,0Ghz...wenn aber beide sagen wir mal human nur 4,5Ghz schaffen, dann kann ich auch annehmen, das BD auf z.B. 4 Ghz gehen muß um vorbei zu ziehen, da bei gleichem Takt eben SB schneller ist, zumindest in Sachen Gaming.

Wie gesagt, das waren nur hypothetische Gedankenspiele, nicht mehr nicht weniger.

Genau das meine ich auch!
Wenn der BD nach OC genauso schnell ist wie ein i7 2600K@OC würde ich persöhnlich sagen wozu den I7 weil bei multi CPU anwendungen der BD dann hackfleisch aus dem SB machen würde (schätze ich mal) und würde klar zum BD greifen selbst wenn der sagen wir mal 50€ teurer wäre ist ja dann im gesammten auch schneller!

Wenn ich nun allerdings sehr viel videos verarbeiten würde und der BD braucht dann statt 2stunden nur noch sagen wir mal 1.30 würde ich überlegen was ich mache weil der SB zwar langsamer ist aber auch deutlich weniger verbraucht was dann für mich dann eher i7 lauten würde!
Wie viel schneller der BD aber nun im endeffekt ist in sachen encoding wird sich aber noch zeigen müssen!
 
Zuletzt bearbeitet:
"bis auf Ausnahmen der ATI 5800 Serie". Das war aber keine kleine Ausnahme. Gerade weil Nvidia mit G80 und G200 so lange die Perfomance-Krone inne hatte war es verwunderlich, dass AMD mit der ganzen HD5000er-Serie nahezu ein Jahr lang absolut unangefochten war. Wenn ich mich recht erinnere, musste Nvidia sogar die Produktion von G200-Chips einstellen, weil sie zu teuer in der Produktion waren, um über den Preis noch konkurrenzfähig zu bleiben. Trotzdem waren dann die G10x-Chips nicht so viel besser.
Erst mit den Refresh trat dann wieder dieser Gleichstand ein, wobei es zwar enttäuschend war, dass AMD keine der GTX580 ebenbürtige Karte hat (HD6990 zählt nicht), welche aber auch finanziell eher uninterssant ist. Dafür ist aber die HD6950 2GB ein ziemlicher P/L-Kracher, wo wiederum Nvidia sich mit der GTX560 schwer tut, vor allem da es die ja fast nur mit 1GB gibt.

Bevor ich zu sehr abschweife, wiederhole ich nochmal meine Kernaussage, dass im Graka-Markt mit jeder neuen Generation alles möglich scheint. Southern Islands kann mit Kepler den Boden aufwischen, kann aber auch völlig abstinken.

@mr.dude: So enorm sind die Auswirkungen nicht, Treiber können z.B. nicht den den Rückstand einer HD6970 zur GTX580 wett machen. Ich erinnere mich wohl, dass z.B. die HD2900 XT damals durch Treiberverbesserungen noch etwas zu 8800GTX aufgeholt hat, aber das hat am endgültigen Ergebnis auch nicht viel gerändert.
Natürlich sind hier die Einflussmöglichkeiten viel größer als bei der CPU, der die Treiber egal sind.
 
Ich zocke halt mit meinem Zocker PC und daher hatte ich auch leicht intresse am BD allerdings habe ich auch schon videos bearbeitet und so weiter aber beim Zocken sind mir die FPS wichtiger weil da was in echtzeit passiert wärend ich beim Video Bearbeiten nicht umbedingt am PC sitzen muss um mir die berechnung an zu sehen!
Dann hättest du aber schreiben sollen:
Da wäre mir dann ein 3,4Ghz bulldozer wohl max 200€ wert
Das kennzeichnet klar deine persönliche Meinung und dagegen gibt es nichts zu sagen. So wie es dasteht, ist es Müll. Der Wert eines Prozessors definiert sich über mehr als nur seine Spieleperformance. Ganz zu schweigen davon, dass deine Aussage auf Annahmen basiert und weniger auf Fakten.

P.s. mir ist es persönlich auch latte ob ich nun einen AMD oder Intel im rechner habe oder Nvidia oder AMD GPU das ist latte
Na dann haben wir ja zumindest eine Gemeinsamkeit.

Bei dir denke ich meist du arbeitest für AMD so wie du den BD verteidigst
Das hat nichts mit verteidigen zu tun. Aber der Müll, der hier oft geschrieben wird, ist einfach nur zum Kopf schütteln. Und wie sollen Leute kapieren, dass sie Müll schreiben, wenn man es ihnen nicht vor Augen hält? Ich mache das ja nicht zum Spass, sondern weil ich die Hoffnung habe, dass sie das nächste mal gründlicher über ihre Aussagen nachdenken.

Ob es nun einen SB@4Ghz gibt oder nicht so gut wie alle leute die ich kenne die ein spiel zocken haben auch OC auf der CPU weil man damit sehr günstig viel leistung bekommt die man grade bei starken Grafikkarten braucht und da ist der SB echt ne granate in sachen OC+ verbrauch!
Irrelevant. Prozessoren werden mit einem bestimmten Takt und einer bestimmten TDP verkauft. Und damit müssen sie sich messen lassen, ebenso der Preis. Ob du dann noch übertaktest oder nicht, ist deine persönliche Angelegenheit und hat keinen allgemeingültigen Wert.

Tests gibt es auch zu genüge mit SB vs Gulftown und der SB hatte dabei immer die nase vorn
Single-GPU, ja. Und selbst da liegt Sandy Bridge im Schnitt lediglich im einstelligen Prozentbereich vorne, wenn es nach CB geht. Zeig mir doch mal SLI Benchmarks zwischen Gulftown und Sandy Bridge.


ich meine natürlich bei gleichem Takt, darum geht es doch in diesem Fall. Wenn der BD mit 4Ghz released wird und schneller ist als SB mit 3,4Ghz schön, dann muß aber auch im Verhältnis das gleiche OC Potential vorhanden sein, also z.B. SB auf 4,5Ghz möglich und BD auf 5,0Ghz...wenn aber beide sagen wir mal human nur 4,5Ghz schaffen, dann kann ich auch annehmen, das BD auf z.B. 4 Ghz gehen muß um vorbei zu ziehen, da bei gleichem Takt eben SB schneller ist, zumindest in Sachen Gaming.
Siehe oben. OC ist kein allgemeines Bewertungsmerkmal. Interessant als Zusatztests in einem Review, mehr aber auch nicht.


So enorm sind die Auswirkungen nicht, Treiber können z.B. nicht den den Rückstand einer HD6970 zur GTX580 wett machen. ...
Es ging mir auch nicht um die Auswirkungen von Treiberupdates, sondern um den Grad der Kontrolle. Bei CPUs hast du praktisch überhaupt keine Kontrolle. Du musst dich auf den jeweiligen Entwickler und den verwendeten Compiler verlassen. Bei GPUs hast du über den Treiber deutlich mehr Kontrolle.
 
Zuletzt bearbeitet:
Ja aber überleg mal was der BD für ne TDP hat und was der SB hat und der SB hat auch noch ne GPU an board die frisst mit!
die frage ist was würde der SB ohne GPU bei 125TDP ausnutzung an leistung im vergleich zum BD abliefern ???
 
hi

nachtrag der test 2600k 4ghrz vs 920 4ghrz sli test
Link
ich glaube der 990x schaft mind die 920 performance. irgendwan sollte man entusiast in intel masstäben verstehen ;)

lg
 
hi

nachtrag der test 2600k 4ghrz vs 920 4ghrz sli test
Link
ich glaube der 990x schaft mind die 920 performance. irgendwan sollte man entusiast in intel masstäben verstehen ;)

lg

der test ist irgendwie seltsam. denn selbst bei single gpu ist der SB kaum schneller als der 920. das stimmt mit der realität aber nicht so überein
 
Trotzdem hat dann wieder AMD gepennt und Nvidia ist mit den GF11x Chips mehr als konkurrenzfähig, bei AMD geht es wieder über den Preis.

Das muss ich kritisieren.
AMD hat nicht gepennt.

nVidia hat eine Neue Architektur losgestartet (GF100) und AMD hatte eine alte funktionierende verbessert.
Dann hat AMD bei den HD 6900ern einen neuen Ansatz und nVidia waren es, die die "alte" hatten die lediglich gebessert wurde.

AMD kommt jetzt mit wieder eiener änderung (Von Very Long instruction Word [VLIW-4] auf SIMD)

Zwar besteht eien GPU aus mehr als nur Shadern, da aber nVidia mit Kepler auch einiges ändern will, wird es Spannend.

Von geschlafen sehe ich da nichts, sondern einfach Pech gehabt. Mal der Eine dann der Andere, wie es öfter so ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh