PCI/e 3.0 Problematik --> x79 mit GTX 600ter

Wolff1975

Neuling
Thread Starter
Mitglied seit
21.04.2010
Beiträge
75
Ort
Germany
Lieber Doc Asus,
Ich habe da eine rechtliche Frage und Wende mich an sie da ich sicher bin das sie mir Auskunft geben können. hierfür schonmal ein Dankeschön in voraus. Folgendes Problem :

Wenn ich mir ein Asus Rampage 4 extreme gekauft habe und dazu eine Asus GTX 680 betreiben will so fällt mein Hauptaugenmerk auf die produktverpackungen die beide jeweils sich mit dem feature PCI/e 3.0 rühmen jedoch zusammen es lediglich zu einer pci/e 2.0 Verbindung schaffen.

Hintergründe in diesem Link : http://www.hardwareluxx.de/communit...rt-fuer-x79-chipsatz-898555.html#post19060388

Nun meine Frage :

Welches ihrer Produkte grafikarte oder mainbord darf ich wegen falscher werbe versprechen zurück senden ?

Wie genau wird Asus mit diesem Problem umgehen ?
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Jedes Produkt an sich ist ja auch PCIe 3.0 fähig. Aber wohl nicht in der Kombination. Von daher kannst du Asus da nicht irgendwie für in die Pfanne hauen.
 
Dito - was kann ASUS dafür wenn nVidia den Riegel vorschiebt?

Weder Intel noch ASUS ham irgend nen Einfluss drauf wenn nVidia PCIe 3.0 im Treiber nicht zulässt :shake:
 
Intel hatte darauf sehr wohl Einfluss- um ihr Monopol nicht zu gefährden, und Konkurrenz auszuschalten, hat Nvidia keine Lizenz bekommen für den Bau eigener X79 Chipsätze - und jetzt sollen sie Intel den A**** küssen und sich die Arbeit machen und das Risiko eingehen das zu implementieren? Wer keinen Wettbewerb zulässt wie Intel muss damit Leben das andere sich an der Entwicklung, inkl. Treibern, für ihren Monopolmist halt nicht beteiligen. Das der Kunde am Ende der Dumme ist und Asus auch ist halt dann der Preis... - bloß das hier alles NV in die Schuhe zu schieben ist schon etwas einfach ;)
 
falsch verstanden....

@RiMaBo und Felix the Cat

Ich habe niemals vorgehabt Asus in die Pfanne zu hauen ! Ich selbst nutze breitgefechert Asus Hardware und bin sehr begeistert über die Qualität die mir in jeden einzelnen Fall geboten wurde und wird. Gerade deshalb hatte ich mich entschieden mich an Asus zu wenden die ja wie eingangs beschrieben zwischen den Stühlen stehen und dadurch Produkte anpreisen die das beworbene nicht erfüllen. Meine Hoffnung basiert darin das Asus die stärke Besitz und den willen sich für seine Kunden stark zu machen oder eindeutige Klarheit zu schaffen.

@Doktor[ASUS]
Die quelle die sie mir nennen habe ich bereits in den Hintergrund Informationen genannt (sich bei jedem Post genau zu informieren und alles zu lesen ist schwer das verstehe ich sehr wohl) nun eine frage kann die Funktion des Patches bei Win 8 oder zukünftigen Betriebssystemen garantiert werden wohl kaum.
Ich hatte ehrlich mit einer fachkundigeren engagierten Antwort gerechnet schade. Hier werden auch ihre Kunden hinters licht geführt oder ?
trotz dessen natürlich auch ihnen ein schönes Wochenende.
 
Das board mit pcie 3.0 sollte passen. Die Grafikkarte auch.

Der knackpunkt ist, dass die CPU offiziell kein pcie 3.0 unterstützt:

PCI Express Revision 2.0
Quelle: Intel® Core

in dem vom doc geposteten link steht auch, dass sich bei ein und der selben mainboard- grafikkarten- kombination je nach getesteter cpu das verhalten (timings) änderte.
 
@RiMaBo und Felix the Cat

Ich habe niemals vorgehabt Asus in die Pfanne zu hauen !

Aber deine Überschrift, klingt sehr danach.

Dieser Satz ebenfalls:
Welches ihrer Produkte grafikarte oder mainbord darf ich wegen falscher werbe versprechen zurück senden ?

Aber Asus macht ja keine falschen Werbeversprechen, da die GTX680 PCIe 3.0 fähig ist und das Board selber auch. Aber wie lrwr schreibt, ist es die CPU nicht und in der Kombination wird PCIe 3.0 offiziell halt nicht unterstützt.
 
lrwr hat den Umstand schonmal angerissen, darauf will ich nochmal (deutlich) näher eingehen.

Wolff, du solltest dich vorher evtl mal genaustens über die Begebenheiten informieren, bevor du 1. Schlüsse ziehst und 2. nur dann solche Aussagen (wie diese im Titel) tätigen, wenn du die Umstände auch klar belegbar sind.

Aber fange wir mal bei lrwr, bzw bei den Grundlagen an.

PCIe ist ein Bussystem, welches, je nach Ausführung, mit verschiedenen Taktraten arbeiten kann. PCIe ist grundlegend eine Punkt zu Punkt Verbindung, es gibt also immer ein Start und ein Ziel, also nicht wie früher bei PCI, mehrere Ziele.

Die Ziele sind klar, das sind in der Regel Steckkarten, oder anderen Onboardperipherie. Der Start an der Stelle ist unterschiedlich gelöst, mal ist es ein Chipsatz, mal eine CPU. Das ist durch unterschiedlichen Anforderungen und Produktkategorisierung verschieden implementiert. Aufgrund der eneromen Bandbreiten und auch besseren Nutzbarkeit von PCIe hat man sich vor einiger Zeit dazu entschieden, dass man die GPUs eher direkt an die CPU anbindet, als dass man es über den Umweg Chipsatz macht, was bis dato Standard war. Es sind also, zumindest einige PCIe Slots entweder direkt, oder aber über einen Switch um flexbel die maximale Performance bereitzustellen, angebunden.

Damit ist nun, zumindest für ausgewählte Slots, die CPU der "Ansprechpartner" für die GPU. Dabei übernimmt die CPU dabei die Notwendigkeit des kontrollierenden Glieds für dieses System. Wenn man so will, gibt die CPU vor, was Phase ist und sie entscheidet damit maßgeblich darüber ob nun, unter anderem, PCIe 1.0, 2.0 oder gar 3.0(welche sich ja über die verschiedenen Datenraten definieren) gefahren wird.

Da die Wahl der Datenraten nicht nur von der CPU, sondern von allen teilnehmenden Gliedern des Übertragungssystem, abhängt, betrachten wir auch noch kurz diese.

1. das Ziel: Ohne Ziel kein System. Neben der CPU als "Sender" muß auch der Empfänger in der Lage sein, die entsprechenden Arten zu schaffen. Die GPU muß also PCIe x.0 fähig sein.
2. der Übertragungskanal: Wenn der Übertragungskanal nicht in der Lage diese Datenraten gesichert innerhalb der Parameter zu übertragen, bringen einem die besten aktiven Komponenten nichts. Das kann man evtl mit einem analogen Telefon vergleichen. sind die Leitungswege zu lang und zu schlecht aufgebaut(ggf. externe Störungen), dann hat man ein großes Rauschen. Wird die Leitung aber besser, so vermindert sich das Rauschen und damit die Sprachqualität. Und selbiges gilt dabei auch für die Leitungen und auch Stecker auf dem Mainboard.

Es müssen also alle drei beteiligten Gerätschaften die Anforderungen an den Kanal erfüllen. Dies wird zum einen durch den Einsatz geeigneter aktiver Komponenten erreicht, aber auch durch entsprechende Nachweise in Bezug auf die Spezifikationen des Standards

Nun beschäftigen wir uns mal kurz mit den Nachweisen:
1. Die GPU hat den Nachweis durch interne Tests erbracht, indem man zum einen die passende HW verbaut hat und die Signale entsprechende getestet hat. -> PCIe 3.0 GPU
2. Das Mainboards hat diesen Nachweis auch erbracht. Dort hat man dann einfach an die entsprechenden Pins der CPU Signalquellen angebracht und geschaut, ob diese Signale zwar verschlechtert, aber noch innerhalb der Parameter, am Ende des Übertragungsweges (PCIe Slot) wieder rauskommen. (ggf. über entsprechende PCIe Switches geleitet, welche auch berücksichtigt werden müssen) -> PCIe 3.0 MB
3. Und nun die CPU, auch diese muß natürlich als Initiator, und damit maßgebendes Gleid, auch den Umstand der Signalqualität erfüllen. Das läuft im Grund auch genauso ab. Die CPU bringt also, nach entsprechenden Designs, eine Signalqualität, welche nach den Spezifikationen innerhalb der Parameter rauskommen.

Nach Spezifikation heißt im übrigen, dass hier klare Grenzen gesetzt sind, welche sicherstellen, dass noch soviel Spielraum ist, dass es auch dann noch läuft, wenn die gesamte Technik Umwelteinflüssen ausgesetzt ist, welche im Labor nicht herrschen. Es gibt dort also gewisse Puffer, damit nicht beim kleinsten Husten schluß mit der Freude ist.

So, jetzt wissen wir, wie die Definition ob PCIe 3.0 oder nicht zustande kommt.

Schauen wir uns die Komponenten nochmal genauer an, bzw, was die Hersteller dazu sagen.

Die GPU erfüllt nach Standard die PCIe 3.0 Anforderung und wurde somit auch vom Hersteller freigegeben. (Quelle erspar ich mir jetzt mal)
Das konkrete MB wurde auch für PCIe 3.0 freigegeben. (auch hier verzichte ich mal auf die Quelle - es bedeutet aber, dass der Übertragungsweg so designt wurde, dass PCIe 3.0 Datenraten gefahren werden können, das wurde auch nachgewiesen)
Und jetzt aber mal die CPU und da wird es eigentlich spannend, daher gebe ich hier mal Quellen an.

Intel unterscheidet seine CPUs nach Versionen. Du hast die 2. Version der der Intel Core i7, konkret Extreme Prozessor, CPU. Codename dafür ist Sandy Bridge-E.
Das Datenblatt ist hier zu finden: Intel® Core
Dort steht drin, was die CPU kann und was nicht, welche Features usw..
Expansion Options
PCI Express Revision 2.0
# of PCI Express Ports 10
So, damit steht nun also drin, dass die CPU auf PCIe 2.0 spezifiziert wurde. Sie hat damit nicht die Freigabe für PCIe 3.0.

Nochmal zum Vergleich eine andere CPU, aus der Klasse der 3. Generation Core i7 CPUs. (nicht extreme) Codename ist hier im Übrigen Ivy Bridge
Intel® Core
PCI Express Revision 3.0
PCI Express Configurations 1x16, 2x8, 1x8 & 2x4

Halten wir also fest, dass die 2. Gen PCIe 2.0 kann und die 3. Gen PCIe 3.0. Das sind diese Angaben, wie sie der Hersteller angibt und damit als gesicherte Funktionalität angesehen werden kann.

Jetzt hat man aber das Problem, dass die GPU und auch das(konkret deins) MB so gut sind und PCIe 3.0 unterstützen und die GPU das auch gerne nutzen möchte. Es gibt aber wohl das Problem, dass kein Austausch darüber stattfindet, wie denn die CPU damit klarkommt. Die GPU nimmt also erstmal an, ich mach mal 3.0 das passt dann schon. Die CPU erwährt sich diesem Umstand aber nicht und spielt so gut es geht mit. (kann man vergleichen, als wenn ein schnellerer Jogger, den langsameren Jogger mitzieht, das geht, bis zu einem gewissen Punkt, nämlich dann, wenn der 2. aussteigt) Und so sieht es auch bei PCIe 3.0 aus. Aufgrund der evtl nicht vorhandenen PCIe 3.0 Fähigkeit des MBs (weil nicht nachgewiesen - trifft nicht auf deins zu-) und der nicht vorhandenen Fähigkeit der CPU kann es also durchaus passieren, dass es Situationen gibt, wo die PCIe 3.0 Signale nicht mehr so klar sind und damit die Daten der hohen Datenrate mit zunehmender Fehlerhäufigkeit zu kämpfen haben. Die Konsequenz ist, dass hier instabilitäten auftreten, welche verschieden in das System rückkoppeln.

Halt wir also fest: (für die aktuelle Situation in Bezug auf X79)
GPU kann PCIe 3.0
MB kann PCIe 3.0, manchmal aber nicht offiziell
CPU kann kein PCIe 3.0
Wenn wir also mal zum Anfang zurückkommen, das kleinste Glied in der Kette gibt also die Spielregeln vor. PCIe 2.0 ist hier also das Maximal, was geht. In diesem Fall sind die Reserven zur Spezifikation so groß, dass es immer geht. Fährt man nun plötzlich PCIe 3.0, werden die Spezifikation nicht erfüllt. Damit ist es tendenziell möglich, wenn nicht sogar sicher, dass die Reserven nicht eingehalten werden und damit es in Realumgebungen passieren kann, dass etwige Störeinflüsse "Schäden" verursachen.

Jetzt nehmen wir also nochmal deine Aussage von oben.
Die besagt, dass du Asus unterstellst, dass ihr MB nicht PCIe 3.0 fähig ist. Als Quelle dafür gibst du ein Problem mit CPUs an.
Therefore we’ve decided to only support and guarantee PCI Express 2.0 bus speeds on X79/SNB-E with our standard release drivers.
Nimmt man dieses Zitat und setzt daneben nochmal das eben erlernte Wissen, ergibt sich folgendes.
Nvidia unterstützt auf der X79 Plattform in Verbindung mit einer SNB-E (Sandy Bridge-E) CPU nur noch PCIe 2.0. (die CPU kann halt nur offiziell 2.0)
- Die Gründe wurde auch angeführt, da es immer wieder zu (Timing)Problemen kam, was nicht verwunderlich ist, wenn man sich die Infos hier nochmal durchließt. -

Was Nvidia jetzt macht ist einfach folgendes, es ist wohl nachweislich und reproduzierbar, dass in dieser Kombination Fehler auftreten. Um diesem Umstand entgegen zuwirken, macht man folgendes, man zwingt das System von außen (Treiber) dazu, sich an das zu halten, wofür es spezifiziert wurde. Und das ist, aufgrund der CPU, PCIe 2.0

Was du jetzt mit diesem Thread machst ist folgendes, du wirfst Asus die Lüge vor, weil der Hersteller der Grafikkarte dafür sorgt, dass das System innerhalb der (gesicherten) Spezifikation läuft und nicht das zuläßt, wofür das gesamte System eigentlich garnicht ausgelegt ist. Damit erhöht man die Betriebssicherheit aller Systeme.

Du hast also zwar eine PCIe 3.0 GPU und auch MB gekauft, jedoch keine CPU für dieses System. Damit hast du also, rein offiziell, garkein PCIe 3.0 System. (weil ja alle Teilnehmer dies unterstützen müssen)

Wo ist also nun eigentlich das Problem zu suchen?

Sollte es sich herrausstellen, dass es eine CPU geben wird, die offiziell die Spezifikationen von PCIe 3.0 erfüllt, ja dann kannst du auch PCIe 3.0 offiziell und gesichert nutzen. In diesem Zuge möchte ich dann nochmal den Bogen zur Verpackung des MBs spannen. Dort steht drauf, dass es PCIe 3.0 unterstützt. Das heißt nicht, dass es direkt mit PCIe 3.0 gefahren werden kann. (siehe die "Kette") Was wäre denn, wenn die CPU PCIe 3.0 hätte und du eine 2.0er GPU einsetzt. Wirfst du dann ASUS in bezug auf das MB auch vor, dass sie lügen, weil es PCIe 3.0 könne, du es aber nicht fahren kannst? Wohl eher nicht, weil du dir, für diesen Fall, dann die falsche GPU gekauft hast. In der aktuellen Situation ist es aber eher so, dass du dir die falsche CPU gekauft hast.

Anzumerken ist, dass es schon Infos über eine PCIe 3.0 CPU für X79 bzw S2011 gibt. Diese nennt sich da Ivy Bridge-E. Das ist wie der Sandy Bridge-E, der größere Bruder. Da der Ivy Bridge bereit PCIe 3.0 kann, wird der -E es auch können. Wenn es also möglich sein sollte, dass diese CPU in dem MB zu betreiben ist, noch gibt es sie nicht, dann kannst du dich nochmal mit dem PCIe 3.0 auseinandersetzen. Dann aber von offizieller Seite aus, weil dann alle drei Komponenten diese Standard unterstützen.

Bis dahin mußt du mit dem Umstand leben, dass NV standardmäßig das PCIe 3.0 ausschaltet und man es nur optional
you can manually enable faster 8GT/s bus speeds (at your own risk) on GTX 680 or GTX 670 GPUs using the following executable: force-enable-gen3.exe
wieder zuschalten kann. Dies geschieht dann aber auf eigenes Risiko, weil man die HW eigentlich, zumindest was die CPU anbelangt, außerhalb der Spezifikation betreibt und es kann nicht im Sinne der (allgemeinen)User das Ziel sein, dies bereits mit den Standardeinstellungen zu machen. (kein MB kommt mit einem BIOS, was die CPU direkt aus dem Stand mit 4,5GHz übertakten, warum sollte dies also in Bezug auf das Bussystem anders sein)

Ich hoffe die Ausführungen sind nicht zu langweilig, ich hoffe auch, sie stellen den Hintergrund hinreichend dar und zeigen auf, auf welche "dünnem Eis" du dich da, mit diesem Thread, bewegst.

-> erst informieren, dann Schlüsse ziehen

EDIT: Rechtschreibung lass ich mal eben ungeprüft, ist wohl etwas länger der Post, man möge mir das verzeihen

2nd EDIT:
Selbige Situation gab es schon in Bezug auf S1155, als der Mainstreamplattform. Diese konnten, je nach Ausführung, als MB auch schon PCIe 3.0, jedoch waren die Sandy Bridge CPUs nicht in der Lage, dies zu supporten. Erst mit der Einführung von Ivy Bridge würde auch auch tatsächlich nutzbar. Und hier (bei S2011) wiederholt sich die Geschichte, wenn man so will. Du mußt also bis Ivy Bridge-E warten und dann kannst du dann auch alles in Summe so nutzen, wie es mal gamacht.

Analog kann man hier auch nochmal SATA2 und SATA3 rausholen. SATA3 SSD an SATA2 Port geht, nur sollte man sich nicht beschweren, dass die SSD nur mit SATA2 gefahrne wird.

3rdEDIT:
Welches ihrer Produkte grafikarte oder mainbord darf ich wegen falscher werbe versprechen zurück senden ?
Die logische Antwort auf diese Frage ist, dass du die CPU zurückgeben solltest, denn eigentlich ist nur diese nicht PCIe 3.0 fähig. Dann müßtest du natürlich solange warten, bis die PCIe 3.0 CPU verfügbar ist. Ob du das möchstest, ist dabei natürlich eine Entscheidung, die nur du treffen kannst.
 
Zuletzt bearbeitet:
@underclocker2k4
eine Karte in deinem Kartenhaus wackelt ... sie lautet Xeon E5

Intel® Xeon® Processor E5-2620 (15M Cache, 2.00 GHz, 7.20 GT/s Intel® QPI)

SNB-EP alias Xeon E5 supportet offiziell PCI-Express 3.0, mit einem 2011er Board sperrt NVIDIA dennoch PCI-E 3.0... Laut deiner teorie mit dem Ivybride E, müsste es aber funktionieren...
als anmerkung :
SNB-EP als Xeon E5 und i7 haben die gleiche technische Basis, beide basieren auf dem gleichen Die, beide haben 40 PCI-E-3.0-Lanes. Beide erlauben mit einer HD 7k PCI-E-3.0 seltsam oder ?

schade wenn ein so kompliziertes wirklich gut durchdachtes Kartenhaus nur durch eine lockere Karte zusammenfällt.

Allgemeine Anmerkung:
Ach noch etwas ich gebe zu das der Titel doch sehr reißerisch ist ich wollte ihn auch im Nachhinein verändern dies scheint mir nicht möglich zu sein deshalb bitte ich um Verzeihung wenn hierdurch ein falscher Eindruck entstanden ist. Ich behaupte auch nicht das Asus vorsätzlich Kunden mit dem PCI-e 3.0 sicker hinters licht führt sondern befürchte das sie genauso wie der Kunde dies vorher nicht absehen haben können.
Mein Betrag beruht lediglich auf fragen die ich Asus stellen wollte da ich gehofft hatte so herauszufinden wer dieses pci-e 3.0 Problem wirklich zu verantworten hat ich war hier wohl etwas zu spitz in der Formulierung.

Abschließend :
Ich bin der Ansicht das man diesen Beitrag schließen kann da er zu nichts führen wird meine Enttäuschung hierüber ist jedoch groß wenn sich zwei Große Streiten leidet am ende der Treue Kunde und Asus hat hiermit nichts zu tun sie sind auch nur leidtragende des Kampfes 2er Chiphersteller...
 
Zuletzt bearbeitet:
Ich kenn die Xeons durchaus. Dennoch handelt es sich dabei, wie du schon festgestellt hast um eine Sandy Bridge-EP CPU, welche somit keine Sandy Bridge E CPU ist. (die CPU Hintergründe kenne ich nur zu gut)

Dennoch setzt du eine CPU ein, welche nur für PCIe 2.0 freigegeben ist. Dass die CPU durchaus in der Lage ist, PCIe 3.0 zu liefern, streitet keiner ab, jedoch ist das offiziell eben nicht supportet.

Du erhälst also genau das, was du gekauft hast. Du hast für PCIe 2.0 bezahlt und erhälst in jedem Fall PCIe 2.0. OnTop geht dann noch 3.0.

Mal eine Autovergleich:

Du kaufst ein Auto, welche mit 200PS angegeben ist. Der Motor hat aber in der Regel 250PS, das ist schön und freut dich. Nur kommt irgendwann jemand auf die Idee, dass es damit kleine Probleme gibt. Daraufhin wird das Steuergerät so angepasst, dass der Motor wirklich nur noch 200PS liefert.

Du gehst jetzt hin und beschwerst dich, warum? Du hast das, was du bezahlt hast.

Und das "Kartenhaus" fällt auch nicht zusammen. Ich habe durchaus ausgeführt, dass auch mehr geht, nur ist dies keine gesicherte Eigenschaft der CPU und um diesem Problem aktiv zu begegenen, nimmt Nvidia einfach mal den Problemen den Wind aus den Segeln.

EDIT:
Es hat einen Grund, warum Intel die CPU nur für PCIe 2.0 freigibt.

2ndEDIT:
Scheinbar hat mein Post oben dich doch überfordert. Asus wurde auch nicht über das Ohr gehauen, oder der Kunde. Asus hat ihr Mainboard so designt, dass es PCIe 3.0 übertragen kann. Und das tut es auch, wenn man sich entsprechend im Netz umsieht.

Was Asus aber nicht zusichert, dass die IntelCPUs dies durchgängig auch tun.

Beschäftige dich mal mit der S1155 und SB und IB Geschichte, da kommt das selbe zum Vorschein. Die MBs zur Zeit der Umstellung wurden bereits so designt, dass sie PCIe 3.0 schaffen. Diese bekamen auch den Ready Sticker, nur gab es zu dem Zeitpunkt noch keine CPUs.

Du wärst in so einem Fall hingegangen, hättest dir ne SB CPU gekauft, hättest festgestellt, dass dort nur PCIe 2.0 läuft und willst jetzt irgendwem unterstellen, dass man wen übern Tisch zieht. Weder ASUS zieht wen übern Tisch, weil ihr MB tatsächlich PCIe 3.0 kann und auch Intel zieht niemanden übern Tisch, weil sie, in deinem Fall, nur eine PCIe 2.0 CPU verkauft haben.

Also daher mal die Frage an dich, aufgrund welcher Eigenschaft (die du nachlesen kannst und bezahlt hast) willst du jetzt wem nen Strick drehen?

3rd EDIT
Threadtitel kannst du ändern, wenn du in der Threadübersicht, neben deinem Titel "Doppelklick" machst.
 
Zuletzt bearbeitet:
komm lass es doch einfach du hast nicht verstanden das es nicht um mich persönlich geht sondern es um eine rein sachliche frage handelt...

underclocker2k4

Ich kenn die Xeons durchaus. Dennoch handelt es sich dabei, wie du schon festgestellt hast um eine Sandy Bridge-EP CPU, welche somit keine Sandy Bridge E CPU ist. (die CPU Hintergründe kenne ich nur zu gut)

warum gehst du nicht darauf ein ? du weißt das ich recht habe... auch mit einem Ivybridge E wird PCI/e 3.0 auf einem x79 mit einer gtx600ter nicht funktionieren genauso wenig wie mit einem xeon e5 der ja auch pci-e 3.0 freigegeben wurde es jetzt auch nicht funktioniert.

Scheinbar hat mein Post oben dich doch überfordert

Bleib bitte sachlich und wert nicht persönlich ich beleidige dich schließlich auch nicht . so etwas wirft immer ein schlechtes licht auf einen.

Also daher mal die Frage an dich, aufgrund welcher Eigenschaft (die du nachlesen kannst und bezahlt hast) willst du jetzt wem nen Strick drehen?

ich will keinen einen Strick drehen wie du aus meinen letzten Beitrag erlesen kannst wollte ich nur einige fragen stellen . Ich bedauere es sehr das dies nicht verstanden wurde.

Threadtitel kannst du ändern, wenn du in der Threadübersicht, neben deinem Titel "Doppelklick" machst.

danke ich schreibe nicht oft in Foren deshalb ist mir dies entgangen.

---------- Post added at 17:24 ---------- Previous post was at 17:04 ----------

Wie sich herausstellt, wird Sandy Bridge-E nun tatsächlich PCI Express 3.0 unterstützen. Da es aber nach wie vor keine entsprechenden Erweiterungskarten gibt, gestaltet sich die Validierung problematisch.
Quelle : Vier Speicherkanäle und PCI Express 3.0 : Intels Core i7-3960X im Test: Sandy Bridge-E und der X79-Chipsatz sind da

lass uns dieses Ding abschließen. es ist alles gesagt
 
ich will keinen einen Strick drehen wie du aus meinen letzten Beitrag erlesen kannst wollte ich nur einige fragen stellen . Ich bedauere es sehr das dies nicht verstanden wurde.

Naja:

Nun meine Frage :

Welches ihrer Produkte grafikarte oder mainbord darf ich wegen falscher werbe versprechen zurück senden ?

Wie genau wird Asus mit diesem Problem umgehen ?

Wenn Nvidia sich nachträglich entscheidet Pcie3.0 beim x79 nicht zu unterstützen hat Asus nichts falsch beworben, was ja auch ausführlich erläutert wurde. Aber du fragst nach "Schadensersatz" für einen "Schaden", den ein dritter verursacht hat. Nach informationen fragen klingt da latent anders. ;)

Außerdem sollte dir bewusst sein, dass die Pcie3.0 Diskussion dann doch gejammere auf extrem hohen Level ist. Pcie3.0 ist eher Werbegag, als dass es im Moment wirklich benötigt wird... :)
 
Auf einmal geht es dir um sie Sachlage? Dein Post oben ließt sich völlig anders.

Der Chipsatz hat garnichts mit der PCIe 3.0 Geschichte zu tun. Das System arbeitet völlig am Chipsatz vorbei, das ist eine direkte Verbindung CPU-GPU, ohne Umwege. Dies habe ich bereits oben auch ausgeführt.
(andere Slots sind durchaus via Chipsatz angebunden, diese sind dann aber nicht mehr PCIe 3.0 fähig)

Ich werde nich persönlich, nur scheinbar hast du einfach den Post nicht verstanden, dieser beleuchtet die Problematiken, welche es in Bezug auf PCIe 3.0 gibt. (welche zum Zeitpunkt der SB-E sehr neu war)
(Das gleiche könnte man dir mit dem Kartenhaus auch unterstellen. Ich habe nur dargelegt, wo die Schwierigkeiten bezüglich der PCIe 3.0 Problematik zu suchen ist und dass du da mit falschen Vorstellungen an die Sache rangehst.)

Wenn du niemanden einen Strick daraus drehen möchtest, so sei die Frage gestellt, warum du so auf ein Feature pochst, welches so garnicht freigegeben ist. Klar es ist schön, dass es funktioniert, wenn es aber nicht funktioniert, dann ist es aber auch nicht schlimm. Das ist wie mit OC, wenn da 5GHz rauskommen, ist das gut, wenn da 4,5GHz rauskommen, bricht sich auch keiner was ab. Würde man aber deswegen Intel angehen und unterstellen, sie würden absichtlich ihre CPUs schlecht bauen?

Gerne greife ich dein Zitat auf
Wie sich herausstellt, wird Sandy Bridge-E nun tatsächlich PCI Express 3.0 unterstützen. Da es aber nach wie vor keine entsprechenden Erweiterungskarten gibt, gestaltet sich die Validierung problematisch. Wie man dem unten stehenden Diagramm entnehmen kann, garantiert Intel übrigens nach wie vor nur bei PCI Express 2.0 den reibungslosen Betrieb. Das wird sich wohl auch erst ändern, wenn erste Hardware mit der PCIe-Schnittstelle der nächsten Generation auf den Markt kommt.
Daran hat sich bis heute, 3/4 Jahr später, nichts geändert. Maximal die Xeons sind hier als valide Optionen verfügbar. Wenn du also gesichertes PCIe 3.0 ohne Stress willst, dann mußt du diese einsetzen.

Alles andere ist eine Option, aber sicherlich kein Feature, wo man irgendwelche Ansprüche stellen kann.

Der Bogen zum IB-E und E5 Xeon sieht dann so aus, dass diese durchaus funktionieren, denn hier garantiert Intel den reibungslosen Betrieb und dagegen hat dann Nvidia auch nichts mehr einzuwenden.

EDIT:
Es kann durchaus sein, dass Intel mit den neusten Stepping, die Fertigung so im Griff hat, dass es bezüglich den Signalqualitäten keine Problem mehr gibt. Nur kann sich davon keiner was kaufen. Die Leute haben sich i7 CPUs gekauft, wenn sie Glück haben, dann können neuere CPUs mit PCIe 3.0 fehlerfrei umgehen, die Älteren haben damit evtl eher Schwierigkeiten. Dennoch kann sich keiner etwas darauf einbilden, wenns geht, schön und wenn nicht, dann halt nicht. 2.0 ist angegeben und damit verkauft, das muß erstmal reichen.
 
Zuletzt bearbeitet:
Tatsache ist:
Der SB-E ist auf 2.0 spezifiziert, hat allerdings die entsprechenden lanes bereits integriert
Nvidia sperrt PCIe 3.0 für x79 wegen Signal-Störungen/Problemen/unterbrechung (wirklkich auslassen wollen sie sich dazu ja nicht)
Das Mainboard unterstützt PCIe 3.0 definitiv.

Tatsache ist aber auch:
AMD/ATI erkennt keinerlei Probleme bei der Anbindung der gpu und gibt 3.0 frei
Daraus ergeben sich 2 Schlussfolgerungen:
1: AMD is einfach schlecht, gleichgültig gegenüber dem kunden und nicht fähig seine Produkte zu testen
2: Nvidia hat andere Probleme als das Signal, die gegen eine 3.0 Anbindung sprechen. Diese könnten vielfältig sein, angefangen z.B beim IS der x79 cpu's bis hin zu (ACHTUNG UNTERSTELLUNG) einem riesen brass auf intel wegen dem rausschmiss aus der Chipsatz-Sparte hat.

Um deinen Motoren-vergleich heranzuführen, ist das eher so in dieser richtung passen:

"Das Auto kann 250Kmh fahren! also nicht jetzt im moment, grade funktioniert das chassis und die reifen super, aber der richtige motor könnte vllt mal irgendwann möglichrweise kommen"

denn auch die PCIe 3.0 unterstützung beim IB-e ist für mich (persönlich) nach den letzten Monaten und immer weider wechselnden Informationen irgendwie nicht so wirklich sicher. wer weis was da noch kommt.

Abschließend: Auch ich habe mir ein Rampage IV extreme gekauft bin bis auf dieses manko sehr zufrieden und hoffe sehr auf die unterstützung durch IB-e (hoffentlich wirklich mit x79 und nicht doch mit wechselndem chipsatz/sockel)

Ich hoffe ich konnte den Standpunkt von Wolff etwqas sachlicher formulieren.

EDIT: Tatsächlich ist der Chipsatz in gewisser weise schon relevant, da Nvidia in ihrem Statement den Support nicht für die SB-e rausgenomen hat, sondern den x79 chipsatz benennt. Ob das der Aktuellen lage zugestanden ist (keine IB-e auf dem markt) oder tatsächlich ein komplettes Ausklammern des Chipsatz ist weiss ich nun aber natürlich auch nicht
 
Zuletzt bearbeitet:
Evtl ist die Implementationen von Nvidia nicht so robust wie die von AMD, dazu bräuchte man Einblicke in deren Labore. Nvidia hat damit aber wirklich ein Problem und sie sind so defiziel, dass sie dies per Treiber rausbügeln müssen.

Nvidia klammert aber explizit den SB-E aus und nicht den auch in WS eingesetzten SB-EP. Nvidia baut auch keine Chipsätze für AMD CPUs und dennoch könnten sie dort das selbe bewirken, viel mehr noch, sie könnten dabei den direkten Konkurenten damit aktiv angehen. Passiert aber nicht. Daher halt ich es für unwahrscheinlich, dass man gegen Intel schießt und wenn, dann würde man es auch anders aufziehen.
(so Spielerein wie weniger Leistung auch Intel Plattform zB...)

Was den IB-E angeht ist das noch alles Quark im Schaufenster, aber der IB kann das und das würde man sich wohl nicht antun, die Highendplattform schlechter dastehen zu lassen. Wie man sieht ist PCIe 3.0 ein wichtiges Merkmal.
 
Zuletzt bearbeitet:
Ich denke auch nicht dass Nvidia hier aktiv gegen Intel schießt, wollte es der Vollständig keit halber mal mit anmerken :d

Der Punkt "AMD-Nvidia" ist schon interessant, da mich interessieren würde wie man diese bus-Verbindungen ohne eigenen Einfluss auf die Signalstärke tatsächlich "robuster" bauen könnte. Ab einem bestimmten Pegel, kann ein Signal nunmal nicht mehr richtig verarbeitet werden (wenn meine Kenntnisse mich nicht komplett täuschen ist dieses Problem ja dem overvolting beim overclocking ähnlich um die Signalflanken wieder deutlich zu bekommen.) Das AMD hier nicht aus dem Nähkästchen plauden wird kann ich mir denken, aber vllt hat hier sonst jemand eine technische Idee worauf dieser Unterschied beruhen könnte.

Meine größte Sorge ist tatsächlich nicht, das IB-e 3.0 nicht unterstüzt, sondern tatsächlich dass ein neuer Sockel bzw Chipsatz dafür benötigt wird.
Hier würde ich mir tatsächlich von Intel eine etwas klarere Kommunikation wünschen. Das entwicklungsbedingt nicht schon 3 Jahre im vorraus geplant werden kann ist klar, allerdings ist der IB-e mMn trotz der Verzögerung soweit fertiggestellt, dass man hierfür etw. klarere Aussagen treffen könnte.

Anmerkung: ich glaube der thread kann inzwischen aus dem supportforum in ein disskusionsforum verschoben werden, da sich doch eher eine Disskusion bildet(die ich inzwischen aber als durchaus interessant empfinde) als ein wirklicher supportfall.
 
Zuletzt bearbeitet:
das sehe ich ebenso

ich denke im Nachhinein das es ein Fehler war bei Asus diesen Beitrag zu schreiben auch habe ich sehr aggressiv geschrieben was nicht unbedingt förderlich war.
ihr müsst jedoch verstehen das ich doch sehr über Nvidias Entscheidung bestürzt war und diese aufgewühltheit ist wohl in meinem Post eingeflossen.

ich hoffe man kann das nachvollziehen.
 
Zuletzt bearbeitet:
Es wird nicht die Verbindung robuster ausgelegt, sondern die Signalverarbeitung. Deine Annahme bezüglich der Pegel und deren Verarbeitung ist richtig. Das Knowhow steckt aber darin, wie gut man in der Lage ist, aus schlechten Signalen noch was Verwertbares rauszufiltern. Unter Umständen gelingt das AMD in dem Fall tatsächlich besser. Nvidia schein ja grundlegend PCIe 3.0 im Griff zu haben, siehe IB Plattform, nur eben mit dem SB-E gibt, oder gab es größere Schwierigkeiten.

Bezüglich des Verschiebens sollen sich die Kollegen von ASUS zu Wort melden.
 
Zuletzt bearbeitet:
Aber wie ist das mit den Durchschnittsusern? Wer sich eine GTX 680 kauft und ein Asus Rampage IV Board, auf welchen ganz gross PCi-E 3.0 draufsteht, wird natürlich erwarten, dass er mit beiden Produkten auch PCi-E 3.0 benutzen kann. Dazu kauft er sich dann noch einen Intel 3930K und liest dann in der Produktbeschreibung:

Six-Core "Sandy Bridge-E" • TDP: 130W • Fertigung: 32nm • DMI: 5GT/s • L2-Cache: 6x 256kB • L3-Cache: 12MB shared • Stepping: C1/C2 • IGP: N/A • Memory Controller: Quad Channel PC3-12800U (DDR3-1600) • SSE4.1, SSE4.2, AVX, Turbo Boost (3.80GHz), Hyper-Threading, VT-x, AES-NI, Intel 64, Idle States, EIST, XD bit, Multiplikator frei wählbar

Seht ihr da irgendwoPCi-E 2.0 ? Also ich nicht... :d und der Durchschnittsuser wird sich denken, dass das in diesem Fall (für die CPU) irrelevant ist. Um das PCIe3 Marketing korrekt abzuwickeln, müsste man auf den Grafikkarten von Nvidia anmerken: PCi-E 3.0 (aber ohne X79 Chipsatz). Versteht ihr, was ich meine? :d

Wie man an diesem Extrembeispiel sehen kann, bringt PCI-E 3.0 bei den GTX 680ern doch was:
http://www.evga.com/forums/tm.aspx?m=1537816&mpage=1&print=true
 
Zuletzt bearbeitet:
bonidinimon hat soweit schon recht, aber welcher durchschnittsuser "braucht" pcie 3.0? :d
Ich verstehe aber den Gedankengang und finde es auch nicht korrekt wie es z.Z. abläuft.

Marketing ist OK, aber Marketing das darauf ausgelegt ist durch offiziell richtige, aber fehlleitende Informationen einen Kaufdrang zu entwickeln ist mMn nicht richtig.
Die Informationen zur PCIe 3.0 Unterstützung waren in den letzten Monaten wirklich uneindeutig und noch dazu meist schwer zu finden, irgendwo tief in den supportpages der Hersteller (Nvidia/Intel).

Ich denke nicht, dass man hier einer Sparte (CPU/MOBO/GRAKA) den alleinigen schwarzen Peter zuschieben kann

Bringt eine "empfindlichere" Signalauswertung nicht auch wieder das Problem von Fehlinterpretationen mit sich?
und vorallem ist das Software(bzw Firmware)-seitig oder tatsächlich durch bessere/andere komponenten möglich?

Ich persönlich habe mit Microchip risc-chip's in assembler programmiert und hatte dort nur einmal ein Problem mit schwachen signalen (fehler im platinendesign) damals hat er sich dann aber auch komplett verweigert :P
 
Zuletzt bearbeitet:
komm lass es doch einfach du hast nicht verstanden das es nicht um mich persönlich geht sondern es um eine rein sachliche frage handelt...



warum gehst du nicht darauf ein ? du weißt das ich recht habe... auch mit einem Ivybridge E wird PCI/e 3.0 auf einem x79 mit einer gtx600ter nicht funktionieren genauso wenig wie mit einem xeon e5 der ja auch pci-e 3.0 freigegeben wurde es jetzt auch nicht funktioniert.



Bleib bitte sachlich und wert nicht persönlich ich beleidige dich schließlich auch nicht . so etwas wirft immer ein schlechtes licht auf einen.



ich will keinen einen Strick drehen wie du aus meinen letzten Beitrag erlesen kannst wollte ich nur einige fragen stellen . Ich bedauere es sehr das dies nicht verstanden wurde.



danke ich schreibe nicht oft in Foren deshalb ist mir dies entgangen.

---------- Post added at 17:24 ---------- Previous post was at 17:04 ----------


Quelle : Vier Speicherkanäle und PCI Express 3.0 : Intels Core i7-3960X im Test: Sandy Bridge-E und der X79-Chipsatz sind da

lass uns dieses Ding abschließen. es ist alles gesagt

Er hat absolut recht. Ich finde es auch nicht in Orndung, wenn man als ,,Supermoderator" beleidigend oder abwertend wird. Als Moderator sollte man einen gewissen Standart wahren, und möglichst neutral bleiben.
Viele Moderatoren sind einfach der Meinung, sie können sich alles erlauben... so ist es wohl leider auch hier.

Und zur Sache an sich: Ich frage mich wirklich, warum du der Meinung bist, dass er jemandem damit was auswischen will. Er fragt lediglich ganz neutral und freundlich nach einer Auskunft. Wenn du nicht in der Lage bist, auf die Frage sachlich einzugehen, poste doch bitte einfach nichts, anstatt die User die sich hier benehmen so doof anzumachen... Ich glaube einfach du bist mit dem Sachverhalt selbst nicht vertraut und dir passt nicht, dass er recht hat.



normalerweise bin ich ein lurker, aber das muss mal gesagt werden...
 
Zuletzt bearbeitet:
normalerweise bin ich ein lurker, aber das muss mal gesagt werden...

Wohl weniger lurker als viel mehr troll.
Die Ausdrucksweise war absolut unangebracht und Wolff1975 hat sich sogar bereits selber dafür entschuldigt(was ich persönlich gut fande und von gefestigtem charakter zeugt). Und in so einem Fall kann (und muss man vllt. sogar) einen etw. schärferen Ton anschlagen.
Die Unterstellung das underclocker mit dem sachverhalt nicht vertraut ist, sehe ich jetzt hier großzügigerweise einfach mal als witz an. Seine ersten Posts zeugen def. von einem guten verständniss der momentanen lage, auch wenn ich dem autobeispiel so nicht zustimmen wollte.

ach ja: zum eigentlichen Thema dieses Threads hast du jetzt genau wie viel beigetragen? ... GENAU!.. GARNICHTS!
Thema verfehlt, sechs, setzen.
 
Moderatoren sind auch nur Menschen, vergesst das nicht. Und wenn ich einen OP wie Wolff habe, der sich 0 vor dem Kauf seiner Hardware informiert und dann meint Asus angreifen zu müssen, sollte man sich sowieso nicht wundern wenn der Ton mal rauer wird. Außerdem: PCIe 3.0 bei nur einer GPU? Die 2.0er Bandbreite ist vollkommen ausreichend.
 
@merlinmage

Und wenn ich einen OP wie Wolff habe, der sich 0 vor dem Kauf seiner Hardware informiert

das finde ich jetzt nicht ganz fair von dir... ich befürchte, wie bonidinimon es schreibt, das es durchaus mehr x79 User gibt die mit einem PCI/e 3.0 versagen einer GTX600ter auf ihrem x79 nicht gerechnet haben.

hier nochmal Link´s die zb. besagen das PCI/e 3.0 mit den i7 3960x unterstützt wird:
Vier Speicherkanäle und PCI Express 3.0 : Intels Core i7-3960X im Test: Sandy Bridge-E und der X79-Chipsatz sind da
does 3960x support pci express 3.0 - Overclockers Forums
Intel Sandy Bridge-E Core i7-3960X CPU Review
Core i7-3960X: Intel überholt sich selbst | c't

da nutzt dann auch das beste informieren nichts... und ganz ehrlich ATI/AMD hält hier ja das versprechen mit PCI/e 3.0 auf dem SB-E. seltsam oder ?

@Scorch
ich bin mir ziemlich sicher das underclocker2k4 mit dem Sachverhalt vertraut ist das wird gerade durch seine detaillierten Ausarbeitung des Problems deutlich (auch wenn ich Auto vergleiche mit PC Hardware etwas doof finde^^).

ich bin zwar der Ansicht das es etwas zu simpel ist dieses Problem nur auf die CPU zu schieben aber denke, das versäumte Validieren seitens Intel, hat Nvidia für solch eine Aktion die Tür geöffnet. Letztlich beweisen kann man so etwas nicht deshalb ist diese Vermutung eher ein finsterer Schatten der sich gebildet hatte als Intel NVIDIA untersagte chipsätze für Nehalem zu bauen. Wir erinnern uns an die nett gezeichneten Comics in Richtung Intel. Sollte solch eine Intention der Kern von NVIDIAs Haltung gegenüber x79 sein währe ich traurig das dies nun auf den rücken der treuen Kunden abgewälzt wird. Ich will nicht hoffen das sich solch ein Szenario bewahrheitet. Nach der Aussage von Linus Torvald muss sich da jeder selbst ein Bild machen.
 
Zuletzt bearbeitet:
Er hat absolut recht. Ich finde es auch nicht in Orndung, wenn man als ,,Supermoderator" beleidigend oder abwertend wird. Als Moderator sollte man einen gewissen Standart wahren, und möglichst neutral bleiben.
Viele Moderatoren sind einfach der Meinung, sie können sich alles erlauben... so ist es wohl leider auch hier.

Und zur Sache an sich: Ich frage mich wirklich, warum du der Meinung bist, dass er jemandem damit was auswischen will. Er fragt lediglich ganz neutral und freundlich nach einer Auskunft. Wenn du nicht in der Lage bist, auf die Frage sachlich einzugehen, poste doch bitte einfach nichts, anstatt die User die sich hier benehmen so doof anzumachen... Ich glaube einfach du bist mit dem Sachverhalt selbst nicht vertraut und dir passt nicht, dass er recht hat.



normalerweise bin ich ein lurker, aber das muss mal gesagt werden...

Ich werde also beleidigend und abwertend, weil ich ihm (im Konjuktiv wohlgemerkt) in einem Post unterstelle, dass der Post, welcher im Übrigen 2x den 24" TFT ausfüllt überfordert hat. Ich kenne ihn nicht und ich weiß nicht welche Fachkenntnis vorhanden ist und ich habe auch nicht anhand seiner Reaktion vor Ort gesehn, wie er das gelesene aufgefasst hat. Sein 2. Post läßt aber, zumindest für mich, erkennen, dass bestimmte Stellen so einfach nicht verstanden wurden, so der Anschein. Das darf auch mal sowas in den Raum gestellt werden.

Auf deine weiteren Unterstellungen möchte ich einfach nur zurückwerfen, dass scheinbar auch User der Meinung sind, sich alles erlauben zu können. Darüber könnte man auch mal nachdenken, bevor man sich mit anderen Menschen beschäftigt.

Warum ich der Meinung bin(oder war), dass er wen etwas auswischen will?
Nun meine Frage :
Welches ihrer Produkte grafikarte oder mainbord darf ich wegen falscher werbe versprechen zurück senden ?

Für gewöhnlich sollte man sich erstmal informieren, was denn überhaupt die wirkliche Sachlage ist und versuche dann erst meine Rechte (die durchaus gegeben sind, wenn es so sein sollte) durchzusetzen.
Nur wurde hier die Sachlage einfach verkannt. Ich bin daher mehr als Sachlich und detailiert darauf eingegangen, wo das eigentliche Problem begründet ist und dass der Fehler nicht bei ASUS und auch nicht bei Nvidia(nach aktuellen Stand) zu suchen ist.

Und bezüglich meiner Sachkenntnis liegst du natürlich völlig richtig. Das Geschriebene von gestern Morgen habe ich aus den RTLII Nachrichten. Die hatten dort gerade einen Technik Part, weil es gerade die Massen interessiert, was denn PCIe ist und wie das Zusammenspiel aussieht.

Wie war das mit den Unterstellungen?

Aber mal zurück zum Thema, das mach ich jetzt einfach mal als unsachlicher beleidigender Mod, auch wenn ich es eigentlich nicht kann oder gar dürfte.

Ich weiß nicht wie das ein Durchschnittsuser tatsächlich sieht, aber ich führe da nochmal das SATA Beispiel an. (ich finde Autobeispiele doof, aber manchmal fällt einem auf die Schnelle nichts gutes ein)

Er kann bei diesen Produkten durchaus PCIe 3.0 nutzen, daher auch der Zusatz 3.0 ready oder eben 3.0 bei der GPU. Nur gehört zu einem Spiel immer 2. (Das MB ist dabei eigentlich nur der Mittelsmann.)
Und das geht dann mit der CPU, zumindest offiziell, eben nicht mehr. Das ist aber kein Versäumnis der GPU oder des MBs sondern eben nur des Users, der sich unzureichend informiert. Dazu muß man kein Studium ablegen, da reicht es eigentlich nur zu verstehen, wie denn PCIe läuft und wer daran beteiligt ist.

Wenn man das nicht kann, oder das Wissen hat, dann muß man sich eben informieren und sollte dann erstmal mit Vorwürfen zurückhalten. Und spätestens bei der CPU Info wird dann klar, was man gekauft hat und wie seine Möglichkeiten sind. Wenn man dann eben eine Komponenten gekauft hat, was diese Kette aufweicht, dann kann man sich eigentlich nicht beschweren.

Gerne verweise ich in diesem Zusammenhang nochmal auf die S1155 Plattform. Wenn ich ein User eine SB CPU da einbaut, dann hat er da auch keine Möglichkeiten.
Das einzige Problem bei Intel ist, dass sie so doof sind und PCIe 3.0 in einer halbgaren Version implementiert haben. Wäre das nicht der Fall, so bin ich mir sicher, dass wir das Thema hier nicht hätten.
Jetzt kann die CPU aber plötzlich PCIe 3.0 und schon sind alle geil drauf. Klar, neuste Technik....

Nur kann man eben nicht erwarten, dass sowas auch durchgängig läuft, gekauft hat man eignentlich nur PCIe 2.0.

Ich denke weiterhin, dass sich ein wirklicher Durchschnittsuser keine Gedanken um 2.0 oder 3.0 macht. Der baut das zusammen und wenn es läuft, dann ist das schön und wenn nicht, dann ist er sauer.
Und genau gegen dieses sauer sein, aggiert NV im Moment. Man hat nämlich ermittelt, dass es in Bezug auf SB-E (ich erwähne explizit den X79 nicht) Probleme gab. Man möchte dem casual User nun zur Seite stehen und das System stabil machen, daher schaltet man PCIe 3.0 ab.

Ob nun PCIe 3.0 was bringt oder nicht ist immer relativ. Das hängt sehr von den Anwendungen und der Busbelastung ab. Außerdem müßte man sich noch damit beschäftigen, was PCIe 3.0 in Bezug auf Latenzen erreich hat. Ich denke, die reine Datenrate ist weniger das Problem, aber Latenzen spielen immer eine große Rolle.

Wenn Wolff denn mal Langeweile hat (der ist ja irgendwie immer um 0400 und 0500 auf^^) dann kann er ja mal Kurzbenches mit seinem System machen. Durch den Steuerflag kann er ja 3.0 an- und abschalten. Das ist, denke ich, die bessere Methode. Evtl hat er dann auch direkt was für ein Thema, bzw sein Thema im GPU Bereich.

@Onkel
Es geht nicht um eine empfindlichere Signalauswertung, als viel mehr um Bauteile, welche in der Lage sind durch schnellere und bessere Algorithemen eben besser zu bestimmen, war das jetzt ne 1 oder eine 0. Das Ganze ist ein wenig komplizierter, ist aber so gut umschrieben.

Es gibt eigentlich ständig schlechte Signale, die Kunst besteht aber darin, da noch was verwertbares rauszuholen. Und das geht Vergleichsweise gut, wenn man sich anschaut, was man zB für Taktraten und Datenraten dort fährt. Normal müßte man sagen, dass das eigentlich garnicht geht. Es geht aber so gut, dass man damit sogar Millionen von Geschäftskapital verwaltet.

Ich denke auch nicht, dass Wolff sich garnicht informiert hat, nur muß man als User irgendwann für sich entscheiden, wo man aufhört sich zu informieren. Er hat das evtl an dem Punkt getan, wo es heißt GPU und MB müssen 3.0 können. Keiner wird sich so ins Detail verlieben, dass er danach alles selber nachentwickeln kann, dazu ist es zu komplex. Jedoch sollte man, wenn es dann Problem gibt, sich zunächt informieren, oder sich infomieren lassen um dann seine ggf. Ansprüche durchzusetzen.

Unterstützt wird das ganze nun natürlich auch nicht von der ATI Geschichte, denn dort, so scheint es bis jetzt, keine Probleme zu geben, oder aber ATI hat bereits andere Mittel gefunden diese Problem zu umschiffen, was evtl NV nicht möglich ist und sie daher vorsichtshalber 3.0 abschalten.

Man darf aber nicht vergessen, was NV in Bezug auf das Thema verlauten läßt. Man sagt nicht, dass es nur Probleme gibt, man sagt nur, dass es Probleme gibt und man zu Sicherheit 3.0 ausmacht. gleichzeitig gibt man aber die Option, für den, der es möchte, dass man 3.0 wieder zuschalten kann. Und Leute, die 3.0 wirklich wollen, weil sie das letzte rausholen wollen, ja die werden es dann anmachen, wissen aber auch, wo sie suchen müssen, wenns net geht. Der Casualuser hat da aber ein Problem, denn er weiß nicht, wo er suchen muß, wenn die Kiste ständig steht oder Faxen macht.
Daher wäre mir als Casualuser es dann auch lieber, man schaltet etwas zurück, hat dann aber garantiert nen stable System.

@Verwürfe
Man kann das Problem ja angehen, in dem man überprüft, ob eine SB-EP CPU auch mit in der "Blacklist" drin ist. Dann weiß man zumindest erstmal, dass der X79 nicht direkt betroffen ist.
Auch kann man dann, wie gesagt, auch selber mal Benches machen, dann weiß man selber woran man ist, was 2.0 vs 3.0 angeht.

EDIT:
Was auch denkbar ist, dass es diese Problem nur mit dem ersten Stepping des i7 gibt. Denn, wie erinnern uns, es gab zum Start Probleme mit den CPU, so dass die Xeons extremst verzögert wurden. Und entgegen anderer Informationen sind eben die SB-E und die SB-EP eben nicht völlig identisch. Das gilt für die aktuelle Generation. Von der ersten Generation gab es nur i7 CPUs, die Xeon hatte man bewußt außen vorgelassen. Man hat das nur auf die VT-D Unterstützung geschoben, es wäre aber auch denkbar, dass Intel noch andere Baustellen hatte. Und evtl hat NV mit CPUs der ersten Gen, die es ja auch zur genüge gibt, diese konkreten Problem.
Und evtl sind die 2. Versionen des i7 der Grund dafür, dass diese PCIe 3.0 Problem mit NV nicht SO hochkocht, wie es das könnte, wenn es 100&ige Problem gibt.

Ob das nun so ist, tja, das wissen wohl nur Intel und NV selbst.
 
Zuletzt bearbeitet:
Ja, aktuell ist das auch bei den 700er Karten von Nvidia so. Sobald der Nvidia Treiber einen X79 Chipsatz erkennt wird PCIe 3.0 deaktiviert.

Gruß
Doktor
 
Hallo Doktor, vielen Dank für deine Antwort :)

Ich frage mich auch schon seit längerem, ob der Treiber die Infos vom Board oder von der CPU holt, laut dir also vom Chipsatz? Ich hoffe nicht von der CPU, weil mein 3930K nur inoffiziell PCIe 3.0 kann, was mit AMD Karten aber einwandfrei funktioniert. Wenn Nvidia seine Treiber nicht anpasst, wird meine nächste Graka in diesem Fall wohl wieder eine AMD, obwohl mich NVidia durchaus reizen würde, aber mit PCIe 2.0 bei hohen Auflösungen nicht ganz perfekt ist :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh