nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 3

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Hat nvidia eigentlich schon einen vorraussichtliches Release-Date für die 300er Karten rausgegeben?
 
Und was soll das nun bitteschön damit zu tun haben, dass nVidia eine x86 Lizenz bekommen soll? Exakt gar nichts. Da steht lediglich, dass Intel die Restriktionen für die x86 Produktionen aufweichen soll, sonst nichts. Was nützt das nVidia? Gar nichts. Die produzieren nicht mal Chips.
Das ist praktisch genau die Geschichte, die AMD nun bei Intel durchgedrückt hat. Vermutlich hat das die FTC auch gleich als Anlass genommen.

Wie ich schon sagte, hier wird Halbwissen ohne Ende verbreitet, gerade von dir scully. Nimm es mir nicht übel, aber bitte informiere dich gründlicher, bevor du irgendwelche Behauptungen aufstellst.


Auf 3DCenter.org las ich grad´, dass nvidia gegenüber "PC Perspective" bestätigt hat, dass es bei den Tesla-Profi-GPU´s
und auch bei den Consumer-Fermi-GPUs 512 freigeschaltete Shader-Einheiten geben wird.
(neben den Versionen mit 448 Einheiten)
Als Zusatz sollte man aber folgendes noch beachten:
Die große Frage ist natürlich, ob nVidia den dato angesetzten maximalen Shader-Takt von 1400 MHz auch bei der "Vollbestückung" mit 512 Shader-Einheiten halten kann.
 
Zuletzt bearbeitet:
Also ich warte das ganze aber vieleicht gibt es ja morgen schon neuerungen im bezug der neuen nv karte...
 
Morgen glaube ich noch nicht. Erst während der CES in Las Vegas (January 7-10).
 
Wie ich schon sagte, hier wird Halbwissen ohne Ende verbreitet, gerade von dir scully. Nimm es mir nicht übel, aber bitte informiere dich gründlicher, bevor du irgendwelche Behauptungen aufstellst.
:

Nimm es mir nicht übel,aber solange du dich so mit Leuten unterhälst,wirst du hier auch keine vernünftige Antwort mehr erhalten.


Das hätte dir beim vorhärigen Post eigentlich schon auffallen müssen;)

offiziellen Quelle, also am besten ein Dokument der FTC
Offizielle Quelle einen Brief von der FTC persönlich:stupid::wall::fresse:

Werd nicht noch peinlicher als es schon ist,nur weil du den hunderten von News keine Glauben schenkst.

Und all diese News Seiten als schlecht informiert hinzustellen,nebst der User hier im Thread,nur weil dir dessen Aussagen nicht passen ist "Kleinkindgehabe" und Befangenheit.


Auf 3DCenter.org las ich grad´, dass nvidia gegenüber "PC Perspective" bestätigt hat, dass es bei den Tesla-Profi-GPU´s
und auch bei den Consumer-Fermi-GPUs 512 freigeschaltete Shader-Einheiten geben wird.
(neben den Versionen mit 448 Einheiten)

Dann wird die mit 448 Einheiten entweder die kleine Geforce 360GTX oder die Aussage bezog sich nicht auf einen gewissen Releasezeitraum und die 512er Version kommt etwas später in Form des Geforce 385 GTX;)

Aber abseits von den 448 vs 512 Shadern sind die Gerüchte über die Benchmarks ganz interessant;)

http://bbs.expreview.com/thread-26246-1-1.html
 
Zuletzt bearbeitet:
Offizielle Quelle einen Brief von der FTC persönlich
Das zeigt einmal mehr, dass du wirklich Null Ahnung vom Thema hast und nun wie ein Kleinkind rumtrotzt. Ja, es gibt hin und wieder Dokumente für solche Rechtsstreitigkeiten, die auch der Öffentlichkeit zugänglich sind. Falls du das nicht wusstest. ;)

Werd nicht noch peinlicher als es schon ist,nur weil du den hunderten von News keine Glauben schenkst.

Und all diese News Seiten als schlecht informiert hinzustellen,nebst der User hier im Thread,nur weil dir dessen Aussagen nicht passen ist "Kleinkindgehabe" und Befangenheit.
Der einzige, der hier peinlich ist, bist DU. Du merkst es ja nicht mal, wenn der Gesprächspartner wieder zu mehr Sachlichkeit zurückkommen möchte und beleidigst und provozierst mit deinem Kindergartengehabe weiter, was absolut nicht mehr lustig ist. Genauso wenig bist du dazu in der Lage, einen Link für deine Behauptungen zu liefern, wenn es ja angeblich "Hunderte" von Seiten geben soll, die das unabhängig bestätigen. Werde erwachsen! Vielleicht können wir uns dann weiter unterhalten.
 
Jungs !!

Das musst nicht sein , kehrt bitte beide zu einem sachlichen Ton zurück. Hier muss niemand jemanden beleidigen !

Also bitte :wink:
 
Wenigstens wirds ein paar neue Folien geben (wie damals von ATi auf dem Flugzeugträger ;) ) - Sneak Peek klingt aber leider nicht nach dem Fall der NDA für die Presse.

Hoffentlich gibts auch ein paar nennenswerte Infos und nicht nur bloß PR-Geblubber.

Unabhängige Tests wirds wohl frühstens Ende Februar geben, wenn im März der Hardlaunch stattfinden sollte.
 
Zuletzt bearbeitet:
Diesmal aber mit neuer Lackierung. :d
 
Aber zumindestens die Leistungsrichtung sollte erkennbar sein nach Las Vegas

Die wissen wir doch schon...
Größer HD5870 wird sie wohl werden, wie viel, wird sich auf auf der Messe wohl nicht zeigen, es sei denn das NDA fällt, glaub ich aber nicht...

Und das was NV da von sich geben wird, also wie viel schneller als die Konkurenz ist sicher sowieso wieder mit extremer Vorsicht zu genießen ;)
 
Offiziel sicherlich nicht,aber ich glaube das nach so langer Wartezeit,da eventuell aus einigen Quellen Infos tropfen werden,wie aus einem löchrigen Sieb;)

Erste Anzeichen dafür gibts ja schon im Netz(siehe 3D Center)

Die Frage ist doch, wie viel Wert kann man auf derartige Informationen dann schon geben?
Weil wenn NV erst jüngst mit dem A03 Stepping fertig wurde bzw. die endgültigen Daten davon festgelegt hat, haben wohl die ganzen Tester entweder noch die alte Version oder aber sind noch voll am Testen...

Übrigens, ein Sieb ist immer löchrig, sonst wärs kein Sieb :fresse: :lol:
 
x8tb5lup.png


Quelle: http://www.gamezone.de/benchmarks.asp?sys=1&randid=281221322

sieht natrülich nach ein Fakes aus, nur 11% schneller als die 5870 :fresse:

Fakt ist vor März wird es keine neuen Nvidia Karten geben
 
Zuletzt bearbeitet:
Wie ja schon bekannt (durch die 3D Center Meldung), eine "News" aus China mit angeblichen Facts und Benches...wenigstens ist es ein bisschen Öl ins Feuer der allgemeinen Gerüchteküche (Achtung: Google Übersetzung !):

http://translate.google.de/translat...diy/10903044.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

Eine Dual-GPU Version mit je 512 CUDA Cores wär aber echt übel...falls die Taktraten und VCore nicht gesenkt würden wär man dann bei ~ 500 Watt TDP - was ja noch nicht mal 2 x 6+2 Pin PCIe liefern könnte !


Hier nochmal die Meldung von 3D Center (fehlen zwar ein paar Infos, aber das deutsch ist korrekt ! ;) ):

Eine erste Performance-Meldung zum GF100-Chip kommt aus dem Forum von Expreview: Danach soll der GF100 im Unigine Heaven DirectX11-Benchmark einer Radeon HD 5870 um "130%" davonrennen. Leider ist nicht ganz klar, ob damit ein Performanceplus von 30 Prozent mehr (wäre nicht so überragend) oder aber eines von 130 Prozent mehr (wäre natürlich klasse) gemeint ist. Die dazu gezeigten Fotos lassen zudem darauf schließen, daß diese Angaben aus einer nVidia-Präsentation stammen und somit nicht unabhängig ermittelt wurden – das ganze erscheint also als sehr unsichere Meldung. Ähnlich suspekt ist das, was im Forum von PCOnline (maschinelle Übersetzung ins Deutsche) zu finden ist: Danach soll eine GF100-Grafikkarte eine Radeon HD 5870 ziemlich klar schlagen: Unter Crysis Warhead um 60 Prozent (Performancegewinn), unter Far Cry 2 um 20 Prozent, unter HAWX um 55 Prozent und unter Fallout 3 nochmals um 20 Prozent. Dies wäre jetzt zwar irgendwo im Rahmen der Erwartungen, auch wenn über die Einzelwerte heftig diskutiert werden kann.

Problematischerweise sollen diese Performancewerte jedoch nicht vom GF100-Spitzenmodell erreicht werden, sondern von der kleineren GF100-Ausführung mit nur 448 Shader-Einheiten. Und so gesehen erscheinen diese Werte doch als zu hoch, der Unterschied zwischen kleiner und großer GF100-Ausführung (möglicherweise GeForce GTX 360 & 380 genannt) sollte auch noch einmal runde 20 Prozent betragen, eventuell sogar noch etwas mehr. In der Summe würden diese Performancewerte schließlich ergeben, daß die kleine GF100-Ausführung um runde 40 Prozent vor einer Radeon HD 5870 liegt und die größere GF100-Ausführung um runde 70 Prozent. Damit würde laut diesen Performancewerten die größere GF100-Ausführung (als SingleChip-Karte) sogar die Radeon HD 5970 knapp überrunden – eine reichlich gewagte Prognose. Insofern bleibt stark abzuwarten, was an den Zahlen von PCOnline wirklich dran ist und ob sich diese nicht vielleicht doch "nur" auf die größere GF100-Ausführung beziehen.

Wär natürlich ne echte Überraschung, wenn die GTX 360 mit 448 Cores so gut an der HD 5870 vorbeiziehen könnte....wir werden es sehen.
 
Zuletzt bearbeitet:
Die 12,x% wären aber ziemlich wenig. Die Quelle würde ich persönlich mal wieder als Müll einstufen.

Was dagegen in den Foren von Expreview und PConline auftaucht wäre dagegen schon fast zu derbe vor allem wenn man wirklich bei ersterem von +130% zur 5870 ausgeht.
 
Eine Dual-GPU Version mit je 512 CUDA Cores wär aber echt übel...falls die Taktraten und VCore nicht gesenkt würden wär man dann bei ~ 500 Watt TDP - was ja noch nicht mal 2 x 6+2 Pin PCIe liefern könnte !


jo die 295 verbrät auch soviel wie 2 mal eine 275.....

ne 4870 X2 verbrät auch soviel wie 2 mal eine 4870...

:wall:
 
Die 12,x% wären aber ziemlich wenig. Die Quelle würde ich persönlich mal wieder als Müll einstufen.

Was dagegen in den Foren von Expreview und PConline auftaucht wäre dagegen schon fast zu derbe vor allem wenn man wirklich bei ersterem von +130% zur 5870 ausgeht.

heisst das 130% nicht immer, das sie 30% mehr frames bringt?

Also man sagt dann 5870 hat 100% und die GTX380 dann 130%

also ein unterschied von 30% wie hier schon viele prophezeit haben.

(wenn es denn stimmt)
 
heisst das 130% nicht immer, das sie 30% mehr frames bringt?

Also man sagt dann 5870 hat 100% und die GTX380 dann 130%

also ein unterschied von 30% wie hier schon viele prophezeit haben.

(wenn es denn stimmt)

Das ist ja wieder dieses Auslegungsproblem.

Selbst im Originalthread (http://bbs.expreview.com/thread-26246-1-1.html) haben sie das gleiche Problem. +30% oder +130%?! Ersteres dürfte wohl die "mindestens" Erwartungen decken, letzteres wäre nen ziemlicher Overkill.

Bevor jetzt aber hier die gleiche Diskussion ausbricht, lassen wirs doch einfach mit +30% stehen. Zumal +130% verdammt unrealistisch sind.
 
Was dagegen in den Foren von Expreview und PConline auftaucht wäre dagegen schon fast zu derbe vor allem wenn man wirklich bei ersterem von +130% zur 5870 ausgeht.


Ich denke eher 30% über der 5870 und nicht 130%;)

Fragt sich nur welche die 360er oder die 380er mit 448 shadern oder 512?

130% ist einfach unrealistisch,selbst bei "extrem" positiver Denkweisse:fresse:
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh