nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 4

Status
Für weitere Antworten geschlossen.
Ok, eine Frage an dich: Wie viel schneller war die Radeon HD 4890 gegenüber der 4870?!

Außerdem haben jetzt verschiedene Benchmarks bestätigt, dass der GF100 schneller als die HD5870 ist.......

mfg

:hmm:
Ohne ein dickes "Aber" kann man die Aussage aber nicht so einfach stehen lassen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ok, eine Frage an dich: Wie viel schneller war die Radeon HD 4890 gegenüber der 4870?!

Außerdem haben jetzt verschiedene Benchmarks bestätigt, dass der GF100 schneller als die HD5870 ist.......

mfg

oh, du kennst schon verschiedene offizielle benchmarks?
 
Ok, eine Frage an dich: Wie viel schneller war die Radeon HD 4890 gegenüber der 4870?!

Außerdem haben jetzt verschiedene Benchmarks bestätigt, dass der GF100 schneller als die HD5870 ist.......

mfg

Bestätigt ist noch gar nichts, das ist ja das Problem, solange das nicht schwarz auf weiß von halbwegs objektiven Seiten bestätigt wird mit Benchmarks.....
Cypress du solltest unbedingt aufhören, den Blödsinn den verschiedene Seiten und vor allem Nvidia irgendwo schreibt immer zu glauben, das sind doch alles nur Spekulationen.

Oder meinst du wirklcih eine Firma würde vor Release sagen, ok, unsere Grafikkarte ist gleich schnell oder 5% schneller wie eine 5870.....sicher sie schenken gerne dem Konkurrenten die Kunden.....einfach mal überlegen bevor man immer so einen geistigen Dünnfluss in Worte fasst.

Und eine 4890 ist eine aufgepeppelte 4870....also was willst du uns damit sagen?
 
Zuletzt bearbeitet:
Hoffen wir das Nvidea was gutes abliefert kann von mir aus 40% schneller werden als die 5870 und nein ich bin kein Fanboy !
Da dann hoffentlich mal die Preise purzeln dank der HD5890 sollten die Nvidea GPUs auch unter nen "zwang" kommen und die Preise nicht zu hoch schiesen...
 
Er wollte wohl den Leistungszuwachs 4870 --> 4890 mit dem zu erwartenden Leistungszuwachs 5870 --> 5890 vergleichen. Ist sicher nicht total abwegig, aber daraus dann zu schließen ob AMD oder NV die schnellste Single GPU Karte haben werden ... meh!
 
Er wollte wohl den Leistungszuwachs 4870 --> 4890 mit dem zu erwartenden Leistungszuwachs 5870 --> 5890 vergleichen. Ist sicher nicht total abwegig, aber daraus dann zu schließen ob AMD oder NV die schnellste Single GPU Karte haben werden ... meh!

Was wir sicher wissen ist, dass AMD derzeit die Nase vorne hat, auch im Bezug auf den Release der Fermi, da AMD jetzt schon Karten auf dem Markt hat und weiter entwickelt, Nvidia aber erst im März/April die ersten Karten auf den Markt wirft - ich bin immer offen für neue Preis-/Leistungssieger - ich lege mich da nicht fest, sondern wähle eben die bessere Karte.
Und was AMD noch so liefern wird im April/Mai wissen wir ja nicht, es heißt ja schon lange, dass sie Nvidia mit weiteren Produkten entgegentreten wollen - und damit sei nicht die 5890 gemeint, immerhin liegen ja dann schon mehr als 8 Monate zwischen 5870 Release und dem dortigen Zeitpunkt.

Und Cypress ist eben ein Opfer allgemeiner Marktstrategien.
 
Zuletzt bearbeitet:
Was wir sicher wissen ist, dass AMD derzeit die Nase vorne hat, auch im Bezug auf den Release der Fermi, da AMD jetzt schon Karten auf dem Markt hat und weiter entwickelt, Nvidia aber erst im März/April die ersten Karten auf den Markt wirft - ich bin immer offen für neue Preis-/Leistungssieger - ich lege mich da nicht fest, sondern wähle eben die bessere Karte.
Und was AMD noch so liefern wird im April/Mai wissen wir ja nicht, es heißt ja schon lange, dass sie Nvidia mit weiteren Produkten entgegentreten wollen - und damit sei nicht die 5890 gemeint, immerhin liegen ja dann schon mehr als 8 Monate zwischen 5870 Release und dem dortigen Zeitpunkt.

Und Cypress ist eben ein Opfer allgemeiner Marktstrategien.



Ich frag mich ja immer wie ihr darauf kommt das nvidia amd gegenüber zeitlich im nachteil ist entwicklungstechnisch.

Bevor ich dir was dazu sage möchte ich mal das du versuchst intensiv darüber nachzudenken wie große firmen mit projekten umgehen und den zur verfügung stehenden ressourcen an mitarbeitern :stupid:
 
@johnieboy: Naja der neliz haut wirklich ein spruch nach dem anderen raus. Nur warum sollte man jemandem glauben schenken der kaum ein einziges arguent dazu abliefert?
ja natürlich. Und charlie kann man auch gut trauen... Man leute lasst es einfach sein: Der fermi wird schneller als die hd5870 und auch als eine 5890. Erhofft euch nicht zu viel von nem refresh der hd5870. Außerdem hat nvidia sicherlich aus den fehler gelernt. Lasst euch einfach überraschen;)
mfg


z.b. Weil derjenige bisher schon öfters recht mit seinen vermutungen hatte?

so ist es ;)

Ein paar Beispiele:

Neliz war der erste der schon im September 09 glaube ich behauptete das die Fermi GPU von der Fläche her so groß wie der 65nm G200 (und nicht 55nm G200b) wäre. Was auch vollkommen zutrifft.

Neliz war der erste der neulich sagte der GF100 hat nur 64 TMUs, als alle anderen noch von 128 ausgingen. Stimmte auch

Der Typ hat Insiderinfos, darum glaube ich ihm auch. Gegen ihn sind Charlie, Fuad und Theo nur blutige Amateure :shot:

er hat zwar nicht immer recht, aber deutlich öfter als alle anderen ;)
 
Ich frag mich ja immer wie ihr darauf kommt das nvidia amd gegenüber zeitlich im nachteil ist entwicklungstechnisch.

Wie wir darauf wohl kommen? Vielleicht daher das es Nvidia mit ach und krach schafft eine Karte auf den Markt zu bringen, die Sie eigentlich schon vor 6 Monaten verkaufen wollten?
 
Ich frag mich ja immer wie ihr darauf kommt das nvidia amd gegenüber zeitlich im nachteil ist entwicklungstechnisch.

Bevor ich dir was dazu sage möchte ich mal das du versuchst intensiv darüber nachzudenken wie große firmen mit projekten umgehen und den zur verfügung stehenden ressourcen an mitarbeitern :stupid:

Nvidia entwickelt nicht nur Grafikkarten, das nur mal so am Rande....

Also frage ich dich, wie du es erklärst, dass eine längst auf dem Markt zu erscheinde Karte immer noch nicht am Markt ist?
Was wird nun wie und vor allem in welchem Ausmaß benutzt, du spekulierst doch genau auf selbiger Basis, nur dass mein Post bereits auf Hardware basiert, die verfügbar ist....

Sprich, mit den vorhandenen Informationen lässt sich eine grundsätzlich fundiertere Argumentation im Bereich AMD und seine Zukunft aufstellen.
 
...
Sprich, mit den vorhandenen Informationen lässt sich eine grundsätzlich fundiertere Argumentation im Bereich AMD und seine Zukunft aufstellen.

Die Information die wird über AMD haben erklären Nvidias vermeindlich schlechte Position ?


Er sagt doch nur das Nvidia nicht schlecht da stehen troz eines Fermi flops bzw. des späten reals..
 
Nvidia entwickelt nicht nur Grafikkarten, das nur mal so am Rande....

Also frage ich dich, wie du es erklärst, dass eine längst auf dem Markt zu erscheinde Karte immer noch nicht am Markt ist?
Was wird nun wie und vor allem in welchem Ausmaß benutzt, du spekulierst doch genau auf selbiger Basis, nur dass mein Post bereits auf Hardware basiert, die verfügbar ist....

Sprich, mit den vorhandenen Informationen lässt sich eine grundsätzlich fundiertere Argumentation im Bereich AMD und seine Zukunft aufstellen.


ich glaube auch du hast kein bißchen davon verstanden was ich versucht habe dir zu erklären.

fermi ist nicht zwischen tür und angel entwickelt worden, die entwicklung ging über mehrere jahre. auch bei amd sind solche planungen sehr zeitintensiv. und trotzdem kommen neue generationen fast jährlich in relativ kurzen zeitabständen.

warum ist das wohl so? weil projekte parrallel abgearbeitet werden etc pp.
zudem ist nicht jedes projekt mit der gleichen arbeit und dem selben aufwand zu bewältigen.

vielleicht ist das folgende projekt ja wieder früher fertig als projekt fermi es wurde, wer weiss das schon? nur weil thermi jetzt mit einiger verspätung kommt muss das nicht bedeuten das der nächste chip noch sehr weit entfernt ist

ständig versuchen hier irgendwelche blauäugigen fanboys dumme gerüchte in die welt zu setzen ohne mal vernünftig drüber nachgedacht zu haben wovon sie eigentlich gerade sprechen.
 
ich hab mal kräftig ausgemistet hier...

Jungs bleibt doch bitte beim Thema ;)
:btt:

Was hier defintiv nicht reingehört:
- Irgendwelche AMD Sachen, und seien es Spekulationen über kommende AMD Karten
- Andauerndes Aufgewärme von Karten die lange zum Alteisen gehören
- Preisdiskusionen, die sich mit Karten längst vergangener Tage beschäftigen
- Diskusionen über Videoencoding über die GPU
- Persönliche Anfeindungen...
 
isses nicht gleich besser wenn man den Thread schließt und nur offizielle Infos postet?
 
Wenn oder besser falls Fermi für NV ein Reinfall wird, dann ist das kurzfristig nicht so schlimm. Auch wenn man AMD eine Grafikkartengeneration den Markt (fast) komplett überlassen muss.
Wenn der Fermi aber für NV zu einem "Pentium4" wird, sprich technologisch eine Sackgasse, dann ist das richtig übel.
Was Intel zu P4 Zeiten getan hat - alles einzustampfen inkl. dem Branding "Pentium" und komplett neu aufzubauen und damit auch noch verdammt erfolgreich zu sein - hätte wohl keine andere Firma geschafft.
 
Wenn oder besser falls Fermi für NV ein Reinfall wird, dann ist das kurzfristig nicht so schlimm. Auch wenn man AMD eine Grafikkartengeneration den Markt (fast) komplett überlassen muss.
Wenn der Fermi aber für NV zu einem "Pentium4" wird, sprich technologisch eine Sackgasse, dann ist das richtig übel.
Genau das, also dass es hier um eine neue Architektur handelt und die dadurch sicher weit höheren Entwicklungskostem ja auf mehrere Generationen aufgeteilt werden können hab ich auch schon geschrieben, aber anscheinend hat dieser Post damals irgendeine Äußerung, bzw. einen Quote einer Anfeindung enthalten und damit wurde sie gelöscht.
Also kann man nicht einfach eine Milchmädchenrechnung aufstellen und sagen dass NVidia jetzt mit Fermi Gen1 gleich alle Entwicklungskosten der gesamten neuen Architektur einspielen muss.

Wie du richtig sagst, wenn das gesamte neue Konzept flopt wirds wirklich übel für NVidia, is es nur die Gen, dann is es halb so schlimm.
Intel hatte damals ja wenigstens die erfolgreichen Mobile-Varianten und darauf weitere Entwicklungen aufgebaut, NVidia müsste wieder eine komplett neue Architektur aufbauen und dazu reichen die heutzutage üblichen, kurzen Produktzyklen bei weitem nicht aus.
 
Am Anfang hab ich hier echt jden Tag gelesen, aber in den letzten Wochen steht hier echt nur Sachen über AMD/ATI.......... ich meine hier gehts doch um die Fermi oder irre ich mich da? Ist das so schwer beim Thema zu bleiben? Man muss hier erst mal ein paar Seiten Müll lesen bis man wieder was interessantes findent was mit Fermi zu tun hat
 
ich glaube auch du hast kein bißchen davon verstanden was ich versucht habe dir zu erklären.

fermi ist nicht zwischen tür und angel entwickelt worden, die entwicklung ging über mehrere jahre. auch bei amd sind solche planungen sehr zeitintensiv. und trotzdem kommen neue generationen fast jährlich in relativ kurzen zeitabständen.

warum ist das wohl so? weil projekte parrallel abgearbeitet werden etc pp.
zudem ist nicht jedes projekt mit der gleichen arbeit und dem selben aufwand zu bewältigen.

vielleicht ist das folgende projekt ja wieder früher fertig als projekt fermi es wurde, wer weiss das schon? nur weil thermi jetzt mit einiger verspätung kommt muss das nicht bedeuten das der nächste chip noch sehr weit entfernt ist

ständig versuchen hier irgendwelche blauäugigen fanboys dumme gerüchte in die welt zu setzen ohne mal vernünftig drüber nachgedacht zu haben wovon sie eigentlich gerade sprechen.

Vielleicht ist das folgende Projekt früher fertig? Vielleicht ist es nicht der gleiche Aufwand, vielleicht.....

Du spekulierst doch auch komplett durch die Gegend und mich als blauäugigen Fanboy zu bezeichnen kannst du dir sonst wo hinstecken....du hast kaum Fakten zur Hand.
Anscheinend versteht kein Mensch was du versuchst "uns", dem niederen Fußvolk zu erklären.....:fire:
Und was hat das mit dummen Gerüchten zu tun? Wo ist das ein Gerücht, dass Nvidia nicht nachkommt mit Fermi? Wo ist es ein Gerücht, dass Nvidia eben doch nicht ganz vorne dabei ist - sonst wäre wohl Nvidia der letzte Konzern, der auf gutes Geld verzichtet? Sie gewinnen keinen Marktanteil mit Grafikkarten am Papier.

Na gut, genug geplänkelt - ich trage ja hier sonst nichts bei als Fanboy x)
 
Zuletzt bearbeitet:
Genau das, also dass es hier um eine neue Architektur handelt und die dadurch sicher weit höheren Entwicklungskostem ja auf mehrere Generationen aufgeteilt werden können hab ich auch schon geschrieben, aber anscheinend hat dieser Post damals irgendeine Äußerung, bzw. einen Quote einer Anfeindung enthalten und damit wurde sie gelöscht.
Also kann man nicht einfach eine Milchmädchenrechnung aufstellen und sagen dass NVidia jetzt mit Fermi Gen1 gleich alle Entwicklungskosten der gesamten neuen Architektur einspielen muss.

Wie du richtig sagst, wenn das gesamte neue Konzept flopt wirds wirklich übel für NVidia, is es nur die Gen, dann is es halb so schlimm.
Intel hatte damals ja wenigstens die erfolgreichen Mobile-Varianten und darauf weitere Entwicklungen aufgebaut, NVidia müsste wieder eine komplett neue Architektur aufbauen und dazu reichen die heutzutage üblichen, kurzen Produktzyklen bei weitem nicht aus.

Du musst dabei aber auch erwähnen, das Fermi in dem Sinne keine komplett neue Architektur ist...
Man setzt immernoch auf 1D Shadereinheiten wie seit dem G80.
Vereinfacht ausgedrückt, man hat keinesfalls das Rad neu erfunden. Man hat sich von Altlasten befreit und an vielen Stellen starkt optimiert. Alles in Allem befinden wir uns aber noch auf dem Technologischen Level, das mit dem G80 das Licht der Welt erblickt hat...
Ein Technologieumschwung wie zwischen G7x zu G80 haben wir hier beim Fermi aber lange nicht ;)


Ich denke mal wir werden mit der nächsten NV Gen. was wirklich neues sehen ;) Aber das spielt hier erstmal keine Rolle, hier gehts ja um den Fermi, was der reißen wird, bleibt nach wie vor abzuwarten...
 
und wie siehts aktuell mit dem Fermi aus?
gibt es was neues über bestimmte Limitierungen?
oder größere fehler im Design?

oder hat Nvidia ein 1A Chip entwickelt der alle überzeugen wird -.-
 
Neueste ausm 3DCenter ist jedenfalls, dass es einen neuen AF-Schalter geben wird. Leider keine Infos, was der Schalter bewirken wird.
 
Du musst dabei aber auch erwähnen, das Fermi in dem Sinne keine komplett neue Architektur ist...
Man setzt immernoch auf 1D Shadereinheiten wie seit dem G80.
Vereinfacht ausgedrückt, man hat keinesfalls das Rad neu erfunden. Man hat sich von Altlasten befreit und an vielen Stellen starkt optimiert. Alles in Allem befinden wir uns aber noch auf dem Technologischen Level, das mit dem G80 das Licht der Welt erblickt hat...
Ein Technologieumschwung wie zwischen G7x zu G80 haben wir hier beim Fermi aber lange nicht ;)


Ich denke mal wir werden mit der nächsten NV Gen. was wirklich neues sehen ;) Aber das spielt hier erstmal keine Rolle, hier gehts ja um den Fermi, was der reißen wird, bleibt nach wie vor abzuwarten...

Man hat aber noch mehr gemacht als sich von den Altlasten zu befreien. Allein die Rasterengine ist ein Weg den man seit anbeginn des 3D-Zeitalters in Grafikkarten noch nie so angegangen ist. Aber auch ATI wird hier was tun müssen, was sie wohl auch mit ihrer nächsten Gen tun werden.

Insgesammt ist Fermi mehr Evolution als Revolution, aber er hat einen Weg beschritten der richtig ist.
 
Ja, es hat sich inzw. was getan. Momentan sieht es so aus:
Launch im März (wahrsch. Paperlaunch, kaufbare Karten eher April),
Performance laut nV-eigenen Benches grob ca. ~40% über HD 5870. Sind halt
nV-eigene Benches, die reale Performance kann nat. etwas abweichen.
ATi launched dann wohl ungefähr zeitgleich eine HD5890, so dass der Unterschied
der Top-Single-GPU-Karten dann wohl eher bei 5-20% liegen wird.

Dafür wird die GTX 380 gerüchteweise ein Overvoltage-Tool mitbringen,
und somit noch einiges Taktpotenzial besitzen, was mit der HD 5890 wohl
schon größtenteils ausgereizt wäre. Dass die Karte dann ausserhalb der
PCIe-Spezifikationen gelangt und über 300W (Single-GPU! :asthanos: )
verbrät, darf man dabei allerdings auch nicht unerwähnt lassen :fresse:

Preislich dürfte eine GTX 380 zunächst dann bei 450-500€ UVP liegen,
anfangs nat. mit gesalzenem early-adopter Aufschlag.


Grüße,
Mr.Malik

Wenn NV eigene Benche 40% zeigen,das kommt in der Praxis wohl 20% rum.
Denn jeder Hersteller wird in der Regel nur die Benches zeigen,wo ihre Karte am besten abschneidet.

Und an ein Overvolting Tool glaube ich auch nicht. Die KArte wird so wohl schon Kühlungsmässig an der Grenze laufen (und sehr laut sein).

Ich denke an 20% mehr Perfomance als eine 5870 Karte,sehr stromhungrig,sehr laut,schlecht übertaktbar und 500 Euro teuer.

Sprich,der Fermi ist keine gute Karte insgesamt.

Meine Persönliche Meinung. Mal schauen was rauskommt.

---------- Beitrag hinzugefügt um 14:09 ---------- Vorheriger Beitrag war um 13:55 ----------

Ja natürlich. Und Charlie kann man auch gut trauen... Man Leute lasst es einfach sein: Der Fermi wird schneller als die HD5870 und auch als eine 5890. Erhofft euch nicht zu viel von nem Refresh der HD5870. Außerdem hat Nvidia sicherlich aus den Fehler gelernt. Lasst euch einfach überraschen;)


mfg

Die gleichen Postings hat man vor ein paar Monaten gelesen bezüglich Release des Fermis.

Charlie sagte, das der Fermi nicht Ende November kommt sondern eher März,April.

Da gab es dann die gleichen Postings,das Charlie keinen Ahnung hat und Fermi mit Sicherheit Ende November kommen wird.

Also einfach immer die gleiche Leier runterlabern. Irgendwann hat Charlie natürlich wirklich mal Unrecht und dann kann man sagen,man hat ja schon immer gewusst das er nur Unsinn daherredet :d
 
Man hat aber noch mehr gemacht als sich von den Altlasten zu befreien. Allein die Rasterengine ist ein Weg den man seit anbeginn des 3D-Zeitalters in Grafikkarten noch nie so angegangen ist. Aber auch ATI wird hier was tun müssen, was sie wohl auch mit ihrer nächsten Gen tun werden.

Insgesammt ist Fermi mehr Evolution als Revolution, aber er hat einen Weg beschritten der richtig ist.

Man darf bei der ganzen Gechischte aber auch nicht vergessen, wer damals die US und grundlegende Merkmale der Architektur im Grunde genommen "vorgeschrieben" hat?! An dieser Entwicklung sind die Redmonder maßgeblich beteiligt bzw. man arbeitet Hand in Hand. Das was nVidia mit der GF100 Architektur bis jetzt bewerkstelligt hat ist schon ein Schritt nach vorne, wenn auch nicht so dermaßen groß wie zu G80 Zeiten. Man hat viele kleine Sachen verändert und umgekrempelt. Entwicklungen auf anderen Gebieten gehen auch nicht mal eben so schnell voran. Das braucht alles seine Zeit bis wieder ein Durchbruch kommt.
 
Da gab es dann die gleichen Postings,das Charlie keinen Ahnung hat

Das Charlie keine Ahnung hat sagt niemand bzw ich würde sogar behaupten das er viel Verständniss von der ganzen Sache besitzt.

Nur er ist ein Schwätzer der den 10-20% Wahren was er sagt bewusst 80% Bildjournalismuss hinzufügt aus welchen Gründen auch immer.

Im Nachhinein sich dann die besagten 10-20% Wahrheit heraus zu picken u dann zu behaupten "seht ihr er hat ja recht gehabt"ist genauso daneben,wenn dafür der restliche Teil ein Witz war:cool:
 
Zuletzt bearbeitet:
Wenn NV eigene Benche 40% zeigen,das kommt in der Praxis wohl 20% rum.
NVidia hat bisher genau einen kurzen Benchmark gezeigt und der war nur im Vergleich mit einer GTX280 oder GTX 285 und da war Fermi um einiges flotter.
Es wird unterschiedl. sein wo Fermi wirklich schneller ist als die HD5870, es gibt ja auch Games wo die GTX280 gar nicht weit hinter der HD5870 liegt und dort könnte sich Fermi deutlicher absetzen wie bei anderen Spielen.

Richtig interssant wirds vor allem für Leute die eine GraKa nicht jede Generation austauschen bei DX11-Games, wovon es daerzeit ja nur Dirt2 gibt, da kriegen wir mal einen Einblick wie gut NVidia seine Hausaufgaben bezüglich DX11 gemacht hat.
Genauso interessant wirds werden wie sich der kolportierte 1,5 GB RAM der Karte auswirkt, vor allem bei hohen AA/AF-Einstellungen.

Da ist noch soviel offen bezüglich Leistung dass wir noch lange spekulieren können, aber wirkliches Fazit gibts erst wenn Testmuster draussen sind
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh