nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] [Part 1.1]

Status
Für weitere Antworten geschlossen.
Sow ird es wohl sein, aber einmal im Jahr kann man sich eine Graka schon was kosten lassen. Bis jetzt war die XFX 7800GTX XXX 512 die teuerste Karte die ich gehabt habe.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn ATI 2010 mit dem 32nm Prozess schnell vorankommt dann kanns für Nividas Fermi schlecht aussehen, ATI mit neuer Architektur + 32nm denke ich bis zu 70-80% schneller als die HD5k sein, dann kostet wieder eine Nvidia keine 300 € mehr :fresse:
 
Zuletzt bearbeitet:
Abwarten Tee trinken ;-)
 
was mich nur wundert, dass die Foren vollgeschrieben stehen mit irgendwelchen Texten die nVidia tot schreiben was den Gamingpart angeht, ATI gaaanz inRuhe ihre Campagne gegen nvidia fahren können und nvidia lässt es voll und ganz über sich ergehen. Die einzigen News die kommen sieht man ja oben im Post^^
Warum melden die sich denn nicht mal auf die Art was den GT300 auch für Gamer interessant macht.


Nvidia weiß ja das sie im Moment nichts gegen die 5850/5870 tun können. Die Preise die ATI selbst jetzt im Moment fährt kann Nvidia einfach nicht mit dem GT300, deswegen ist jetzt mal ruhe und deswegen stampft Nvidia auch die nicht profitablen GT200 ein.
Die GTX 295 lassen sie ja nur, weil die von der Performance her mit der 5870 mithalten kann.

Normal dürfte der GT300 wenn er erscheint also GTX 380 nicht mehr als max 400€ kosten, damit die mit ATI mit können. Ob das Nvidia zusammen bringt bezweifle ich, aber die Hoffnung stirbt ja bekanntlich zuletzt.
 
Bei NVs Preispolitik scheinen 450€ beim Launch für die wohl schnellste Single GPU am Markt eher wahrscheinlich - wenn die etwas schnellere "HD 5970" (ex HD 5870 X2) mit 500€ auf den Markt kommt. Wenn der LEistungsunterschied nicht so groß ist, könnten die Grünen zumindest beim Launch eventuell auch 500€ verlangen und für die Dual-GPU Version über 600€.

Ich bin ja skeptisch, ob nun schon eine "GTX 390" im 40nm Prozess kommt - die TDP müsste ja enorm sein (ausgehend davon, dass sie bei einem G300/ GF100 wohl an de 225W hat) und das Ganze dannn noch per Luft gekühlt werden. Fragt sich halt, ob es dazu notwendig ist, die Taktraten und VCore enorm zu senken.
 
Zuletzt bearbeitet:
Der Preis hängt wie gesagt davon ab wie schnell der GF100 am Ende wird. ATI und NV werden es diesmal wohl nicht auf einen Preiskampf hinauslaufen lassen, immerhin haben sich beide schon beschwert das sie bei den niedrigen Preisen kein Geld verdienen.
 
Bei NVs Preispolitik scheinen 450€ beim Launch für die wohl schnellste Single GPU am Markt eher wahrscheinlich - wenn die etwas schnellere "HD 5970" (ex HD 5870 X2) mit 500€ auf den Markt kommt. Wenn der LEistungsunterschied nicht so groß ist, könnten die Grünen zumindest beim Launch eventuell auch 500€ verlangen und für die Dual-GPU Version über 600€.

Ich bin ja skeptisch, ob nun schon eine "GTX 390" im 40nm Prozess kommt - die TDP müsste ja enorm sein (ausgehend davon, dass sie bei einem G300/ GF100 wohl an de 225W hat) und das Ganze dannn noch per Luft gekühlt werden. Fragt sich halt, ob es dazu notwendig ist, die Taktraten und VCore enorm zu senken.

Ich hab halt Angst dass das wieder auf so ein FX5800 Ultra Fiasko hinausläuft ;)
 
Ich glaube einen erfolg wie beim G80 wird NV nicht wieder haben! Dafür ist die 5870er einfach zu böse und der Preis ist mehr als fair.
 
Ich glaube einen erfolg wie beim G80 wird NV nicht wieder haben! Dafür ist die 5870er einfach zu böse und der Preis ist mehr als fair.

Du kannst allerdings kein Produkt mit einem vergleichen von dem du überhaupt nichts weißt. Das der RV870 nicht langsam ist war wohl schon im Vorfeld klar, ATI ist dort auch kein Risiko eingegangen mit irgendwelchen neuen Features. Ob der GF100 ein Erfolg wird oder nicht entscheidet allein die Geschwindigkeit die der Chip bietet.
 
Richtig geschwindigkeit, ATI hat sich auf das wesentliche konzentriert. Ein paar neue dinge sind aber auch dabei.

Der G80 wurde damals auch ständig mit der alten 1900er Serie verglichen die keine Chance hatte. Dann kam die 3000er die kaum Chance hatte. Alle dachten damals ATI sei am Ende und die NV Fanboys haben sich gefreut, aber nicht gerallt das NV ihnen ohne Konkurrenz die Preise aufdiktieren kann.

Irgendwie ist das ja immer ein Katz und Mausspiel und alles wiederholt sich.

Aber immoment bekommt man für sein Geld einfach Grafikleistung OHNE Ende.
Für 150€ gibts super Grafikkarten von beiden Herstellern.
Selbst die HD5870 ist ein Schnäppchen.
Stromverbrauch von 27Watt im Idle ist genial.
 
Richtig geschwindigkeit, ATI hat sich auf das wesentliche konzentriert. Ein paar neue dinge sind aber auch dabei.

Was denn?

Der G80 wurde damals auch ständig mit der alten 1900er Serie verglichen die keine Chance hatte. Dann kam die 3000er die kaum Chance hatte. Alle dachten damals ATI sei am Ende und die NV Fanboys haben sich gefreut, aber nicht gerallt das NV ihnen ohne Konkurrenz die Preise aufdiktieren kann.

Irgendwie ist das ja immer ein Katz und Mausspiel und alles wiederholt sich.

Ich weiß zwar nicht genau worauf du jetzt mit dem Themenwechsel hinaus willst, aber zwischen der 1000er und 3000er Serie gabs noch die 2000er und jene war alles andere als schlecht gegen den G80. Als ATI mit dem RV670 die Strategie wechselte gab es Probleme, denn jener war kaum bis garnicht schneller war als sein Vorgänger. Erst mit dem RV7xx konnte ATI wieder anschließen.

Aber immoment bekommt man für sein Geld einfach Grafikleistung OHNE Ende.
Für 150€ gibts super Grafikkarten von beiden Herstellern.
Selbst die HD5870 ist ein Schnäppchen.
Stromverbrauch von 27Watt im Idle ist genial.

Was daran liegt das die Spiele nicht mehr so im Anspruch an die Hardware steigen, was zum einen an den Konsolen liegt und zum anderen an den großen finanziellen Aufwand den Spiele heute bedeuten.
 
Was daran liegt das die Spiele nicht mehr so im Anspruch an die Hardware steigen, was zum einen an den Konsolen liegt und zum anderen an den großen finanziellen Aufwand den Spiele heute bedeuten.

Was wiederum einer der Gründe dafür sein dürfte, weshalb nVidia sich mit Fermi auf neue Geschäftsfelder ausweitet, ohne neue Konsolen sind große Grafikkarten-Leistungssprünge doch im moment gar nicht nötig..
 

Eyefinity bis zu 8 HD Bildschirme betreiben. :wink:
Einen Verbrauch von 27Watt im Idle :d

Ich weiß zwar nicht genau worauf du jetzt mit dem Themenwechsel hinaus willst, aber zwischen der 1000er und 3000er Serie gabs noch die 2000er und jene war alles andere als schlecht gegen den G80. Als ATI mit dem RV670 die Strategie wechselte gab es Probleme, denn jener war kaum bis garnicht schneller war als sein Vorgänger. Erst mit dem RV7xx konnte ATI wieder anschließen.

Wenn ich die 3000er schon verkackt, dann doch die 2000er erstrecht, somit musste ich sie wohl nicht erwähnen..:rolleyes:
 
Zuletzt bearbeitet:
Eyefinity bis zu 8 HD Bildschirme betreiben. :wink:
Einen Verbrauch von 27Watt im Idle :d

Klar, ist schon nicht schlecht, aber Revolutionäres in Hardware ist nicht dabei.


Wenn ich die 3000er schon verkackt, dann doch die 2000er erstrecht, somit musste ich sie wohl nicht erwähnen..:rolleyes:

Wie schon gesagt, der 2900er war nicht so schlecht. Aufgrund des breiteren Speicherinterfaces lag er Teilweise vor den 3000ern. Allerdings konnte ATI weder Preislich noch Leistungsmäßig mit dem G80 mithalten, weshalb es ATIs letztes Rxxx Modell war. Aber das wusstest du alles sicherlich ;)
 
Was hat denn der Fermi jetzt großartig was der RV870 nicht kann? (also nicht von der leistung , sondern von der funktion her?) Was Revolutionär wär?

Ich habe nicht gesagt das der GF100 unbedingt was Revolutionäres gegen den RV870 bietet, aber C++ verarbeiten zu können usw, auch wenn solche Sachen bisher nur auf dem Papier gezeigt wurden, klingen zumindest interessant.
 
Wichtig ist ja, dass Spielprogrammierer die Spiele so programmieren, dass diese die Fermi dann auch auslasten können und nicht, dass 30% der potentiellen Leistung ungenutzt wird.
 
"AMD löst sich von der GPU-Schnittstelle "Close to Metal" und konzentriert sich auf OpenCL mit C++ Programmiersprache und DirectX-11. "

So hieß es mal von AMD, kann der RV870 das noch net oder ist da snoch in planung?
 
Also eigentlich beteilige ich mich ja nur ungern an diesem Ati / Nvidia gezeter, allerdings sind die Parolen hier nun teilweise schon so weit von der Realität entfernt, dass ich doch etwas dazu sagen möchte.

Mit der HD5870 hat Ati besonders mit Blick auf Preis/Leistung eine gute Karte auf den Markt gebracht. Wenn ich aber nun Sprüche wie "ist Nvidia am Ende" lese, frage ich mich aber ob ich der einzige bin, der die spezifikationen vom GT300 gelesen hat?

Einfach mal kurz rechnen und man sieht, selbst wenn die Karte eher niedrig getaktet wird liegt sie mindestens 70% vor der GTX285. Legt man dies zu Grunde, so liegt sie mindestens 30% vor der HD5870. Nicht zu vergessen, dass man hierfür an jeder Stelle die schlechtesten Werte für den GT300 annehmen muss.
Ich gehe allerdings auch davon aus, dass sie nicht noch schneller sein wird, da Nvidia die Karte ggf. sicher künstlich ausbremst. Man möchte zwar schneller als Ati sein, aber man wird sicherlich auch darauf achten, dass man dem Kunden nicht zu viel Geschwindigkeit gibt, schließlich soll er bald wieder eine Grafikkarte kaufen.

Das größte Problem vom Ati und Nvidia ist nämlich, dass es sehr schwierig ist, dem Kunden eine DX11 Grafikkarte zu verkaufen, wenn es noch nicht mal ein einziges DX10 Spiel gibt! Es gibt zwar sehr viele Titel bei denen 2 Zeilen DX10 Code dazugeschrieben wurden, damit man den Anschein erweken kann, dieses Feature zu unterstüzen. Somit sehe ich auch besorgt in die Zukunft der PC-Spiele.
 
"AMD löst sich von der GPU-Schnittstelle "Close to Metal" und konzentriert sich auf OpenCL mit C++ Programmiersprache und DirectX-11. "

So hieß es mal von AMD, kann der RV870 das noch net oder ist da snoch in planung?

Wo hast du die News denn her? Soweit ich weiß kann das Stream SDK zwar mit Visual Studio arbeiten, aber auf welcher Ebene das ganze abläuft weiß ich nicht.


smokingFrog2009 schrieb:
Wichtig ist ja, dass Spielprogrammierer die Spiele so programmieren, dass diese die Fermi dann auch auslasten können und nicht, dass 30% der potentiellen Leistung ungenutzt wird.

Da sind wir ja bei dem Grundsatzproblem, was willst du mit 160 statt 100 Fps? ABer erst mal abwarten wie die normalen Grakaversionen von Fermi ausschauen.
 
@Hentur

Doch, so ein Game gibt es, Stormrise :)
 
Wo hast du die News denn her? Soweit ich weiß kann das Stream SDK zwar mit Visual Studio arbeiten, aber auf welcher Ebene das ganze abläuft weiß ich nicht.




Da sind wir ja bei dem Grundsatzproblem, was willst du mit 160 statt 100 Fps? ABer erst mal abwarten wie die normalen Grakaversionen von Fermi ausschauen.

Naja das auslasten ist aber schon wichtig , wie bei ATI wo meist 4/5 der shaderlesitung brach liegt , weil nur Vec1 benutz wird.
 
Na dann, alles verarsche...
 
Klar, ist schon nicht schlecht, aber Revolutionäres in Hardware ist nicht dabei.




Wie schon gesagt, der 2900er war nicht so schlecht. Aufgrund des breiteren Speicherinterfaces lag er Teilweise vor den 3000ern. Allerdings konnte ATI weder Preislich noch Leistungsmäßig mit dem G80 mithalten, weshalb es ATIs letztes Rxxx Modell war. Aber das wusstest du alles sicherlich ;)

Ja, bin immo etwas verwirrt ist ja auch scon ne weile her, da wollte ich mir nen CF gespann mit der 2900 basteln, wie gut das ichs nicht getan hab^^
 
schon mal dran gedacht das nvidia ati und uns ziemlich verschaukelt in dem sinne das der fermi fake, vor alelm das nicht nennen von gamingspecs, 0 info politik usw dazu dient ati in sicherheit zu wiegen und dann ohne vorwarnung den G80 schock zu widerholen ? Würde sagen sooo weit hergeholt ist das nicht...
 
schon mal dran gedacht das nvidia ati und uns ziemlich verschaukelt in dem sinne das der fermi fake, vor alelm das nicht nennen von gamingspecs, 0 info politik usw dazu dient ati in sicherheit zu wiegen und dann ohne vorwarnung den G80 schock zu widerholen ? Würde sagen sooo weit hergeholt ist das nicht...

Naja dann hätten die nicht sagen sollen das sie einfach mal 50% mehr transis verbaut haben :d und nicht mit ihren Cuda-Cores prollen sollen ^^

also schneller wird sie, das denk ich mal sicher, aber sicher nicht günstiger.

Und vor allem dauert es bis die erscheint , bis da sind die ATIs noch günstiger als jetzt, fallen ja schon im preis.
 
schon mal dran gedacht das nvidia ati und uns ziemlich verschaukelt in dem sinne das der fermi fake, vor alelm das nicht nennen von gamingspecs, 0 info politik usw dazu dient ati in sicherheit zu wiegen und dann ohne vorwarnung den G80 schock zu widerholen ? Würde sagen sooo weit hergeholt ist das nicht...

und was für einen sinn gibt das deiner meinung nach?
falls du es nicht mitbekommen hast, ati hat seine karten bereits veröffentlicht.
also muss nvidia reagieren und nicht jemanden in sicherheit wiegen, der derzeit schon fleissig seine neue generation vermarktet und verkauft.

was soll das auch sein? anti-marketing?
 
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh