nVidia GT300 (40nm) DirectX 11 [Speku-, News- & Diskussionsthread] Part 3

Status
Für weitere Antworten geschlossen.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich lese da, dass für ein SLI Sys. bestehend aus 2x Fermikarten ein 120er Lüfter, der die Fermikarten aktiv kühlt "nötig" ist, da davor Karten nicht funktionierten oder so.

"nachdem zuerst mehrere Exemplare als "Failed" nach Santa Clara zurückgeschickt werden mussten"

Richtig SLI System:)

Noch dazu weiss man nicht wie Nvidia die Gehäuse getestet hat.Will man auch das das Gehäuse mit Overclockingfunktionen u damit 300/600Watt oder 900Watt in Maximalkonfig bei 3 Karten fertig wird,sollte das Gehäuse auch dementsprechend ausgelegt werden um die enorme Abwärme von 900watt abzuführen


Eben nicht du liesst nur grosser Lüfter u pickst dir das raus:)

Wenn direkt im benachbarten Slot eine weitere Graka steckt, dürften andere Grakas ebenfalls Probleme haben.
.

Da sieht man wer schonmal so ein System am laufen hatte u aus Erfahrung spricht:)
 
Zuletzt bearbeitet:
Das machen die meißten doch heute sowieso auch schon.

Da eine der 2 Karten im SLI / CF Verbund relativ wenig Luft bekommt packen doch da heute schon viele Leute zusätzlich einen 120er oder so an die Seite ran.

--

Ein SLI System aus 2 Karten die jeweils mal mind. 300€ oder so kosten werden ist doch sowieso nur für die wenigsten interessant.

(Ganz zu schweigen von Systemen mit nochmehr als 2 Karten).

--

Allerdings muss man natürlich auch klar sagen, dass man da auch raushören kann, dass die Karten wohl warm werden - werden. Das spricht natürlich im gleichen Atemzug auch für laute Karten.

Viel Potential ist bei Radiallüftern sicherlich nichtmehr vorhanden. Hat sich ja die ganzen Jahre nicht viel getan. Aber die Lautstärke ist für die meißten ja auch eher zweitranging.

--

Ich bin nun auf jeden Fall mal gespannt auf die ersten nackten Benches. :xmas:
 
Richtig SLI System:)

Noch dazu weiss man nicht wie Nvidia die Gehäuse getestet hat.Will man auch das das Gehäuse mit Overclockingfunktionen u damit 300/600Watt oder 900Watt in Maximalkonfig bei 3 Karten fertig wird,sollte das Gehäuse auch dementsprechend ausgelegt werden um die enorme Abwärme von 900watt abzuführen
schon bei einem 7800 GT SLI wurden die grakas so heiß, dass man sie nicht mehr anfassen konnte. kein wunder das beim fermi monster eine sehr gute lukü her muss.
 
Wenn sich diese Gerüchte bewahrheiten, ist das mit Sicherheit keine Entwicklung die zu begrüßen ist. Ich will keine GPUs haben, die immer größer,heißer und stromhungriger werden, sondern ich will eine Entwicklung sehen bei der Performancezuwachs und Effizienz hand in hand gehen.

Als nächstes kommt dann ATI mit ihrer Nextgen um die Ecke, wo die GPU dann nochmal doppelt so groß ist und nur im Bundle mit einer Wakü und einem 1200W NT verkauft wird. Auch wenn GF100 nur 30% schneller sein sollte als HD5870, ist das angesichts der technischen Voraussetzungen alles andere als beeindruckend. Ich weiß noch zu gut, wie die HD5870 verrissen wurde, weil sie "nur" 30-40% schneller als eine GTX285 war.
 
was juckt nvidia noch der fermi?
NV is jetzt zuliefere fürs audi, da interessiert die ne hand voll gamer noch weniger

Glaube der Gamer markt ist für Nvidia noch extrem mehr geldeinbingender als der Audi markt...

Nen chip fürs Autosys braucht nicht viel und kost nicht viel...

Und ich fahr selbst nen Audi TT, also auch nix Fanboy geschwafel...

Auf den Gamermarkt ist NV ganz einfach angewiesen:)
 
Glaube der Gamer markt ist für Nvidia noch extrem mehr geldeinbingender als der Audi markt...

Nen chip fürs Autosys braucht nicht viel und kost nicht viel...

Und ich fahr selbst nen Audi TT, also auch nix Fanboy geschwafel...

Auf den Gamermarkt ist NV ganz einfach angewiesen:)


Man muss sich auch mal vergegenwärtigen, wie gering die Verkaufszahlen beim Audi A8 sind. Das bringt NV bestenfalls Prestige aber sicher kein großes Geld.
Tegra allgemein ist aber imho wirklich zukunftsträchtig. Und natürlich eine Kriegserklärung an Intel und Microsoft.
 
wieso soll denn tegra ne kriegserklärung an Intel sein? ist doch von NVIDIA (intel)?


und natürlich geht ein A8 nicht so gut wie ein A3/4

ABER es ist immernoch DAS Flagschiff von audi und wird auch dementsprechend gehandelt... gekauft wird es allemal
 
In der PS3 ist ja auch NV Grafik drin und die wird sich auch noch millionenfach verkaufen und wenn mir auf arbeit die ganzen Laptops anschaue Fujitsu, Toshiba fast überall ist ein NV Chip mit drin.
 
Zuletzt bearbeitet:
In der PS3 ist ja auch NV Grafik drin und die wird sich auch noch millionenfach verkaufen und wenn mir auf arbeit die ganzen Laptops anschaue Fujitsu, Toshiba fast überall ist ein NV Chip mit drin.

Was sich hoffentlich ändern wird, auf diese "neuen" Mobile GPUs von NV kann ich nämlich verzichten. Ich wünsche mir ja, dass die neuen Geforce Karten gut werden, aber was in NV in der letzten Zeit abliefert wirkt irgendwie hingepfuscht und nervös. Auch fehlt das sonst ja übertrieben vorhandene NV typische Selbstbewusstsein dies mal ja gänzlich. Dazu noch die ganzen Gerüchte über Temps,Stromverbrauch usw..

Das Wort Geforce öffentlich auch nur zu erwähnen, scheint ja konzernintern geradezu verboten zu sein. Das alles lässt mich wirklich an den GF100 zweifeln auch wenn das nur ein Bauchgefühl ist und man es nicht mit harten Fakten belegen kann.
 
Ja die mobilen NV-GPUs scheinen ziemlich oft kaputt zu gehen...die muss ich auf Arbeit nämlich sehr oft ein- und auslöten...die hohe Defektrate könnte aber auch an der unzureichenden Kühlung der Laptophardware liegen...
 
was juckt nvidia noch der fermi?
NV is jetzt zuliefere fürs audi, da interessiert die ne hand voll gamer noch weniger

So ein Stuss...

Glaubst du in jeden Audi kommt jetzt nvidia Technik?!
In deine Hand passen hundertausende Gamer?!

Was hier für ein Blödsinn geredet wird ist manchmal echt unfassbar!
Ja die mobilen NV-GPUs scheinen ziemlich oft kaputt zu gehen...die muss ich auf Arbeit nämlich sehr oft ein- und auslöten...die hohe Defektrate könnte aber auch an der unzureichenden Kühlung der Laptophardware liegen...

Du lötest NVidia GPUs ein und aus?!
Könnte man davon mal ein Bild sehen?
Woher beziehst du denn deine GPUs?
 
Zuletzt bearbeitet:
Du lötest NVidia GPUs ein und aus?!
Könnte man davon mal ein Bild sehen?
Woher beziehst du denn deine GPUs?

Das war ein NVidia-Problem letztes (oder vorletztes) Jahr. Da haben sich die GPUs in Laptops einfach gelöst, weil minderwertige Materialien von NVidia verwendet wurden, das wurde aber dann behoben. Man konnte die GPU dann nur noch wieder auflöten.
 
So ein Stuss...

Glaubst du in jeden Audi kommt jetzt nvidia Technik?!
In deine Hand passen hundertausende Gamer?!

Was hier für ein Blödsinn geredet wird ist manchmal echt unfassbar!


Du lötest NVidia GPUs ein und aus?!
Könnte man davon mal ein Bild sehen?
Woher beziehst du denn deine GPUs?


Das er das sinnbildlich meinte, sollte eigentlich klar sein. Grakas wie HD5870/5970 oder GF100/GF104 dienen seit jeher in erster Linie dem Prestige des Herstellers. Da der Markt für solche Highend Lösungen, gemessen am Gesamtmarkt, verschwindend gering ist wird da mit Sicherheit nicht die große Kohle verdient.
 
Mag sein, aber ich würde trotzdem gerne mal ein Bild davon sehen...

---------- Beitrag hinzugefügt um 12:43 ---------- Vorheriger Beitrag war um 12:39 ----------

Das er das sinnbildlich meinte, sollte eigentlich klar sein. Grakas wie HD5870/5970 oder GF100/GF104 dienen seit jeher in erster Linie dem Prestige des Herstellers. Da der Markt für solche Highend Lösungen, gemessen am Gesamtmarkt, verschwindend gering ist wird da mit Sicherheit nicht die große Kohle verdient.

Es wird doch extrem viel Geld in die entwicklung und poduktion solcher Produkte gesteckt.
So einen chip kann ma ja mal nicht eben aus dem Hut zaubern.
Ich glaube nicht das da der Markt für High-End Produkte nur verschwindend gering ist...
 
Mag sein, aber ich würde trotzdem gerne mal ein Bild davon sehen...

---------- Beitrag hinzugefügt um 12:43 ---------- Vorheriger Beitrag war um 12:39 ----------



Es wird doch extrem viel Geld in die entwicklung und poduktion solcher Produkte gesteckt.
So einen chip kann ma ja mal nicht eben aus dem Hut zaubern.
Ich glaube nicht das da der Markt für High-End Produkte nur verschwindend gering ist...

Ok ich sollte es vieleicht präzisieren. Natürlich sind die Forschungs- und Entwicklungskosten für die Fermi-Architektur gewaltig, aber dieser Chip ist auch nicht für den Gaming-Sektor entwickelt worden, sondern für den nach NVs Meinung mehr gewinnversprechenden GPGPU Bereich. Die Geforce Modelle werden also ein unwichtigeres Nebenprodukt darstellen.
 
Könnte man davon mal ein Bild sehen?
Woher beziehst du denn deine GPUs?

Mit so einer BGA-Lötstation von ERSA löte ich die ein. Ziemlich teuer das Teil. Ich wechsel nicht nur GPUs, sondern auch North-,Southbridge, V-RAMs, LAN-Chips, Audio. Alles was eben defekt ist und der Techniker nicht mit der Hand wechseln kann. Chips werden von der Firma vom jeweiligen Hersteller bestellt.

http://www.ersa.de/art-ir-pl-650-245-192.html
 
Gibt es da ne Mindeststückzahl die man kaufen muss?
(Also nicht von der Lötstation sondern von den GPUs/Chips)

Ok ich sollte es vieleicht präzisieren. Natürlich sind die Forschungs- und Entwicklungskosten für die Fermi-Architektur gewaltig, aber dieser Chip ist auch nicht für den Gaming-Sektor entwickelt worden, sondern für den nach NVs Meinung mehr gewinnversprechenden GPGPU Bereich. Die Geforce Modelle werden also ein unwichtigeres Nebenprodukt darstellen.

Ja, das ist heute der Fall, aber vor der Geforce 8er Serie war das nicht so,
und dennoch wurden High-End Chips entwickelt.

Woher wollen eigentlich alle Leute wissen das Nvidia jetzt mit mal kein Interesse mehr an Gamern hat,
und das große Geschäft jetzt nur noch mit "GPGPU-Kundschaft" machen will?
Sicher ist das ne neue Sparte, aber doch lange nicht alles bzw. der großteil!
 
Zuletzt bearbeitet:
Moin!

Ich frag mich, ob sich Nvidia mit ihren ganzen NV-only-features nen Gefallen tut. Der Spielemarkt wandelt sich ja immer mehr zu Crossplattformentwicklungen - daher finde ich das schon ein gewagter Zug. NV hofft wohl durch ihre Softwareentwicklungen die ganzen Hersteller zu überzeugen auf NV-Chips zu setzen um so Features wie PhysX oder auch 3D-Vision anbieten zu können.
Nur was passiert, wenn wirklich mehr "offene" Physikengines oder auch 3D-Möglichkeiten eingesetzt werden die unabhängig von der Hardware funktionieren?
Ich denke letzteres dürfte gerade für den Preiskampf weitaus interessanter sein und somit auch im Sinne der Gerätehersteller.

Um ehrlich zu sein finde ich auch diese Raketenschlittendemo unsinnig. Ist ja toll, dass PhysX im TripleSli nen Raketenmotor in echtzeit berechnen kann - nur ob das für Gamer interessant ist? Nichtnur dass die Hardwarekonfiguration total utopisch ist, wen interessiert solch ein Feature in nem Spiel denn wirklich? Mir wäre da eine verbesserte Bildqualität weitaus wichtiger. Tesselation, verbesserte Texturfilterung usw. ist das was mich wirklich interessiert.
Klar, realistische Physik in Spielen ist ne tolle Sache, aber bis zu welchem "Detaillevel" sowas interessant bleibt und Sinn macht sollte man auch mal bedenken.
Auch der Stromverbrauch spielt immer mehr eine Rolle. Vor allem, wenn man seine Stromrechnung selbst zahlt. Sollte die neue GF wirklich so ein Heizkraftwerk werden, wie hier mehrfach zitiert wurde (wenn auch aus fraglichen Quellen), dann seh ich das als dicken Minuspunkt. Mit ner hohen Lautstärke könnte ich noch leben, da ich dann die Option zur WaKü habe. Wenn das Ding aber serienmäßig schon massig Strom verbrät ohne dass überhaupt schon OC betrieben wurde wäre das für mich ein echtes NoGo.

Letztendlich werde ich abwarten bis unabhängige Reviews & Preise verfügbar sind, bevor ich entscheide ob Ati/NV bzw. überhaupt ne neue Graka.

Gruß
Frank
 
Welche (offene?) Physikengines gibt es denn ausser PhysX (Nvidia) und Havok (Intel)?

Ich wollte eigentlich auch direkt zuschlagen sobald Fermi da ist, allerdings gibt es da ein paar sachen die mich abschrecken. zuerstmal der so hohe stromverbrauch, desweiteren die tatsache das angeblich in zweiten quartal der GF104 kommen soll welcher auch High-End ist? Und drittens wünsche ich mir eine möglichkeit drei bildschirme an einer karte anzusteuern. zwangsweise ein SLI system für surroundgaming ist scheisse.
 
Es gibt noch keine offizielen Benches und Messungen der Karte, deshalb kann man noch keine Entscheidungen treffen

> abwarten
 
Ich bin jedenfals auf den Fermi vorbereitet.
Mein NT hat 3x6 Pin PCIe und 3x8 Pin PCIe zur verfügung und dank Wasserkühlung sehe ich da auch kein Problem.
Wenn es eng wird kommt noch ein Radi dazu und gut ist.

Das wird dann das erste Fermi System mit 2 oder 3 Karten sein welches in einen HTPC Gehäuse läuft.
Aber erst mal abwarten wie es genau mit der GF100 aus sieht und ob man zu Relaise auch schon Daten und Test's der GF104 hatt.

So hatt man eine bessere Auswahl.

Mfg. Denny
 
Es geht (bei mir zumindest) weniger um die vorbereitung. Ich will keine graka die die Raumtemperatur hebt :-/
Wenn die Effizienz wirklich so mies ist will ich doch nicht mehr für verpuffte Leistung und eine höhere Stromrechnung zahlen.

Wenn die Jungs von nvidia selbst schon mit abstürzen auf der live demo zu kämpfen haben gibt das schon sehr zu denken...
 
Bei ATI ist der Chip im vergleich zu Nvidia recht klein ;)
Die Temps bei ATI sind 1A

dazu müsste man nach dem Geforce launch die Karte mit ATI vergleichen, ist der Fermi 30% schneller, aber verbaucht z.b. 300 Watt und ist sehr laut unter Last würde ich keine Nvidia kaufen, sondern 2x 5870 Karten im CF
 
Zuletzt bearbeitet:
Es geht (bei mir zumindest) weniger um die vorbereitung. Ich will keine graka die die Raumtemperatur hebt :-/
Wenn die Effizienz wirklich so mies ist will ich doch nicht mehr für verpuffte Leistung und eine höhere Stromrechnung zahlen.

Wenn die Jungs von nvidia selbst schon mit abstürzen auf der live demo zu kämpfen haben gibt das schon sehr zu denken...

Naja zu den Abstürzen kann man eigentlich nur soviel Sagen, das das Supersonic Sled Demo noch neu ist und die Treiber auch noch nicht Final sind.
Desweiterren haben sie Karten aus der ersten Produktion genommen.
Die Finalen Karten haben eine anderre Taktrate und der Treiber ist sicher dann auch besser.

NV hatt für die CES nur schnell ein laufähiges System zusammen gebaut was einigermaßen läuft so das man es Zeigen kann.
Die Finalen Karten sind dann sicher schon besser. Wenn sie noch Probleme hätten würden sie die Karten nicht in Produktion geben.

Mfg. Denny
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh