GF100-Demonstration auf der CES

Ich hab noch keine 5850 gesehen die nicht 850 schafft, und keine gesehen die für 1000 Mhz mehr als 1.21V brauchen

vergleichst du gerade eine 5850 mit einer 5890???

omg

Das ist ja wieder Traurig hier

Der unterschied in der Leistungsaufnahme bei denn 48xx Karten mit GDDR5 zwischen Full Takt und 300MHz ist nicht der Ram sonder der Memory Controller also wird da nie ein so großer unterschied zwischen 512 und 1GB sein.

Zur Leistung kann ich nur sagen das FUR wohl eine Anwendungs ist ähnlich wie DC Projekte die einfach sehr schlecht mit der Architektur der G200 Karten zusammen Arbeitet.

Einige sollten sich hier aber wirklich besser raushalten und vorallem das anfeinden lassen.... Wer etwas länger hier im Forum ist weiß auf welche Aussagen von welchen Usern man was geben kann.

und das erste was von dir kommt ist ne anfeindung, ohjeee...
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ich schätze mal die präsi wird so groß sein das nur eine ausgewählte anzahl an redakteuren die zu gesicht bekommen wird ...
 
die 58xx serie ist nicht durch durchdachten aufbau oder spezielle maßnahmen so sparsam
Doch, das ist sie. Die 40 nm Fertigung hilft natürlich auch in nicht geringem Masze.

ja, wenn du aber in watt/ fps umrechnest, bist du bei NV besser dran.
Nein, mit Sicherheit nicht. ZB braucht die GTX 285 in Spielen laut HT4U durchschnittlich knapp 20% mehr Strom für etwa 10% mehr FPS als die HD 4890. Beide gefertigt in 55 nm. Seit der HD 2900 XT hat sich viel getan bei ATI. ;) Wobei man solche Sachen natürlich nie pauschalisieren sollte. Insgesamt, was das gesamte Portfolio an GPUs betrifft, ist ATI seit der 4000er Generation bezüglich Energieeffizienz nVidia aber einen Schritt voraus.

warum eine gtx285 bei furmark langsamer als ne 4870 ist, kann ich mir nicht erklären.
das wirst du sonst nirgends finden
Schon mal was von GPGPU gehört?

HD 4870 = 1200 GFLOPS (SP)
GTX 285 = 933 GFLOPS (SP)

;)

Da solltest du aber nochmal genau hinschauen. Ich kann von 15% zwischen GTX 275 und HD 4890 nun wirklich nichts erkennen.
 
"außgewählte Anzahl" = "Jemand" = "Fortschritt" = "gut!"

her mit der CES, auch wenn nur die specs bestätigt werden.. ich will endlich eine fertige Karte sehen :d
 
wieso verbreitest du eigentlich so nen Blödsinn? soviel zum thema 5970 & 1000 GPU

Du bist blödsinn!
in welchen Tests wurde mit 1000 GPU getestet? diese tests kannst du jemand anderes zeigen die sind fürn arsch!

Ich habe geschrieben mit spannungsanhebung sind 1000 GPU kein Problem und das sind gegenüber standard mind. 20% Performanceschub!!!
 
Zuletzt bearbeitet:
Du bist blödsinn!
in welchen Tests wurde mit 1000 GPU getestet? diese tests kannst du jemand anderes zeigen die sind fürn arsch!

Ich habe geschrieben mit spannungsanhebung sind 1000 GPU kein Problem und das sind gegenüber standard mind. 20% Performanceschub!!!

Nun hast du mich echt überzeugt das du es echt nicht verstehst.
 
mgr R.O.G. hat da einfach recht und es ist genau umgekehrt, eine Strommessung der Grafikkarte allein ist total für den Po... :cool:

Was das NT angeht hast du zwar recht, aber das kann man minimieren, indem man ein sehr gutes Markennetzteil nimmt, bei dem die Last des Systems in beiden Fällen noch im Ideallastbereich liegt. Desweiteren ist es auch schwieriger und somit ungenauer die Last der Grafikkarte allein zu ermitteln.

Was die Hitze und andere Faktoren angeht, so will ich diese doch gar nicht ausschließen, sondern hoffe auch diese im Ergebnis wiederzufinden. Nehmen wir mal an Grafikkarte A belastet die Cpu deutlich höher als Karte B, so soll dieser Verbrauch doch schließlich mitgemessen werden. Hier sieht man natürlich, dass die Ergebnisse in unterschiedlichen Systemen auch anders aussehen können. Aber da muss man halt ein möglichst realistisches System zusammenstellen und so hat man einen guten Wert.

Und was bringt dir das schlussendlich?
Du wirst gemessenen Wert 1 nehmen und gemessenen Wert zwei mit der in dem Fall anderen Grafikkarte voneinander abziehen um zu sehen, wie groß der Unterschied ist. Dananch kommt das Argument, Karte 1 brauch so undso viel weniger/mehr als Karte 2.
Und genau hier liegt der Fehler, denn diese Aussage stimmt einfach nicht. Weil eben viel zu viele andere Faktoren mit reinspielen. Bei jedem anderen System kann die Leistungsmessung des Gesamtsystems anders ausfallen... Und das nicht nur ein bisschen, sondern teils drastisch.


Nur mal um ein Beispiel zu nennen, beim ersten Test rödelt die HDD irgendwie noch und die CD im Laufwerk fängt wegen nem Zugriff auf einmal an zu drehen, alles wärend des Lasttests. Das würde dein Ergebniss mit stark verfälschen weil du eben nicht exakt die gleichen Bedingungen nocheinmal schaffen kannst.
Testest du nur die Karte selbst fällt alles andere weg...


Eine Gesamtsystemmessung macht nur dann Sinn, wenn ich Beispielsweise wissen will, welche Kombination aus Grafikkarte, CPU, HDD, Board, Speicher und NT nun am Ende besser da steht.

Zur Leistung kann ich nur sagen das FUR wohl eine Anwendungs ist ähnlich wie DC Projekte die einfach sehr schlecht mit der Architektur der G200 Karten zusammen Arbeitet.

Nein eher andersrum, Furmark kommt überdurchschnittlich gut mit der Architektur der beiden Herstellern klar. Sieht man auch daran, weil im Furmark Volllast Vergleich die Karten mehr brauchen als bei sogut wie allen Gaminglastvergleichen. Und bei AMD Karten ist der Unterschied nochmals deutilch mehr als bei NV, was wiederum bedeutet, das AMD Karten in Games oft wohl nur teilweise ausgelastet werden (können)...
 
Nein eher andersrum, Furmark kommt überdurchschnittlich gut mit der Architektur der beiden Herstellern klar. Sieht man auch daran, weil im Furmark Volllast Vergleich die Karten mehr brauchen als bei sogut wie allen Gaminglastvergleichen. Und bei AMD Karten ist der Unterschied nochmals deutilch mehr als bei NV, was wiederum bedeutet, das AMD Karten in Games oft wohl nur teilweise ausgelastet werden (können)...

So war das auch nicht ganz gemeint.....

FUR liegt AMD Karten einfach wegen der größeren Rohleistung wesentlich besser..... Wie zb bei einigen Distibuting Computing Projekten.

Das FUR beide Architekturen bis zum Anschlag auslastet wollte ich damit nicht als Falsch hinstellen.
 
So war das auch nicht ganz gemeint.....

FUR liegt AMD Karten einfach wegen der größeren Rohleistung wesentlich besser..... Wie zb bei einigen Distibuting Computing Projekten.

Das FUR beide Architekturen bis zum Anschlag auslastet wollte ich damit nicht als Falsch hinstellen.

Häää?
Das wiederspricht sich doch total mit der Aussage oben wo du sagtest Furmark arbeitet ähnlich DP Projekten schlecht mit der Architektur des G200 zusammen.

Was denn nu? ;)
 
Häää?
Das wiederspricht sich doch total mit der Aussage oben wo du sagtest Furmark arbeitet ähnlich DP Projekten schlecht mit der Architektur des G200 zusammen.

Was denn nu? ;)

Man schaue sie die Flop Zahlen an, http://www.computerbase.de/artikel/...deon_hd_4870_x2/2/#abschnitt_technische_daten

hier lieg nVidia unterhalb der 48xx Karten.

Nun gehen wir davon aus das FUR bei beiden Karten die Theoretische Rohleistung sehr gut umsetzen kann, dann ist eine 4870 also schneller als eine GTX285 was in spielen aber meist nie der Fall ist, da dort die Rohleistung einfach nicht so gut umgesetzt werden kann.

Das sieht man bei DC Projekten auch sehr schon an einer 5870 wo sich die Leistung Parallel zu den Anzahl der Shader Verdoppelt hat, in spielen aber nicht.

Vllt bin ich auch gerade voll verdreht im Kopf.
 
Zuletzt bearbeitet:
Nun gehen wir davon aus das FUR bei beiden Karten die Theoretische Rohleistung sehr gut umsetzen kann, dann ist eine 4870 also schneller als eine GTX285 was in spielen aber meist nie der Fall ist, da dort die Rohleistung einfach nicht so gut umgesetzt werden kann.

Ja ich wollte nur anmerken das du oben mit der Aussage:
"Zur Leistung kann ich nur sagen das FUR wohl eine Anwendungs ist ähnlich wie DC Projekte die einfach sehr schlecht mit der Architektur der G200 Karten zusammen Arbeitet."
Das komplette Gegenteil ausgesagt hast ;)
Zum Rest stimme ich vollkommen zu...
 
@fdsonne
Ok, ist deine Meinung, das du den Grakaverbrauch seperat messen möchtest. Kannst du auch gerne so machen, hab ich nix dagegen.

Meiner Meinung nach ist das aber sinnfrei und realitätsfern, da die Graka nur ein Teil des Rechners ist. Ich schaue mir in der Zwischenzeit lieber Testberichte (hardwareluxx, computerbase etc.) an, welche man mit Graka A / Graka B usw. im SELBEN Testsystem gebencht hat. Dort sieht man den Leistungsunterschied in diversen Auflösungen + Qualitätsstufen und bekommt sogar noch nen Verbrauchsvergleich präsentiert. DAS ALLES ist für mich praxisnah und ich kann mir ein Bild machen, welche Graka in Zukunft den Weg in meinen PC finden könnte.
Glaube das das die meisten User genauso sehen und vor allem genau solche Tests sehen möchten.
Um es mal mit deinen Worten auszudrücken: alles andere wäre mMn für den Popo ;).
 
Nein wenn dann für den Po ;)

Ne Spaß, klar ist das meine Meinung und die vertrete ich auch mit recht. Dennoch kann ich persönlich mit Gesamtsystemmessungen nicht viel anfangen, schon alleine deswegen nicht, weil man durch zu viele unklare Faktoren nie 100% identische Vergleichssituationen schaffen kann.

Und wie oben erwähnt, das große Problem ist nicht die Messung ansich, sondern das drauffolgende Abziehen der Werte voneinander. Mit dem Ergebniss "Graka 1" ist soundsoviel sparsamer/stromhungriger als "Graka 2"
Was eben nicht stimmt, weil nicht geklärt ist, was wirklich alles von der Grafikkarte kommt und was vllt auch durch höhere CPU Last durch den GPU Treiber oder HDD aktivitäten usw. kommt...

Als Beispiel dafür:
Das wäre so, wenn ich in nem Mehrfamilienhaus wohne und mir neue Gerätschaften anschaffe und der Vermieter zu mir meint, also die Anschaffung ist mal total mistig, der Gesamtverbrauch des Hauses ist weit weit höher als noch vor der Anschaffung.
Ich weis in dem Fall auch nicht was Mieter 2 oder 3 oder wer auch immer wärend der Messung vllt noch für Strom verballert hat.
 
LOL?
Du holst ja immer weiter aus, lass es mal langsam gut sein, deine Meinung ist bekannt, die musst du net noch weiter ins Detail ausbreiten :fresse:.

Sämtliche von mir geposteten Tests zeigen den tendenziel gleichen Verbrauch. Was willst du noch?
 
Dennoch kann ich persönlich mit Gesamtsystemmessungen nicht viel anfangen, schon alleine deswegen nicht, weil man durch zu viele unklare Faktoren nie 100% identische Vergleichssituationen schaffen kann.

Also wenn du meinen Post wirklich gelesen hättest, müsste dir doch klar sein, dass du mit Karteneinzelmessungen den direkten Verbrauch zwar am genauesten ermitteln kannst, aber dieser Wert vollkommen uninteressant ist. Der Gesammtverbrauch zählt und der setzt sich aus dem direkten Verbrauch und dem indirekten Verbrauch zusammen. Sprich dem Einfluss der Grafikkarte auf das Restsystem.
Hierzu zählen eben folgende Faktoren:
- Grafikkarte nutzt Speicher des Systems
- Grafikkarte verursacht höhere Cpu-Auslastung
- Grafikkarte beansprucht den Systembus stärker
- Grafikkarte erzeugt mehr Hitze im System und erhöht somit den Stromverbrauch anderer Komponenten.

Nun kommst du mit dem Argument Messungenauigkeiten. Ich stimme dir zu die sind immer ein Problem, aber es gibt ja viele Möglichkeiten diese zu minimieren. Welche Messung ist wohl genauer? Diejenige bei der man alle Daten möglichst Fehlerfrei erfasst oder diejenige bei der man einfach nur die halben Daten misst und meint: Ach die anderen sind mir zu ungenau nehmen wir die mal einfach als 0 an. :fresse:
 
Nun gehen wir davon aus das FUR bei beiden Karten die Theoretische Rohleistung sehr gut umsetzen kann, dann ist eine 4870 also schneller als eine GTX285 was in spielen aber meist nie der Fall ist, da dort die Rohleistung einfach nicht so gut umgesetzt werden kann.
Ganz so kann man das nicht formulieren. Auch in Spielen kann Rohleistung gut umgesetzt werden. Das Problem ist nur, in Spielen kommt es noch auf ganze andere Faktoren an, wie Pixel- und Texelfüllraten, also nicht nur Shader Durchsatz. Und da hat nVidia dann öfters mehr Rohleistung.
 
Wann gibts denn nun endlich mal Bilder von der "Fermivorführung"? **ungeduldig auf Stuhl rumrutsch** :fresse:
 
Ich musste schon wieder lachen.

"Allerdings stand die sagenumwobene GPU nicht im Mittelpunkt der Präsentation. Ohne neue Informationen wollte Nvidia-CEO Jen Hsun Huang die Fachpresse dann aber doch nicht gehen lassen. "Alle wollen wissen wann sie die GF100 endlichen kaufen können", sagte Huang. "Ich freue mich darüber Ihnen mitteilen zu können, dass die GF100 bereits in der Serienproduktion ist." "

Also so langsam wirds echt eng für den CEO. Wenn er nicht wirklich mal die Karte auspackt.

MFG
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh