GF100 im Performance-Preview

weis nicht wie manche ständig von stromsparen reden, wen jahre lang ati/amd es nicht geschaft haben per treiber powerplay garnicht zu intrgrieren. bzw im idel soviel verbraten haben wie unter last. und jetzt gross rumgekotzt wird, ach wie toll die neue 5er serie ist ... ich finde diese garnicht so toll in anbetracht der gering besseren leistungzur alten serie ... die 4er serie war ja auch gaga ...

Kurz mal OT

Du musst "manche" Leute hier entschuldigen, zwischen den Zeilen lesen und Lückentexte bei denen man etwas nachdenken muss sind nicht jedermans stärke. "Manche" haben auch nicht unbedingt die Fähigkeit über Fehler anderer hinweg zu sehen und hacken dann gerne darauf rum weil ihnen im Grunde genommen nichts anderes dazu eingefallen ist :fresse:

Das die HD5k serie generell erst die erste High End karte von AMD ist die in sachen Leistungsaufnahme in die richtige Richtung Akzente setzt vergessen aber viele. Das Greenpeace zudem generell die IT Branche nicht gerade als Zugpferd zum Klimaschutz sieht wissen die wenigsten.
Wer hier also die Leistungsaufnahme von irgendetwas kritisiert sollte sich mal fragen warum er überhaupt auf High End Gaming aus ist wenn ihm Klimaschutz so wichtig ist. :stupid:

Man verbraucht im übrigen auch weniger Energie wenn man den Rechner seltener einschaltet. :hmm:
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Kurz mal OT

Du musst "manche" Leute hier entschuldigen, zwischen den Zeilen lesen und Lückentexte bei denen man etwas nachdenken muss sind nicht jedermans stärke. "Manche" haben auch nicht unbedingt die Fähigkeit über Fehler anderer hinweg zu sehen und hacken dann gerne darauf rum weil ihnen im Grunde genommen nichts anderes dazu eingefallen ist :fresse:

Das die HD5k serie generell erst die erste High End karte von AMD ist die in sachen Leistungsaufnahme in die richtige Richtung Akzente setzt vergessen aber viele. Das Greenpeace zudem generell die IT Branche nicht gerade als Zugpferd zum Klimaschutz sieht wissen die wenigsten.
Wer hier also die Leistungsaufnahme von irgendetwas kritisiert sollte sich mal fragen warum er überhaupt auf High End Gaming aus ist wenn ihm Klimaschutz so wichtig ist. :stupid:

Man verbraucht im übrigen auch weniger Energie wenn man den Rechner seltener einschaltet. :hmm:

Wieder top argumente , aber was ist wenn man den PC auch zuhause zum Arbeiten braucht, dann läuft er bei mir meiste zeit im Idle und ich bin froh das meine ATI da ~20watt verbraucht und keine 100watt oder so.

Aber zu sagen das die 5k im vergleich zur 4k kaum besser ist , naja, jedem das seine.

Und dann kritisieren das ATI jetzt erst Strom spart, sag ich besser jetzt als nie ;)
 
Sag' das mal AMDs/ATIs PR Abteilung, die ihre Karten als Performance Hardware vermarkten/vermarktet haben. :fresse:
Vom Performance Segment darf man schon schön niedrige Verbräuche erwarten, oder?

Dass die HD5850/70 nicht dem Performance, sondern dem HighEnd zugeordnet werden müssen, steht außer Frage.
Deren X2 darf sich sogar in's Enthusiastengenre einreihen. ;)
 
Es ist doch im G300 Thread schon mehrfach bewiesen worden, dass es sich um die Werte einer gtx285 und nicht einer 5870 handelt.
Lebt ihr alle hinterm Mond?
 
Es ist doch im G300 Thread schon mehrfach bewiesen worden, dass es sich um die Werte einer gtx285 und nicht einer 5870 handelt.
Lebt ihr alle hinterm Mond?

Lebst du auf dem Planeten "ich kann nicht lesen"??

Es wurde versucht das system nachzubauen und dann wurde mit einer 5870 gegen gebencht und das wurde dann eingetragen und verglichen ;)

NV selber vergleicht nur 285 gegen den Fermi, aber es wurden auch werte von der 5870 eingefügt, darum auch Simuliert, weil das systen so gut wie möglich nachgebaut wurde ;)
 
Sehr schön

Hat der Lügen Baron Jen Hsun wieder mal was neues zusammengebastelt. Na ja abwarten und Tee trinken, solange es Nvidia nicht fertigt bringt die neuen Karten Marktreif zu bekommen interessieren doch solch Screens nicht.

@harzer_knaller

Der einzige der hier Fanboy schreit bist du. Ich habe auch zwei ATI Karten im System, bin ich jetzt gleich Fanboy und Nvidia Gegner?
Da du Nvidia so energisch verteidigst könnte man meinen die bist Nvidia Fanboy und ATI Gegner.
Also Keep Cool.
 
[OT]
Manometer... ich hab noch nie soviele Treffer via Sufu irgendwo gesehen wenn man das Wort "Fanboy" suchen lässt... :kotz: :stupid:

Unter dem Wort Fanboy findet google mehr als unter dem Intelligenz ^^


NoiseKiLLeR weis nicht wie manche ständig von stromsparen reden, wen jahre lang ati/amd es nicht geschaft haben per treiber powerplay garnicht zu intrgrieren. bzw im idel soviel verbraten haben wie unter last.

Man konnte sich damals aufregen oder einfach mit RivaTuner die Karten für 2D runtertakten und Stromsparen ;)
[/OT]



Bin gespannt was die GF100 wirklich leistet, wenn die ersten User sie im Rechner haben. Vorher ist alles nur Spekulation für mich ...
 
@RoughNeck: Ich habe nirgendwo "Fanboy" geschrien. Ich habe einen User kritisiert, der schön zu Trollen versuchte.
Wenn ich Fanboy wäre, dann würde ich AMD/ATI attackieren. Jetzt zeig' mir bitte wo ich das getan habe. :hmm:
 
Selbst wenn das System mit der ATI Karte nur nachempfunden wurde, so gehe ich davon aus, dass es sehr nahe an dem System von Nvidia liegt. Soll heißen dass man gleiche Plattform, gleiche CPU und gleiche Speichermenge verbaut hat. Somit dürfte es lediglich noch eine Verschiebung um wenige Prozentpunkte in die eine oder andere Richtung geben.

Dennoch bin ich weiterhin recht skeptisch, da die ausgewählten Benchmarks zu dürftig sind um eine einigermaßen sichere Prognose zu geben, wie stark sich der Fermi im Durchschnitt von der Ati 5870 absetzen kann.

Obwohl ich keinen Hehl daraus mache, dass ich Nvidia nicht ausstehen kann, hoffe ich doch auf einen starken Fermi. Ansonsten werden die Preise wohl auf diesem Level bleiben, da ich nicht davon ausgehe, dass Nvidia die Preise so stark drücken kann.

Auch wenn man Nvidia nicht ausstehen kann, sollte man doch zumindestens anerkennen, dass sie gute wenn auch nicht in allen Punkten perfekte Produkte entwickeln und auf den Markt bringen.
 
Selbst wenn das System mit der ATI Karte nur nachempfunden wurde, so gehe ich davon aus, dass es sehr nahe an dem System von Nvidia liegt. Soll heißen dass man gleiche Plattform, gleiche CPU und gleiche Speichermenge verbaut hat. Somit dürfte es lediglich noch eine Verschiebung um wenige Prozentpunkte in die eine oder andere Richtung geben.

Dennoch bin ich weiterhin recht skeptisch, da die ausgewählten Benchmarks zu dürftig sind um eine einigermaßen sichere Prognose zu geben, wie stark sich der Fermi im Durchschnitt von der Ati 5870 absetzen kann.

Obwohl ich keinen Hehl daraus mache, dass ich Nvidia nicht ausstehen kann, hoffe ich doch auf einen starken Fermi. Ansonsten werden die Preise wohl auf diesem Level bleiben, da ich nicht davon ausgehe, dass Nvidia die Preise so stark drücken kann.

Auch wenn man Nvidia nicht ausstehen kann, sollte man doch zumindestens anerkennen, dass sie gute wenn auch nicht in allen Punkten perfekte Produkte entwickeln und auf den Markt bringen.



nein davon kann man nit ausgehn da auch sie selber nit wissen was benutzt wurde vor allem bei speichermenge plattform ist mom wohl zwangsweise ein I7 wobei wie skaliet Farcry2 mit 6 echten kernen ?


Und naja für einen guten markt wäre es besser wenn fermi bisl auf die schnauze fliegt, NV konnte mit dem G80 sich nen Ruf erarbeiten, jetzt mal AMD an der reihe sein sollte erst danach sollten sie sich angleichen. wäre auf lange sicht besser.



@ alle da oben wegen Idlestromspar usw, wer hats erfunden? nein es war nit NV
 
HD 5870 1GB (Simulated)?
Wie darf man das verstehen?

Wenn die Erklärung, die bisher durch diverse Foren geisterte stimmt, dann heißt das nur, dass die HD5870 nicht auf einem identischen System zum Einsatz kam. Ob das nun wirklich stimmt is \'ne andere Frage...

Macht ja auch quasi keinen Unterschied in was für einem System die Radeon gearbeitet hat....:fresse:

*vorsicht Ironie*

Ich hab mich bei Hardwarecanucs angemeldet und kann jetzt ne Erklärung dafür liefern. :)

das "simulated" bezieht sich nicht auf die 5870 sondern auf das ven HWC verwendete Testsystem. Die Bezeichnung ist aber dennoch mehr mehr als unglücklich gewählt :wall:

Um das ganze zu verstehen darf man nicht nur die Bechnes ansehen, sondern muss auch den Absatz darüber lesen:

PLEASE READ:

As you look at the charts below, you will notice that we added in “simulated” HD 5870 1GB results and there is a story behind this. NVIDIA was very forward with us and revealed the specifications of the test system they were running: a stock Intel i7 960, 6GB of 1600Mhz memory and an ASUS Rampage II Extreme motherboard running Windows 7. While we weren’t able to copy the exact same system, we did our best to replicate it by using the exact same CPU and OS while estimating the memory latencies and using a Gigabyte X58-UD5 motherboard. The result? Our stock GTX 285 performed within 2% of the results NVIDIA showed us so we are confident in the accuracy of our results.

HWC hat sich ein sehr ähnliches System bestehend aus der selben CPU, selben OS, gleich getakteten 6GB Ram und einem Gigabyte Board zusammengestellt.
In dieses System haben sie eine 285 gesteckt und sind bis auf 2% and die Nvidia Ergebnisse der 285 mit ihrem System rangekommen.

In dem Performance Preview haben sie daher auch die Zahlen bezüglich 285 und GF100 von Nvidia übernommen und nicht ihre eigenen der 285. (Warum auch immer)

Danach haben sie ihr Testsystem genommen, eine normale 5870 reingesteckt und den Bechmark nochmal laufen lassen.
Diese Ergebnisse der 5870 haben sie ins Performace Preview übernommen.

Wie gesagt, das "simulated" kann man leicht missverstehen, ich hoffe jetzt ist es klar wie es gemeint ist ;)


Achja, wer sich bei HWC anmelden will kann dies ab jetzt auch mit ner deutschen .de email machen. Bisher waren und sind viele domains bei denen komplett gesperrt, aufgrund hohem Spamaufkommen aus den entsprechenden Ländern.
Ich hab zumindest dafür gesorgt das .de freigeschaltet wurde, sodass ihr euch im Gegensatz zu mir problemlos anmelden könnt falls ihr wollt :fresse:
 
Dennoch bin ich weiterhin recht skeptisch, da die ausgewählten Benchmarks zu dürftig sind um eine einigermaßen sichere Prognose zu geben, wie stark sich der Fermi im Durchschnitt von der Ati 5870 absetzen kann.

Die GTX360 wird sicherlich schon 10-20% schneller als ne HD5870 sein, davon geh ich jetzt einfach mal aus will man den Launchpreis von ~350-400€uro halten.
 
Und womit begründest Du Deine Vermutung bezüglich der Performance der 360 GTX?
 
\"Simuliert\"? Was für ein grober Unfug :stupid:
Wieder angebliche Benschmarks, mit denen man sich nur den Popo abputzen kann :shake:
 
Warum? Aus nem Test in dem die 285er gegen die 5870 angetreten ist und die 285er ähnliche Werte erzielt hat wie in dem Fermi System hat man dann die Werte der 5870 übertragen. Was daran nun Unfug sein soll erkläre mir mal...

weil er einfach nur maulen und provozieren will und den artikel nicht gelesen hat
 
Schäme dich, Asuka. :fresse:
 
Jo, vermutet man im 3DC schon länger.^^
 
Falls ich nichts übersehen habe, dann wird hier nirgends erwähnt mit welchen detail einstellungen da gefahren wird. Nicht bei diesem von nvidia gestellten system und demzufolge auch nicht bei diesem nachgestellten system. Wie will man da wissen ob man auf der gleichen seite des buches ist?

Ich kann jedenfalls auf diesen verwackelten filmchen nicht entziffern ob die gleichen einstellungen verwendet wurden...

Insofern muss man weiter warten bis ernsthafte und verlässliche fakten auf den tisch kommen. Verstehe immer noch nicht wieso das so ein problem für nivida ist - pokern muss man eigentlich schon seit vielen monaten nicht mehr, sie sind bereits viel zu spät zur party.
 
Insofern muss man weiter warten bis ernsthafte und verlässliche fakten auf den tisch kommen. Verstehe immer noch nicht wieso das so ein problem für nivida ist - pokern muss man eigentlich schon seit vielen monaten nicht mehr, sie sind bereits viel zu spät zur party.

Nvidia hat bisher das Glück das Ati bislang kaum liefern konnte, so daß sie keinen größeren Nachteil dadurch erfahren dürften.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh