Werbespot: AMD zieht über NVIDIA her

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
und wurden zu recht massiv kritisiert deswegen.
warum das bei nv jetzt nicht sein darf entzieht sich mir allerdings.

ja aber das war auch vor ~2 jahren oder so ...

und selbst da kamen die 4870er unter last nicht an den verbrauch einer 480er ran ;)
man sollte ja meinen das die entwicklung in sachen leistung/verbrauch optimiert wird was Ati ja auch macht aber bei NV scheint das nicht zu klappen ...

aber sei es drumm bei manchen redet man halt gegen ne wand nicht wahr ?
 
Hab ich was verpasst ? So weit ich weiß waren die HD4XXX auch ziemliche Stromfresser etc

Neja was heist ziemliche Stromfresser, der idle Modus war bisschen danaben bei den Modellen mit GDDR5 Speicher, weil diese nicht runtertakteten aufgrund von Flackern. Dafür gab/gibt es bei NV massive Probleme im Multimonitoring Betrieb, wo AMD punktete... Hällt sich halt alles die Wage.

Ansonsten stehen gut ~140W für die RV770 unter Gaminglast gegen gute 190W oder gar mehr bei der 280GTX, die 285GTX als geshrinkte refreshkarte hat da nicht sooo viel Besserung gebracht.
Das sind 35%+ bei 20-30% Mehrleistung. Mit 8xMSAA schmolz sogar der Vorsprung der NV Karten massiv.

Von Furmark Werten sprech ich gleich gar nicht... ;) Da siehts noch düsterer aus...


@thom_cat
das kann ich auch nicht verstehen... Aber was solls, soll sich jeder selbst ein Urteil bilden, Verbrauchsmessungen gibts ja mittlerweile wie Sand am Meer...
Mich störts beispielsweise gar nicht, deswegen ists bei mir auch ein Fermi gewurden, der dank OC und Spannungserhöhung sicher nicht wenig verbraucht.
Das einzige was nervt ist die Multimonitoring Problematik, die NV wohl nie richtig lösen wird. Warum man mit zwei Monitoren 3D VGPU Spannung anlegen muss, ist mir schlicht schleierhaft...
 
aktuell sieht es so aus

HD5870 / 5850 / 5830 = 334mm² Chipfläche

GTX480 / 470 / 465 = 530mm² Chipfläche

Nvidia braucht fast 200mm² mehr Fläche damit die GTX480 ca. 15-20% schneller als die HD5870 ist

Nvidia macht mit der GTX465/470/480 Verluste, die Karten sind in der Herstellung allgemein viel zu teuer.
 
Zuletzt bearbeitet:
man sollte ja meinen das die entwicklung in sachen leistung/verbrauch optimiert wird was Ati ja auch macht aber bei NV scheint das nicht zu klappen

Kommt auf die Betrachtungsweise an... Ein Fermi in GPGPU Anwendungen mit DP Berechnungen ist auch sehr effizient, bei weitem effizienter als die G200er aufgrund der massiv gesteigerten DP Performance. Im Desktop Bereich merkt man davon leider so viel nicht.

Aber das hat auch Gründe, die 1D Einheiten belegen nunmal mehr Transistoren und brauchen mehr Platz auf dem DIE. Mehr Transistoren müssen auch irgendwie versorgt werden. Was in mehr Stromverbrauch endet...

Irgendwann wird NV wohl auch hier einen anderen Weg einschlagen, vllt nächste/übernächste Generation. Mal gucken, dann werden die Karten neu gemischt.
Vllt sehen wir im nächsten Generationsduell ja wieder bei beiden 4D Einheiten, wie es vor dem G80/R600 schon der Fall war ;)
 
... Nvidia hat im Gegensatz zu AMD, die besseren Grafiktreiber.
[...] Die sollen erstmal lernen, wie man einen Treiber richtig programmiert.
So ein Blödsinn. Immer die selbe Leier. Nvidia hat keineswegs die besseren Treiber. Es gibt auch genügend Leute deren nvidia Treiber Probleme bereiten. Und häufig ist es so das gar nicht die Treiber das Problem sind, sondern andere Sachen die auf dem PC sind oder ganz einfach das die Entwickler Schuld sind (GTA4, Anno1404 usw) Und im Linuxbereich ist nvidia inzwischen hinterher und ATi hat hier die besseren Treiber.
Habe jetzt schon einige Jahre AMD Prozessoren und Boards, aber wenn das so weitergeht, dann hat AMD einen treuen Kunden verloren.
Uh "wenn das so weitergeht". Findest du nicht gerade das du dich leicht lächerlich machst aufgrund eines Werbespots der mit ordentlich Ironie gesalzen wurde? Aber kauf ruhig mal Intel, der Über Saubermann Firma.
geht mir genau so. ich die 4850 war bei mir eine katastrophe und mit der 5770 funzt fast nirgends AA.
Made my day.... :haha: Dann machst du wohl was falsch und der Fehler sitzt vor dem Bildschirm.

andererseits sind viele ATI fanboys auf HWL, kein wunder dass die das alle witzig finden :d
Na dann mach dir doch das Leben einfach und geh in ein anderes Forum. Ist dein Leben schon viel gemütlicher. Geh doch ins nvidia Forum, da fühlst du dich dann bestimmt richtig pudelwohl und kannst dich da ausweinen das ja fast nirgends AA funktioniert.... komischerweise kriegen es die Tester und quasi alle anderen hin. Naja, ich denk mir meinen Teil.


aber 100%mehr tesselation leistung bei 48%mehr Energieaufnahme ist doch super.
Viel Spaß beim Unigine Heaven Benchmark angucken - achja und beim Mafia 2 ruckeln :rolleyes:
 
Zuletzt bearbeitet:
Irgendwann wird NV wohl auch hier einen anderen Weg einschlagen, vllt nächste/übernächste Generation. Mal gucken, dann werden die Karten neu gemischt.
Vllt sehen wir im nächsten Generationsduell ja wieder bei beiden 4D Einheiten, wie es vor dem G80/R600 schon der Fall war ;)

ja wollen wir mal hoffen ^^
gute produkte von verschiedenen herstellern beleben den markt und die preise :)

P.S und für alle GTX 480 fetischisten hier...

ich bin kein fanboy ich hatte in der letzten zeit sämtliche karten obs jetzt ne 8800gts,4870er,280 gtx oder ne 5870er ist ...und war auch mit allen sehr zufrieden ;)
 
Irgendwann wird NV wohl auch hier einen anderen Weg einschlagen, vllt nächste/übernächste Generation. Mal gucken, dann werden die Karten neu gemischt.
Vllt sehen wir im nächsten Generationsduell ja wieder bei beiden 4D Einheiten, wie es vor dem G80/R600 schon der Fall war ;)

glaub ich nicht, Nvidia wird weiterhin auf 1D Shader setzen, die Chipfläche wie immer bei min. 500mm² halten und versuchen die Einheiten zu vergrößern. ich erwarte bei Nvidia in 28nm einen großen Sprung nach oben, mal sehen wie TSMCs 28nm Prozess wird, GlobalFoundries meint das ihr 28nm 10% besser als das von TSMC wird, Q4/2010-Q1/2011 beginnt der 28nm ausbau von GF, ab Q2 Serienproduktion.
 
Absoluter Schwachsinn ! Bedenkt man was vor 10 Jahren noch eine Grafikkarte für Strom verbraucht hat, bekleckert sich ATI auch nicht mit Ruhm . Geil finden sowas nur Spakos wie in dem Filmchen. mfg
 
@hzdriver
du schreibst nur mist, GTX480 verbraucht mehr Strom als eine 5970 Dual Karte
 
Stimmt, ich kauf mir auch nur die Graka die bei UHB perfekt läuft :rolleyes::rolleyes: , WTF sucht euch andere hobbys, es gibt noch mehr als sich den ganzen tag UHB anzusehen :d

Dann nenn mir doch mal weitere Spiele die sooooo sehr momentan von Tesselation profitieren? Metro2033, Dirt2, Stalker PoV, AvP2

Bis Spiele das wirklich effektiv nutzen wird noch so einige Zeit vergehen, bis dahin werden aber egal ob 5870, 5970 oder 470/480 veraltet sein. Das war schon immer so bei solchen neuen Technologien.

Vielleicht wäre es von nvidia schlauer gewesen weniger Tesselationleistung bei geringerem Verbrauch.
 
guten tag

was haben wir nicht alle gelacht, als die radeon 2900 xt rauskam.
oder wo nach einführung der core2 architektur die hochgetakteten athlon stromverschwender waren.
wo der phenom (1) stromsparrekorde aufgestellt hat. etliche aktuelle amd cpu haben auch nicht gerade extrem gute werte in punkto stromverbrauch. ein phenom 2 965 zieht unter last strom wie blöde.

also sich über andere lustig zu machen, ist immer leicht.
nvidia hat nunmal mit dem gf 100 kein glanzlicht in sachen energieffizienz gesetzt.
dafür ist die leistung gross. in diesem leistungssegment interessiert den spieler stromverbrauch nur am rande.


mit der gtx 460 hat nvidia nun eine karte, die vieles besser macht.
stromverbauch im idle ist sehr gut, im multimonitor oder blueray betrieb auch. da liegt man vor einer hd 5770, die als das wunder in punkto energieeefizienz gilt.
unter 3d last ist sicher noch sparpotential. aber man liegt dort besser, als amd´s ehemaliges topmodell hd 4870/90. bei deutlich höherer leistung.

also noch vor ein paar monaten hat amd/ati mit der hd 4870/90 eine karte produziert, die genauso wenig stromsparend ist. die läuft heute noch millionenfach.
zum vergleich dazu ist der fermi in form des gf 100 doch kaum anzutreffen.
was empirisch betrachtet dazu führt, das amd/ ati mit der hd 4870/4890 weit mehr strom verbrät, als nvidia mit dem gf 100. weil es eben zigmal mehr hd 4870/90 gibt.

tschüss burki
 
Zuletzt bearbeitet:
Absoluter Schwachsinn ! Bedenkt man was vor 10 Jahren noch eine Grafikkarte für Strom verbraucht hat, bekleckert sich ATI auch nicht mit Ruhm . Geil finden sowas nur Spakos wie in dem Filmchen. mfg

Gemessen an der Leistung ist die Effizienz um Welten gestiegen.
Absolute Werte zu vergleichen bringt gar nix.


EDIT:
ich hab grad mal geschaut, bei tecchannel.de bescheinigt man einer Geforce2 Ultra gute 37W Last Leistungsaufnahme... Aktuelle HighEnd NV Karten berauchen mehr als das 8fache an Strom, erzeugen dabei aber nicht nur die achtfache Leistung. Sondern deutlich mehr.
Man beachte, die Kunden schreien nicht nur nach Effizienz, sondern auch massiv nach Mehrleistung... Es gilt also einen Spagat zwischen Leistungsaufnahme und Leistungszuwachs zu finden...

also noch vor ein paar monaten hat amd/ati mit der hd 4870/90 eine karte produziert, die genauso wenig stromsparend ist. die läuft heute noch millionenfach.
zum vergleich dazu ist der fermi in form des gf 100 doch kaum anzutreffen.
was empirisch betrachtet dazu führt, das amd/ ati mit der hd 4870/4890 weit mehr strom verbrät, als nvidia mit dem gf 100. weil es eben zigmal mehr hd 4870/90 gibt.

tschüss burki

Ist doch logisch, weil die Karten weit länger auf dem Markt sind...
Das wird sich aber auch ändern, so wie jeder Kunde irgendwann wohl mal eine neue Karte installieren wird/einen neuen PC kaufen wird.
 
Zuletzt bearbeitet:
am stromverbraucht der ATI HD5000, speziell 5770 gibt es nichts zu meckern. untertaktet man die karte reichts auch noch für aktuelle spiele @140W gesamtsystem bei mir.
 
... im multimonitor oder blueray betrieb auch. da liegt man vor einer hd 5770, die als das wunder in punkto energieeefizienz gilt.
...

Na na na na, im Multimonitor liegt die HD5770 (MSI Radeon 5770 HAWK) mit 11W weniger wohl stromsparender als die GTX460 (MSI N460GTX Cyclone768) - und hat dabei immer noch mehr Speicher. Auch das Referenzdesign V2 ist mir 4W weniger dabei. Lediglich Referenzdesign V1 braucht mehr.

Beim Blueray Betrieb stimmt das zur Zeit, wobei leider bei Blu Ray Test die MSI Radeon 5770 HAWK einfach nicht mitgetestet wurde. Warum auch immer. Doch auch hier sprechen wir hier von 4-5W.

Gigabyte GV-N460OC 1GI - der GTX-460-Geheimtipp? - Leistungsaufnahme: Blu-ray-Widergabe und Multi-Monitor-Betrieb (Seite 13) - Tests bei HardTecs4U
 
Es ist schon aberwitzig, wenn sich da eine Firma über Abwärmeprobleme von Produkten anderer Hersteller lustig macht, die diese selber hat. Man muss sich nur mal anschauen was AMD so bei Notebooks verbricht...
 
aktuell sieht es so aus

HD5870 / 5850 / 5830 = 334mm² Chipfläche

GTX480 / 470 / 465 = 530mm² Chipfläche

Nvidia braucht fast 200mm² mehr Fläche damit die GTX480 ca. 15-20% schneller als die HD5870 ist

Nvidia macht mit der GTX465/470/480 Verluste, die Karten sind in der Herstellung allgemein viel zu teuer.

Das ist jetzt nicht dein ernst? Was hat denn die GTX460 für eine Chipfläche? Oho,.... und die ist auch schneller als eine 5830. Warum erwähnst du das hier nicht mit? So ein einseitiges Pro-ATI Gelaber....

Und ob hier irgendjemand Verluste macht weiß nur derjenige selbst (also NV, AMD)....
 
wer lesen kann ist klar im vorteil :fresse:

ich hab nichts von GTX460 geschrieben, nur 480,470,465, die GTX465 hat den großen 530mm² Chip, ist eine abgespeckte Variante, aber immer noch ein 530mm² Chip.

Es geht um Leistung pro Fläche und da ist ATI die Nr.1 :)
 
Leute leute leute...

selbst wenn Ati/Nvidia ein mittel gegen krebs entwickelt hätte würdet ihr noch nen grund finden darüber zu heulen!

Solche Spot(t)s sind gang und gebe in der freien Marktwirtschaft und nvidia wird sich da selbst drüber lustig machen.

Ich bin mir auch sicher das es eine "antwort" seitens nvidias geben wird, ist meistens so.

Das was ihr hier ab zieht ist nur wieder einmal sinnloses geflame, habt ihr nichts anderes zu tun ?

Ein weiteres trauriges Kapitel im niedergang der hwLUXX Community.
 
Oh man, anstatt Spaß zu haben an dem lustigen Video, gibts wieder Gezanke. Das ist vergleichende Werbung, welche gerade in den USA gang und gebe ist. Da wird sich ganz normal über die Nachteile des anderen lustig gemacht. Da lächelt Subaru über die Designpreise von Audi und BMW während man selbst einen Technikaward bekommen hat, Audi freut sich darüber das BMW einen Preis bekommen hat und fragt belustigt nach, obs sies jetzt auch schaffen, wie Audi 6 Jahre hintereinander die 24 Stunden zu gewinnen, da geht Ronald McDonald heimlich bei Burger King essen usw...
Aber nee, hier artet das gleich wieder aus...traurig
 
vor allem die 2 "Lüfter" vorn am Rechner -..-

Haha die sind wirklich richtig kultig! :d
Und erst die nasebohrenden Dödel auf den Überwachungsfotos und der eine Bulle sagt gar er wette da finden sie was grünes drin LöL, besser mal die Türe verrammeln dann hier. :fresse:

Schon lustig gemacht aber nur eine Frage der Zeit bis sowas zum Bumerang wird und sie es um die eigenen Ohren gehauen bekommen, wenns bei dem Thema wieder mal andersrum ist.
Gar nicht so viele Jähren her schliesslich waren gewisse X19xx als heisse Stromfresser berüchtigt während die Geforce7 als kühl und leise galt.
Und eigentlich sollte diese Taskforce schon seit Jahren Häuser von 4870X2 Usern stürmen.. ;)
 
Wenn AMD so weiter macht, dann wird mein nächster Rechner ein Intel sein.
Was bildet sich AMD eigentlich ein?
Ihre billigen ATI Karten mit den billigen Catalyst Treibern sind auch nicht gerade das gelbe vom Ei. Ich bin ein 100%iger Nvidia-Fan, nach den Enttäuschungen von 2 ATI Karten. Nvidia hat im Gegensatz zu AMD, die besseren Grafiktreiber.
Das kann ich behaupten, denn ich hatte ja mal ne HD 3850 und ne HD 4850. Die sollen erstmal lernen, wie man einen Treiber richtig programmiert.
Habe jetzt schon einige Jahre AMD Prozessoren und Boards, aber wenn das so weitergeht, dann hat AMD einen treuen Kunden verloren.
Mimimimimimimi :p

Was sich hier einige aufregen... . Treiber schlecht, ATI produziert nur Müll, ... . Fakt ist doch, dass beide Hersteller meist gleichwertige Produkte haben und auch die Treiber sind gleichwertig. Aber was meckert ihr in dem Fall eigentlich rum? Der Verbrauch der aktuellen GTX480, auf welche sich dieser Spot beziehen wird, ist einfach unverschämt. Wäre es andersherum, wäre er aber genau so unverschämt und das würde nv auch GANZ SICHER in diversen Präsentationen breittreten. Das Gestichel zwischen den beiden Herstellern ist doch nichts neues.

Meine Fresse, geht einem dieses unwissende Fanboysgeplärre auf die Nüsse... .

EDIT: Hackt doch stattdessen auf Intel rum. Die Grafikchipsätze sind wirklich Müll und die Treiber unbrauchbar. ;)
 
Zuletzt bearbeitet:
Also ich fand den Spot im Allgemeinen jetzt nicht so besonderst toll. Einzig der Spruch am Ende mit "Fermi again, it's the third time this week..." brachte mich zum schmunzeln... :fresse2:
 
schade das das Video so dunkel ist. Hier währe aber noch ein wenig ausbau Potenzial:

Es könnte Winter sein, und die beiden typen hocken vor dem Rechner in Ihren Unterhemden und Tisch Ventilatoren und schwitzen ;) Dann hätte man gleich eine Mischung aus Verbrauch sowie Abwärme ;) :fresse:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh