Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Nvidia bräuchte schon sowas richtung 384 bit ab 660/670 da geizt Nvidia ja immer ein wenig wie auch bei der gtx 500 reihe mit dem Speicher obwohl amd die Speicheranbindung auch nicht grad vergrößert.
@box
mal was anderes hast du den neuen fake Mod inst. (HL2)? da geht kein SLI mehr...bzw. ich bekomms nicht hin.
Ja soweit ich weiß ist das noch aktuell. Gerade die Rohleistung (ROPs/TMUs) dürfte gut steigen. Hotclock ALUs sind größer, brauchen mehr Platz. D.h. mit 28nm und ohne Hotclock kann man die mindestens verdoppeln und den Takt hoch halten. Ailuros (ja, wieder der) meinte, dass GK104 deutlich höher taktet als Tahiti, also mehr als 925 MHz. Deutlich wäre für mich 20%, also vielleicht 1,1 GHz. Wenn man wieder bei 64 TMUs und 32 ROPs (wie 580) ist und die Speicherbandbreite durch 256bit nicht bedeutend erhöhen kann oder gar stagniert, hat das Ding zwar Rechenleistung wie blöde im Vergleich zur 580, aber der Rest skaliert nicht entsprechend mit. Dann würde die Leistung hauptsächlich durch den hohen Takt kommen. 1,1/0,772 = 42%. Bisschen Effizienzsteigerung hier und da und wir kommen auf die 50%, die für eine 560Ti nötig wären, um GTX580+10% zu erreichen.
Nvidia bräuchte schon sowas richtung 384 bit ab 660/670 da geizt Nvidia ja immer ein wenig wie auch bei der gtx 500 reihe mit dem Speicher obwohl amd die Speicheranbindung auch nicht grad vergrößert.
Bei mir geht das gar net auf... Kommt der Ladescreen und selbst nach mehreren Stunden warten passiert nix Ob SLI geht, weis ich nicht...@box
mal was anderes hast du den neuen fake Mod inst. (HL2)? da geht kein SLI mehr...bzw. ich bekomms nicht hin.
Ich denke das ist eher die Konsequenz des 384Bit SIs... Da bleibt nur 1,5GB oder 3GB. Ersteres wäre wohl zu wenig für die Zukunft, zumal man mit den Vorgängerkarten selbst das 2GB Zeitalter eingeleitet hat... Ich finds nun nicht unbedingt verkehrtund was hast du mit der AMD und 3gig für einen Vorteil..das konnte mir bis jetzt auch noch keiner beantworten.
Gibt es ähnliche Stromspar-Features für den Kepler wie bei der HD7970? Ich meine jetzt Zero Core Power, bei Nvidia ist von Synergy seit Q1/11 ja nichts mehr zu hören.
mußt alle 3 source installieren
viel vram...ist für mich eine "Beschaffungsfrage" ich zahl nicht gern für Dinge (SLI/CF) die nur aufgepappt sind und mit denen ich nichts anfangen kann....
@fdsonne:
Achso weil wir von der Einheitenzahl der 580 ausgehen (64TMUs, 32 ROPs - 256bit SI - und 512 HC-ALUs/1024 non-HC ALUs)? Ja dann würde die Effizienz deutlich schlechter. Also pro Einheit, nicht Perf/W. Das hab ich auch schon gefragt, aber keine wirkliche Antwort bekommen. Vielleicht hat GK104 halt nur 24 ROPs und 48 TMUs bei dem hohen Takt?
Geht das denn da unter zb. W7?
Jupp das mein ich...
Klar könnte man die ROP/TUMs hier verringern, aber das passt nicht zum bisherigen Muster (was ja nichts heißen muss)
Ich denke mal, es bleiben 64 TMUs, die TMUs hingen ja bis dato an den Shaderclustern und skalierten mit dessen Anzahl. Die ROPs hingegen am SI. Wobei AMD hier diese erstmals entkoppelt hat, wäre vllt auch ne Option für NV. Sprich doch 48 ROPs zu bringen und somit diesen einen Nachteil auszumerzen. Dann würde zumindest technisch nicht mehr viel über nur 10% sprechen. Außer die womöglich gestiegene Ineffizienz der Ausführungseinheiten selbst (wäre sehr schade)...
Auch könnte die Spekulation zur Taktrate etwas zu hoch gegriffen sein. Bei AMD spekulierte man im Vorfeld auf 1GHz. Auch bei Fermi glaub ich war vorher auf mehr Spekuliert, wie er gekommen ist... Grobe 1GHz wären immernoch ordentlich über Tahiti und man packt die 1GHz Mauer Würde dann so auch eher zu den ~10% passen.
PS: wer ist eigentlich dieser Ailuros?
Ist das jemand von NV?
Ich mein nur das 256 Bit bei den besseren Karten langsam zu wenig ist und ich find nicht das die 3 GB von Amd sehr viel bringen nur bei hohen Auflösungen so in richtung 5xxx x 2xxx oder so ich hol mir sowieso wenns eine Amd wird die mit 1,5 GB wens die 7970 in der ausführung gibt aber wen man die 7950 mit 1,5 GB zur 7970 machen kann ist mir der Rest auch egal.
@mayer
Laut Nvidia wäre das wohl recht "einfach" in Software zu entwickeln, ähnlich wie bei Hybrid-SLI oder auch Optimus. Die Aussage ist aber noch von Q1/11, seitdem gab es gar nichts mehr dazu. Dachte mir, wenn AMD schon so ein Feature bringt, dann zieht Nvidia womöglich nach. Da die meisten Intel-CPUs mittlerweile eine iGPU haben, wäre es eine Verschwendung, diese Technik nicht zu nutzen.
ich weis schon wie du das meinst..1.5 gig reichen auch bis 1920x1200 ich kenne bzw hab nix wo ich an die grenzen komme außer in Metro DX11 mit der Auflösung..dann zucks eben kurz....das prob ist das immer ein Furz zum Elefanten gemacht wird um sich was parat zulegen..und da wird aufeinmal von 580 vram Krüppeln geschrieben....und Auflösungen zb. 2x2 DS (Witcher 2 zb.) oder mehr.. da brauchste Qualm ohne Ende...die schnallen doch nicht mal das ihre ganzen tests ins CPU Limit rennen....ich rege mich schon wieder auf ich wäre so gerne mal für ein Forumstreffen.. früher im alten RIVA (Borsti *lach hat jetzt glaube was bei NV zu melden) haben wir das jedes Jahr gemacht....
Je nachdem wie lange man den Spaß verwenden will... Ich bin damals mit ner 512MB HD4870 auf die Nase gefallen, weil der VRAM zu klein war, GPU technisch aber durchaus noch was ging für meine Settings. Und nun mit den zwei 470ern steh ich vor nem ähnlichen Problem. Dabei sind spielereien mit diversen HighRes Texturmods noch gar nicht inbegriffen
2-3GB pro GPU lassen einen da schon etwas entspannter auf die nächsten Jahre schauen. Und wenn man davon ausgeht, das wohl ein möglicher Nachfolger in 20/22nm noch ne ganze Weile auf sich warten lässt stellt sich dann eher die Fragen, warum heute geizen und später wieder dumm dastehen!? Aber hier kann ja jeder halten wie er möchte...
Jupp das mein ich...
Klar könnte man die ROP/TUMs hier verringern, aber das passt nicht zum bisherigen Muster (was ja nichts heißen muss)
Ich denke mal, es bleiben 64 TMUs, die TMUs hingen ja bis dato an den Shaderclustern und skalierten mit dessen Anzahl. Die ROPs hingegen am SI. Wobei AMD hier diese erstmals entkoppelt hat, wäre vllt auch ne Option für NV. Sprich doch 48 ROPs zu bringen und somit diesen einen Nachteil auszumerzen. Dann würde zumindest technisch nicht mehr viel über nur 10% sprechen. Außer die womöglich gestiegene Ineffizienz der Ausführungseinheiten selbst (wäre sehr schade)...
Auch könnte die Spekulation zur Taktrate etwas zu hoch gegriffen sein. Bei AMD spekulierte man im Vorfeld auf 1GHz. Auch bei Fermi glaub ich war vorher auf mehr Spekuliert, wie er gekommen ist... Grobe 1GHz wären immernoch ordentlich über Tahiti und man packt die 1GHz Mauer Würde dann so auch eher zu den ~10% passen.
PS: wer ist eigentlich dieser Ailuros?
Ist das jemand von NV?
Hab ACE-Hemmer hier Adresse?Kann ich dir zukommen lassen...ich rege mich schon wieder auf
PCGH : Nochmals deutlich besser gibt sich die Radeon HD 7970 im Leerlaufbetrieb: Mit gerade einmal 12 Watt benötigt die AMD-Karte kaum mehr Strom als Einsteigermodelle. Sobald der Bildschirm in den Standby-Modus geht, stoppt die Radeon zudem den Lüfter und genehmigt sich nur noch 6 Watt – das ist völlig außer Konkurrenz.
Und woher die Erkenntnis zum SI?
Die Aussage ob da nun 256Bit, 384Bit oder 512Bit drin stecken, spielt doch ohne weitere Details keine Rolle.
256Bit SI mit doppeltem Speichertakt ist genau so fix wie 512Bit mit eben jenem halben. Und in Sachen SPeichertaktraten tut sich eigentlich über die Monate immer was
Angekündigt für die neuen NVs ist wohl offiziel nix. Solche Folien analog zu AMD findet man auch eher selten.
Ich denke nicht, das man sowas bringt. Ich glaub nichmal, das NV sich bewusst war, das AMD sowas entwickelt. In Sachen idle Stromverbrauch lief ja bis dato idR eher wenig. In der Vergangenheit war zumindest der Punkt nicht wirklich weit oben auf der needed feature Liste von NV
Das hätte hier bei uns wohl dann das Ausmaß der in den Medien rumgeisternden Facebook Partys Wenn dann da mal locker 1000 und mehr Leute zum Treffen kommen.
Ansonsten, kurzes zucken wäre ja OK, FPS Raten von unter 10 bei permanenter VRAM Überlastung (Skyrim mit 4xSGSSAA und FullHD Auflösung bei max. Details + ein paar wenige Mods als Beispiel) find ich dann schon nicht mehr gut
Einer aus dem 3DC, der hat wohl Kontakte zu gewissen Leuten.
Ich kann mir auch nicht so recht vorstellen, dass die Effizienz pro Einheit gefallen ist. Bei den ALUs könnte ich mir das noch vorstellen, AMD bringt die ja auch nicht auf die Straße. Aber wenn man praktisch dieselben TMUs/ROPs verbaut hat (nehme ich mal an) und die einfach höher taktet, sollte das ordentlich was bringen. Takt schlägt doch immer fast 1:1 durch. Problem könnte nur sein, wenn die Speicherbandbreite oder eben die Rechenleistung bremsen. Ersteres könnte sein, zweiteres eher nicht bei angenommenen "deutlich über 2TF". Es sei denn, die FLOP-Zahl sagt jetzt genauso wenig aus wie bei AMD und 2,5 Kepler-TF sind jetzt nur noch 1,8 Fermi-TF...also 580+10%.
Ich hätte da eine rießen Spaß drann...mal so einigen pappnasen in die Augen zuschauen...aber die würden eh nicht kommen...
Man kann die Karten doch abschalten im CF. Steht doch auf auf so einer AMD-Folie. Also alle außer einer. Find ich super und will ich auch.
Speicherbandbreite könnte halt sein, aber hat in der Vergangenheit aber auch eher wenig die FPS beeinflusst. Ich fahre die beiden 470er bei mir auch mit angezogener Speichertaktbremse, weil die eigen 465er geflashte Karte den orginaltakt der 470er nicht packt. Dat schaded den Dingern Null komms nix in der Performance. Selbst enorme Taktunterschiede nicht.
Selbst enorm wenig Takt (400MHz) bringen da vllt 10, manchmal auch 20% weniger Leistung. Ich kann mir nur schwer vorstellen, das der Spaß auf einmal deutlich an Anforderung zunimmt.
Vllt ists wirklich schlicht der Takt. Lass da mal nur grob 1GHz drauf kommen oder vllt gar noch weniger, weils in Sachen Leistungsaufnahme sonst zu mau wird. Und schon schrumpft der Taktvorteil auf 20% zur 580er und das Ergebnis klingt wieder realistisch
Bleibt nur noch die Frage, wie erkennst du die "Pappnasen" in den 1000den von Leuten bzw. die dich!?
Hab ACE-Hemmer hier Adresse?Kann ich dir zukommen lassen.
@mayer
Laut Nvidia wäre das wohl recht "einfach" in Software zu entwickeln, ähnlich wie bei Hybrid-SLI oder auch Optimus. Die Aussage ist aber noch von Q1/11, seitdem gab es gar nichts mehr dazu. Dachte mir, wenn AMD schon so ein Feature bringt, dann zieht Nvidia womöglich nach. Da die meisten Intel-CPUs mittlerweile eine iGPU haben, wäre es eine Verschwendung, diese Technik nicht zu nutzen.
Hab ACE-Hemmer hier Adresse?Kann ich dir zukommen lassen.
ich hab da ein schönes Video gefunden...ich hoffe aber das, da auch letztendtlich DVI Anschlüsse vertreten werden...
NEW Kepler EVGA GTX 680 - YouTube
Wegen diesem Fermi-Debakel habe ich mir damals eine ATI-Karte (HD 5850)geholt und habe es nicht bereut. Nun hat Nvidia wieder das Problem des zweiten....
Wollen wir einmal hoffen, dass sie nicht wieder ein zusammengebastelten "Kepler" zeigen.