Kepler: NVIDIAs Partner sind besorgt

Nvidia bräuchte schon sowas richtung 384 bit ab 660/670 da geizt Nvidia ja immer ein wenig wie auch bei der gtx 500 reihe mit dem Speicher obwohl amd die Speicheranbindung auch nicht grad vergrößert.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@box
mal was anderes hast du den neuen fake Mod inst. (HL2)? da geht kein SLI mehr...bzw. ich bekomms nicht hin.

---------- Post added at 01:02 ---------- Previous post was at 00:58 ----------

Nvidia bräuchte schon sowas richtung 384 bit ab 660/670 da geizt Nvidia ja immer ein wenig wie auch bei der gtx 500 reihe mit dem Speicher obwohl amd die Speicheranbindung auch nicht grad vergrößert.

Du mußt dabei immer abwägen was unterm Strich rauskommt, das hat mit Geiz nichts zutun...NV hat auch Karten mit 6gig vram...da wird es aber gebraucht und Geld damit verdient...und was hast du mit der AMD und 3gig für einen Vorteil..das konnte mir bis jetzt auch noch keiner beantworten.
 
@box
mal was anderes hast du den neuen fake Mod inst. (HL2)? da geht kein SLI mehr...bzw. ich bekomms nicht hin.

Ach du warst das im 3DC...ne sorry, ich hab gar kein HL2 mehr drauf. Ich könnte es aber mal installieren. Wo krieg ich das Source SDK her?
 
Zuletzt bearbeitet:
Ja soweit ich weiß ist das noch aktuell. Gerade die Rohleistung (ROPs/TMUs) dürfte gut steigen. Hotclock ALUs sind größer, brauchen mehr Platz. D.h. mit 28nm und ohne Hotclock kann man die mindestens verdoppeln und den Takt hoch halten. Ailuros (ja, wieder der) meinte, dass GK104 deutlich höher taktet als Tahiti, also mehr als 925 MHz. Deutlich wäre für mich 20%, also vielleicht 1,1 GHz. Wenn man wieder bei 64 TMUs und 32 ROPs (wie 580) ist und die Speicherbandbreite durch 256bit nicht bedeutend erhöhen kann oder gar stagniert, hat das Ding zwar Rechenleistung wie blöde im Vergleich zur 580, aber der Rest skaliert nicht entsprechend mit. Dann würde die Leistung hauptsächlich durch den hohen Takt kommen. 1,1/0,772 = 42%. Bisschen Effizienzsteigerung hier und da und wir kommen auf die 50%, die für eine 560Ti nötig wären, um GTX580+10% zu erreichen.

Dann würde die Rechnung doch aber immernoch nicht aufgehen... Gemessen daran, das eben besagte ~1000 ALUs (also wohl 1024) eine Verdopplung zur 580er darstellen und der Wegfall der HotClocks diese Verdopplung wieder aufwiegen bleiben immernoch die im Schnitt grob 40% mehr Takt der GPU selbst. Erfahrungsgemäß skalieren die GPUs ja sehr gut mit dem Takt, sofern es nicht irgendwo anders limitiert. Klammern wir nun mal das SI etwas aus, sollte das Teil bei 1,1GHz normal eigentlich nicht nur ~10% über der 580er hängen. Das wäre nach der Theorie quasi GF110 mit wohl leichten Architektur Änderungen bei 1,1GHz abzüglich der weniger ROP Leistug durch nur 32 ROPs... OK die ROPs könnten hier limitieren. Da bietet der GF110 50% mehr... Was aber primär wohl in Sachen AA problematisch werden könnte. Für den GK104, der wohl primär eher in Sachen Gamermarkt interessant werden sollte als im Profi/GPGPU Markt wäre das in meinen Augen eher mies. Kann ich mir so jetzt nicht unbedingt vorstellen...

Nvidia bräuchte schon sowas richtung 384 bit ab 660/670 da geizt Nvidia ja immer ein wenig wie auch bei der gtx 500 reihe mit dem Speicher obwohl amd die Speicheranbindung auch nicht grad vergrößert.

Neja Speicherbandbreite allein bringt selbst nicht unbedingt die Punkte... Selbst ordentliche Takterhöhungen/Taktsenkungen des Speichertaktes lassen schlussendlich die Gamingperformance selbst nur minimal schwanken.

@box
mal was anderes hast du den neuen fake Mod inst. (HL2)? da geht kein SLI mehr...bzw. ich bekomms nicht hin.
Bei mir geht das gar net auf... Kommt der Ladescreen und selbst nach mehreren Stunden warten passiert nix :fresse: Ob SLI geht, weis ich nicht...

und was hast du mit der AMD und 3gig für einen Vorteil..das konnte mir bis jetzt auch noch keiner beantworten.
Ich denke das ist eher die Konsequenz des 384Bit SIs... Da bleibt nur 1,5GB oder 3GB. Ersteres wäre wohl zu wenig für die Zukunft, zumal man mit den Vorgängerkarten selbst das 2GB Zeitalter eingeleitet hat... Ich finds nun nicht unbedingt verkehrt :fresse:
Speicher kann man nie genug haben, ist wie mit dem Hubraum ;)
 
Zuletzt bearbeitet:
mußt alle 3 source installieren
viel vram...ist für mich eine "Beschaffungsfrage" :d ich zahl nicht gern für Dinge (SLI/CF) die nur aufgepappt sind und mit denen ich nichts anfangen kann....
 
Zuletzt bearbeitet:
@fdsonne:
Achso weil wir von der Einheitenzahl der 580 ausgehen (64TMUs, 32 ROPs - 256bit SI - und 512 HC-ALUs/1024 non-HC ALUs)? Ja dann würde die Effizienz deutlich schlechter. Also pro Einheit, nicht Perf/W. Das hab ich auch schon gefragt, aber keine wirkliche Antwort bekommen. Vielleicht hat GK104 halt nur 24 ROPs und 48 TMUs bei dem hohen Takt?
 
Gibt es ähnliche Stromspar-Features für den Kepler wie bei der HD7970? Ich meine jetzt Zero Core Power, bei Nvidia ist von Synergy seit Q1/11 ja nichts mehr zu hören.
 
event hat 104 so viel Qualm das es einigen richtig schlecht wird :d

---------- Post added at 01:25 ---------- Previous post was at 01:23 ----------

Gibt es ähnliche Stromspar-Features für den Kepler wie bei der HD7970? Ich meine jetzt Zero Core Power, bei Nvidia ist von Synergy seit Q1/11 ja nichts mehr zu hören.

Geht das denn da unter zb. W7?
 
Ich mein nur das 256 Bit bei den besseren Karten langsam zu wenig ist und ich find nicht das die 3 GB von Amd sehr viel bringen nur bei hohen Auflösungen so in richtung 5xxx x 2xxx oder so ich hol mir sowieso wenns eine Amd wird die mit 1,5 GB wens die 7970 in der ausführung gibt aber wen man die 7950 mit 1,5 GB zur 7970 machen kann ist mir der Rest auch egal.
 
@mayer

Laut Nvidia wäre das wohl recht "einfach" in Software zu entwickeln, ähnlich wie bei Hybrid-SLI oder auch Optimus. Die Aussage ist aber noch von Q1/11, seitdem gab es gar nichts mehr dazu. Dachte mir, wenn AMD schon so ein Feature bringt, dann zieht Nvidia womöglich nach. Da die meisten Intel-CPUs mittlerweile eine iGPU haben, wäre es eine Verschwendung, diese Technik nicht zu nutzen.
 
mußt alle 3 source installieren
viel vram...ist für mich eine "Beschaffungsfrage" :d ich zahl nicht gern für Dinge (SLI/CF) die nur aufgepappt sind und mit denen ich nichts anfangen kann....

Je nachdem wie lange man den Spaß verwenden will... Ich bin damals mit ner 512MB HD4870 auf die Nase gefallen, weil der VRAM zu klein war, GPU technisch aber durchaus noch was ging für meine Settings. Und nun mit den zwei 470ern steh ich vor nem ähnlichen Problem. Dabei sind spielereien mit diversen HighRes Texturmods noch gar nicht inbegriffen :fresse:
2-3GB pro GPU lassen einen da schon etwas entspannter auf die nächsten Jahre schauen. Und wenn man davon ausgeht, das wohl ein möglicher Nachfolger in 20/22nm noch ne ganze Weile auf sich warten lässt stellt sich dann eher die Fragen, warum heute geizen und später wieder dumm dastehen!? ;) Aber hier kann ja jeder halten wie er möchte...

@fdsonne:
Achso weil wir von der Einheitenzahl der 580 ausgehen (64TMUs, 32 ROPs - 256bit SI - und 512 HC-ALUs/1024 non-HC ALUs)? Ja dann würde die Effizienz deutlich schlechter. Also pro Einheit, nicht Perf/W. Das hab ich auch schon gefragt, aber keine wirkliche Antwort bekommen. Vielleicht hat GK104 halt nur 24 ROPs und 48 TMUs bei dem hohen Takt?

Jupp das mein ich...
Klar könnte man die ROP/TUMs hier verringern, aber das passt nicht zum bisherigen Muster (was ja nichts heißen muss)
Ich denke mal, es bleiben 64 TMUs, die TMUs hingen ja bis dato an den Shaderclustern und skalierten mit dessen Anzahl. Die ROPs hingegen am SI. Wobei AMD hier diese erstmals entkoppelt hat, wäre vllt auch ne Option für NV. Sprich doch 48 ROPs zu bringen und somit diesen einen Nachteil auszumerzen. Dann würde zumindest technisch nicht mehr viel über nur 10% sprechen. Außer die womöglich gestiegene Ineffizienz der Ausführungseinheiten selbst (wäre sehr schade)...
Auch könnte die Spekulation zur Taktrate etwas zu hoch gegriffen sein. Bei AMD spekulierte man im Vorfeld auf 1GHz. Auch bei Fermi glaub ich war vorher auf mehr Spekuliert, wie er gekommen ist... Grobe 1GHz wären immernoch ordentlich über Tahiti und man packt die 1GHz Mauer ;) Würde dann so auch eher zu den ~10% passen.


PS: wer ist eigentlich dieser Ailuros?
Ist das jemand von NV?
 
Geht das denn da unter zb. W7?

PCGH : Nochmals deutlich besser gibt sich die Radeon HD 7970 im Leerlaufbetrieb: Mit gerade einmal 12 Watt benötigt die AMD-Karte kaum mehr Strom als Einsteigermodelle. Sobald der Bildschirm in den Standby-Modus geht, stoppt die Radeon zudem den Lüfter und genehmigt sich nur noch 6 Watt – das ist völlig außer Konkurrenz.
 
ich weis schon wie du das meinst..1.5 gig reichen auch bis 1920x1200 ich kenne bzw hab nix wo ich an die grenzen komme außer in Metro DX11 mit der Auflösung..dann zucks eben kurz....das prob ist das immer ein Furz zum Elefanten gemacht wird um sich was parat zulegen..und da wird aufeinmal von 580 vram Krüppeln geschrieben....und Auflösungen zb. 2x2 DS (Witcher 2 zb.) oder mehr.. da brauchste Qualm ohne Ende...die schnallen doch nicht mal das ihre ganzen tests ins CPU Limit rennen....ich rege mich schon wieder auf :d ich wäre so gerne mal für ein Forumstreffen..:fresse: früher im alten RIVA (Borsti *lach hat jetzt glaube was bei NV zu melden) haben wir das jedes Jahr gemacht....
 
Jupp das mein ich...
Klar könnte man die ROP/TUMs hier verringern, aber das passt nicht zum bisherigen Muster (was ja nichts heißen muss)
Ich denke mal, es bleiben 64 TMUs, die TMUs hingen ja bis dato an den Shaderclustern und skalierten mit dessen Anzahl. Die ROPs hingegen am SI. Wobei AMD hier diese erstmals entkoppelt hat, wäre vllt auch ne Option für NV. Sprich doch 48 ROPs zu bringen und somit diesen einen Nachteil auszumerzen. Dann würde zumindest technisch nicht mehr viel über nur 10% sprechen. Außer die womöglich gestiegene Ineffizienz der Ausführungseinheiten selbst (wäre sehr schade)...
Auch könnte die Spekulation zur Taktrate etwas zu hoch gegriffen sein. Bei AMD spekulierte man im Vorfeld auf 1GHz. Auch bei Fermi glaub ich war vorher auf mehr Spekuliert, wie er gekommen ist... Grobe 1GHz wären immernoch ordentlich über Tahiti und man packt die 1GHz Mauer ;) Würde dann so auch eher zu den ~10% passen.


PS: wer ist eigentlich dieser Ailuros?
Ist das jemand von NV?

Einer aus dem 3DC, der hat wohl Kontakte zu gewissen Leuten.
Ich kann mir auch nicht so recht vorstellen, dass die Effizienz pro Einheit gefallen ist. Bei den ALUs könnte ich mir das noch vorstellen, AMD bringt die ja auch nicht auf die Straße. Aber wenn man praktisch dieselben TMUs/ROPs verbaut hat (nehme ich mal an) und die einfach höher taktet, sollte das ordentlich was bringen. Takt schlägt doch immer fast 1:1 durch. Problem könnte nur sein, wenn die Speicherbandbreite oder eben die Rechenleistung bremsen. Ersteres könnte sein, zweiteres eher nicht bei angenommenen "deutlich über 2TF". Es sei denn, die FLOP-Zahl sagt jetzt genauso wenig aus wie bei AMD und 2,5 Kepler-TF sind jetzt nur noch 1,8 Fermi-TF...also 580+10%.
 
Ich mein nur das 256 Bit bei den besseren Karten langsam zu wenig ist und ich find nicht das die 3 GB von Amd sehr viel bringen nur bei hohen Auflösungen so in richtung 5xxx x 2xxx oder so ich hol mir sowieso wenns eine Amd wird die mit 1,5 GB wens die 7970 in der ausführung gibt aber wen man die 7950 mit 1,5 GB zur 7970 machen kann ist mir der Rest auch egal.

Und woher die Erkenntnis zum SI?
Die Aussage ob da nun 256Bit, 384Bit oder 512Bit drin stecken, spielt doch ohne weitere Details keine Rolle.
256Bit SI mit doppeltem Speichertakt ist genau so fix wie 512Bit mit eben jenem halben. Und in Sachen SPeichertaktraten tut sich eigentlich über die Monate immer was ;)

@mayer

Laut Nvidia wäre das wohl recht "einfach" in Software zu entwickeln, ähnlich wie bei Hybrid-SLI oder auch Optimus. Die Aussage ist aber noch von Q1/11, seitdem gab es gar nichts mehr dazu. Dachte mir, wenn AMD schon so ein Feature bringt, dann zieht Nvidia womöglich nach. Da die meisten Intel-CPUs mittlerweile eine iGPU haben, wäre es eine Verschwendung, diese Technik nicht zu nutzen.

Angekündigt für die neuen NVs ist wohl offiziel nix. Solche Folien analog zu AMD findet man auch eher selten.
Ich denke nicht, das man sowas bringt. Ich glaub nichmal, das NV sich bewusst war, das AMD sowas entwickelt. In Sachen idle Stromverbrauch lief ja bis dato idR eher wenig. In der Vergangenheit war zumindest der Punkt nicht wirklich weit oben auf der needed feature Liste von NV ;)

ich weis schon wie du das meinst..1.5 gig reichen auch bis 1920x1200 ich kenne bzw hab nix wo ich an die grenzen komme außer in Metro DX11 mit der Auflösung..dann zucks eben kurz....das prob ist das immer ein Furz zum Elefanten gemacht wird um sich was parat zulegen..und da wird aufeinmal von 580 vram Krüppeln geschrieben....und Auflösungen zb. 2x2 DS (Witcher 2 zb.) oder mehr.. da brauchste Qualm ohne Ende...die schnallen doch nicht mal das ihre ganzen tests ins CPU Limit rennen....ich rege mich schon wieder auf :d ich wäre so gerne mal für ein Forumstreffen..:fresse: früher im alten RIVA (Borsti *lach hat jetzt glaube was bei NV zu melden) haben wir das jedes Jahr gemacht....

Das hätte hier bei uns wohl dann das Ausmaß der in den Medien rumgeisternden Facebook Partys :fresse: Wenn dann da mal locker 1000 und mehr Leute zum Treffen kommen.
Ansonsten, kurzes zucken wäre ja OK, FPS Raten von unter 10 bei permanenter VRAM Überlastung (Skyrim mit 4xSGSSAA und FullHD Auflösung bei max. Details + ein paar wenige Mods als Beispiel) find ich dann schon nicht mehr gut ;)
 
Je nachdem wie lange man den Spaß verwenden will... Ich bin damals mit ner 512MB HD4870 auf die Nase gefallen, weil der VRAM zu klein war, GPU technisch aber durchaus noch was ging für meine Settings. Und nun mit den zwei 470ern steh ich vor nem ähnlichen Problem. Dabei sind spielereien mit diversen HighRes Texturmods noch gar nicht inbegriffen :fresse:
2-3GB pro GPU lassen einen da schon etwas entspannter auf die nächsten Jahre schauen. Und wenn man davon ausgeht, das wohl ein möglicher Nachfolger in 20/22nm noch ne ganze Weile auf sich warten lässt stellt sich dann eher die Fragen, warum heute geizen und später wieder dumm dastehen!? ;) Aber hier kann ja jeder halten wie er möchte...



Jupp das mein ich...
Klar könnte man die ROP/TUMs hier verringern, aber das passt nicht zum bisherigen Muster (was ja nichts heißen muss)
Ich denke mal, es bleiben 64 TMUs, die TMUs hingen ja bis dato an den Shaderclustern und skalierten mit dessen Anzahl. Die ROPs hingegen am SI. Wobei AMD hier diese erstmals entkoppelt hat, wäre vllt auch ne Option für NV. Sprich doch 48 ROPs zu bringen und somit diesen einen Nachteil auszumerzen. Dann würde zumindest technisch nicht mehr viel über nur 10% sprechen. Außer die womöglich gestiegene Ineffizienz der Ausführungseinheiten selbst (wäre sehr schade)...
Auch könnte die Spekulation zur Taktrate etwas zu hoch gegriffen sein. Bei AMD spekulierte man im Vorfeld auf 1GHz. Auch bei Fermi glaub ich war vorher auf mehr Spekuliert, wie er gekommen ist... Grobe 1GHz wären immernoch ordentlich über Tahiti und man packt die 1GHz Mauer ;) Würde dann so auch eher zu den ~10% passen.


PS: wer ist eigentlich dieser Ailuros?
Ist das jemand von NV?

der einzigste der den Fuß drinn hat außer man hat noch bessere Beziehungen..allerdings hat er gerade Ärger wegen einiger Dumpfbacken aus dem 3DC...

naja 512...das ging sogar bei Oblivion mit 12 gig Mods :d man mußte eben ab und an schmerzfrei sein :d das ist heute auch nicht anders ..ich kauf mit keinen zb. 30" und nölle dann wegen zu wenig vram rum (damit mein ich jetzt nicht dich).
 
PCGH : Nochmals deutlich besser gibt sich die Radeon HD 7970 im Leerlaufbetrieb: Mit gerade einmal 12 Watt benötigt die AMD-Karte kaum mehr Strom als Einsteigermodelle. Sobald der Bildschirm in den Standby-Modus geht, stoppt die Radeon zudem den Lüfter und genehmigt sich nur noch 6 Watt – das ist völlig außer Konkurrenz.

jo super...nicht falsch verstehen..bringt mir aber nix...da sind wir bei 2€ im Jahr..schön wäre es man könnte im SLI oder CF eine Karte komplett abschalten...NEIN nicht wegen sparen sondern um in dem Moment weniger Abwärme zu haben....

---------- Post added at 01:48 ---------- Previous post was at 01:47 ----------

Und woher die Erkenntnis zum SI?
Die Aussage ob da nun 256Bit, 384Bit oder 512Bit drin stecken, spielt doch ohne weitere Details keine Rolle.
256Bit SI mit doppeltem Speichertakt ist genau so fix wie 512Bit mit eben jenem halben. Und in Sachen SPeichertaktraten tut sich eigentlich über die Monate immer was ;)



Angekündigt für die neuen NVs ist wohl offiziel nix. Solche Folien analog zu AMD findet man auch eher selten.
Ich denke nicht, das man sowas bringt. Ich glaub nichmal, das NV sich bewusst war, das AMD sowas entwickelt. In Sachen idle Stromverbrauch lief ja bis dato idR eher wenig. In der Vergangenheit war zumindest der Punkt nicht wirklich weit oben auf der needed feature Liste von NV ;)



Das hätte hier bei uns wohl dann das Ausmaß der in den Medien rumgeisternden Facebook Partys :fresse: Wenn dann da mal locker 1000 und mehr Leute zum Treffen kommen.
Ansonsten, kurzes zucken wäre ja OK, FPS Raten von unter 10 bei permanenter VRAM Überlastung (Skyrim mit 4xSGSSAA und FullHD Auflösung bei max. Details + ein paar wenige Mods als Beispiel) find ich dann schon nicht mehr gut ;)

Ich hätte da eine rießen Spaß drann...mal so einigen pappnasen in die Augen zuschauen...aber die würden eh nicht kommen... :d
 
Man kann die Karten doch abschalten im CF. Steht doch auf auf so einer AMD-Folie. Also alle außer einer. Find ich super und will ich auch.
 
Einer aus dem 3DC, der hat wohl Kontakte zu gewissen Leuten.
Ich kann mir auch nicht so recht vorstellen, dass die Effizienz pro Einheit gefallen ist. Bei den ALUs könnte ich mir das noch vorstellen, AMD bringt die ja auch nicht auf die Straße. Aber wenn man praktisch dieselben TMUs/ROPs verbaut hat (nehme ich mal an) und die einfach höher taktet, sollte das ordentlich was bringen. Takt schlägt doch immer fast 1:1 durch. Problem könnte nur sein, wenn die Speicherbandbreite oder eben die Rechenleistung bremsen. Ersteres könnte sein, zweiteres eher nicht bei angenommenen "deutlich über 2TF". Es sei denn, die FLOP-Zahl sagt jetzt genauso wenig aus wie bei AMD und 2,5 Kepler-TF sind jetzt nur noch 1,8 Fermi-TF...also 580+10%.

Speicherbandbreite könnte halt sein, aber hat in der Vergangenheit aber auch eher wenig die FPS beeinflusst. Ich fahre die beiden 470er bei mir auch mit angezogener Speichertaktbremse, weil die eigen 465er geflashte Karte den orginaltakt der 470er nicht packt. Dat schaded den Dingern Null komms nix in der Performance. Selbst enorme Taktunterschiede nicht.
Selbst enorm wenig Takt (400MHz) bringen da vllt 10, manchmal auch 20% weniger Leistung. Ich kann mir nur schwer vorstellen, das der Spaß auf einmal deutlich an Anforderung zunimmt.

Vllt ists wirklich schlicht der Takt. Lass da mal nur grob 1GHz drauf kommen oder vllt gar noch weniger, weils in Sachen Leistungsaufnahme sonst zu mau wird. Und schon schrumpft der Taktvorteil auf 20% zur 580er und das Ergebnis klingt wieder realistisch ;)

Ich hätte da eine rießen Spaß drann...mal so einigen pappnasen in die Augen zuschauen...aber die würden eh nicht kommen... :d

Bleibt nur noch die Frage, wie erkennst du die "Pappnasen" in den 1000den von Leuten bzw. die dich!? :fresse:
 
Zuletzt bearbeitet:
Man kann die Karten doch abschalten im CF. Steht doch auf auf so einer AMD-Folie. Also alle außer einer. Find ich super und will ich auch.

das ging schon immer mußte nur AI ausschalten *lach ..insider Witz :lol:

---------- Post added at 01:55 ---------- Previous post was at 01:53 ----------

Speicherbandbreite könnte halt sein, aber hat in der Vergangenheit aber auch eher wenig die FPS beeinflusst. Ich fahre die beiden 470er bei mir auch mit angezogener Speichertaktbremse, weil die eigen 465er geflashte Karte den orginaltakt der 470er nicht packt. Dat schaded den Dingern Null komms nix in der Performance. Selbst enorme Taktunterschiede nicht.
Selbst enorm wenig Takt (400MHz) bringen da vllt 10, manchmal auch 20% weniger Leistung. Ich kann mir nur schwer vorstellen, das der Spaß auf einmal deutlich an Anforderung zunimmt.

Vllt ists wirklich schlicht der Takt. Lass da mal nur grob 1GHz drauf kommen oder vllt gar noch weniger, weils in Sachen Leistungsaufnahme sonst zu mau wird. Und schon schrumpft der Taktvorteil auf 20% zur 580er und das Ergebnis klingt wieder realistisch ;)



Bleibt nur noch die Frage, wie erkennst du die "Pappnasen" in den 1000den von Leuten bzw. die dich!? :fresse:

Mich erkennt man gleich :fresse: 1. harley 2. Kutte 3. Bilderbuch :d und soviele kommen da eh nicht...jetzt schon garnicht mehr :d

---------- Post added at 01:58 ---------- Previous post was at 01:55 ----------

Hab ACE-Hemmer hier Adresse?Kann ich dir zukommen lassen. :wink:

meine Kippe ist noch 22cm lang das reicht erst mal :d


fake die alte Sau :d

von vorne auch :d nix da installieren :d

---------- Post added at 02:31 ---------- Previous post was at 01:58 ----------

@mayer

Laut Nvidia wäre das wohl recht "einfach" in Software zu entwickeln, ähnlich wie bei Hybrid-SLI oder auch Optimus. Die Aussage ist aber noch von Q1/11, seitdem gab es gar nichts mehr dazu. Dachte mir, wenn AMD schon so ein Feature bringt, dann zieht Nvidia womöglich nach. Da die meisten Intel-CPUs mittlerweile eine iGPU haben, wäre es eine Verschwendung, diese Technik nicht zu nutzen.

sorry hab ich übersehen..hab ich ehrlich gesagt mir noch nie Gedanken drüber gemacht mit meinen Heizkisten und wie gesagt Rechen tut es sich eh nicht<>Geld...um die Abwärme ..Kühler etc. klein zuhalten wäre es interessant..aber du siehst es ja bei den CPUs..es juckt keinen es wird ausgeschaltet und vc drauf.....naja Intel... bisher wars ein Reinfall sondersgleichen..aber die können es sich ja auch erlauben mal zig Millionen in den Sand zusetzen...
 
Zuletzt bearbeitet:
hoffentlich bringt NV da was. wäre ziemlich schlecht, wenn die keinerlei anhaltspunkt zu keplar brächten.
das würde an 3dfx erinnern, die bis zu letzt nur wenig zur voodoo 5 6000 brachten und schlußendlich geschluckt wurden :/
 
Sonst bin ich ja echt nicht so, aber lieber Newsschreiber - vor dem Abschicken der News vielleicht mindestens einmal Korrektur lesen.

"Des Einen Freud ist des Anderen Leid"
"Nun steht man erneut unter Zugzwang und beunruhigts seine Partner."
"[...]hätte AMD schonen einen größeren Vorsprung[...]"
 
Wegen diesem Fermi-Debakel habe ich mir damals eine ATI-Karte (HD 5850)geholt und habe es nicht bereut. Nun hat Nvidia wieder das Problem des zweiten....

5 posts (Beiträge will ich nicht schreiben) und dann nur Mist, aber wozu braucht man nen doppel acount schon, lg

---------- Post added at 07:02 ---------- Previous post was at 07:01 ----------

Wollen wir einmal hoffen, dass sie nicht wieder ein zusammengebastelten "Kepler" zeigen.

na klar letzte bastelware war doch die amdcpu

Mein Standpunkt, trommeln tut doch nur AMD, was dabei raus kommt hat man zur genüge gesehen. Meine 460 gtx reicht mir im OC noch für meine Games, das ohne Flimmern und Treiberprobs. Ich denke die nächste wird erst beim next DX fällig oder es ist eine 2win. Zum Schluß noch eins " So gut kann eine ATI gar nicht sein das ich wechseln würde" ich verzichte doch nicht auf Physx oder Cuda nur weil ein paar Proleten gerne sparen wollen, LG
 
Zuletzt bearbeitet:
hier noch was...
nvidiakepler.jpg

Quelle:
Google Übersetzer
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh