Volcanic Islands nur so schnell wie GeForce GTX 780 und in 28 nm?

Irgend wie habe das gefühl das ich von dir verfolgt werde :hmm
Naja du bietest einfach zu viel Angriffsfläche.
Und nur mal so nebenbei gesagt heißt es Fanboy und nicht Funboy.
Oder kann man dich evtl. für bestimmte Dienste buchen?

Und nun mal wieder etwas Topic.
Ich persönlich denke, dass das mögliche Leistungsplus stark davon abhängt, ob die neuen Grakas in 20 oder 28mm gefertigt werden.
Diesbezüglich brodelt die Gerüchteküche ja auch noch ordentlich.
Und in Sachen Strombedarf @Last ist auch noch Luft nach oben.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich schätze es werden 28nm Karten, mit 20% mehr Performance als die aktuelle Ghz Edition, dementsprechend geht der Verbrauch auch nochmal ein ganzes Stück nach oben ;)
 
20nm wären aus meiner Sicht auch eher ne Überraschung.
Wobei ich mich aber positiv überraschen lassen würde.:)
 
20nm wären aus meiner Sicht auch eher ne Überraschung.

Die 20nm gehören Apple, ich wage zu behaupten, dass der Apple-Deal TSMC weit mehr einbringt als das GPU-Geklöppel für AMD oder Nvidia. :d

Mal im Ernst, die 20nm Produktion soll für Apple im Dezember anlaufen. Da halte ich 20nm-GPUs erst in 2014 für wahrscheinlich.
 
Oder kann man dich evtl. für bestimmte Dienste buchen?

Und nur mal so nebenbei gesagt heißt es Fanboy und nicht Funboy
.

Sehr interessant jetzt werde ich von Mod verarscht macht das dir spaß oder verstehe ich was falsch dann klär mich auf bei bedarf Danke.
Wenn du mit mir Persöhnliche Ebene Problem hast was ich nicht verstehe möchte ich den Grund wissen.
Ich glaube auch nicht das du als Mod irgenwelche Rechtschreib fehler von User verbessern musst das ist schon fast Diskriminirung unter lasse das Bitte ;)
 
Zuletzt bearbeitet:
Komm schon, das Funboy-Ding war mega lustig... :haha: Und Menschen aus Bayern darf man diskriminieren... :asthanos:
 
Sehr interessant jetzt werde ich von Mod verarscht macht das dir spaß oder verstehe ich was falsch dann klär mich auf bei bedarf Danke.
Wenn du mit mir Persöhnliche Ebene Problem hast was ich nicht verstehe möchte ich den Grund wissen.
Ich glaube auch nicht das du als Mod irgenwelche Rechtschreib fehler von User verbessern musst das ist schon fast Diskriminirung unter lasse das Bitte ;)

Funboy = (männliche) Nutte :fresse2: nicht offiziell könnte man aber so übersetzen ;)
 
Sehr interessant jetzt werde ich von Mod verarscht macht das dir spaß oder verstehe ich was falsch dann klär mich auf bei bedarf Danke.
Wenn du mit mir Persöhnliche Ebene Problem hast was ich nicht verstehe möchte ich den Grund wissen.
Ich glaube auch nicht das du als Mod irgenwelche Rechtschreib fehler von User verbessern musst das ist schon fast Diskriminirung unter lasse das Bitte ;)
Ich korrigiere normalerweise auch keine Rechtschreibfehler. Nur dieser Fehler gibt einem Wort halt ne ganz andere Richtung.

Funboy = (männliche) Nutte :fresse2: nicht offiziell könnte man aber so übersetzen ;)
Denn so interpretieren die meisten das Wort Funboy.

Mänliche Nute bin ich nicht nein nein :d

Das habe ich mir schon gedacht und deshalb eine kleine Spitze dem Hinweis hinzugefügt.
Also lege bitte nicht alles auf die Goldwaage und vermute nicht hinter allem einen persönlichen Angriff.

Die 20nm gehören Apple, ich wage zu behaupten, dass der Apple-Deal TSMC weit mehr einbringt als das GPU-Geklöppel für AMD oder Nvidia. :d

Mal im Ernst, die 20nm Produktion soll für Apple im Dezember anlaufen. Da halte ich 20nm-GPUs erst in 2014 für wahrscheinlich.

Wie gesagt glaube ich auch noch nicht wirklich dran mit den 20nm GPU´s im Oktober.
 
Aber eigentlich ist es dann ein toyboy
 
Eine "allgemeine Realität" gibts nicht. Alles, was man sagen kann ist, dass Boost 2.0 temperaturabhängig ist, mehr nicht. Denn wer wo in Deutschland wohnt, was für ein Gehäuse diese Person hat, was für eine Gehäusekühlung, ob es eine Karte mit Referenzkühler oder ein Custom-Design ist und ob PT/TT verändert werden oder nicht, das alles ist höchst individuell. Es kann Basistakt dabei rauskommen oder eben maximaler Boost, je nach den Bedingungen. Das sollte Pickebuh mal endlich einsehen, statt Nvidia dauernd schlechtzureden.

Hier sollte man aber ebenso differenzieren...
Ich sehe hier von beiden Seiten ziemlich pauschales Hervorheben von Extremsituationen.

Beispielsweise braucht man denke ich nicht mit irgend einer spezial GTX 780 Super irgendwas mit ASIC 80 sonstwas argumentieren, die mit custom Kühler oder womöglich sogar unter Wasser nen Boost von 1150MHz+ erreicht und diesen auch lange (oder immer) hält... -> das dürfte fernab der Realtität einer Durchschnittskarte ohne händische Eingriffe (wenn auch teils erlaubt) liegen... Beinflusst die Argumentation aber in ein positives Licht für diese Karte.
Das gleiche gilt auch andersrum, mit dem Toxic Beispiel als 1200MHz Tahiti...

Unterm Strich entscheidet wie du sagst ja das Verhalten des Users und auch seine Bedinungen. Nur sollten sich auch alle Seiten hier an die eigene Nase fassen, was pauschale "Übertreibung" angeht.
Gute und schlechte Karten gibts seit eh und je... Ich erinnere mich an GTX 580 GPUs, die mit über 1GHz liefen, ich erinnere mich seinerzeit an HD5870 GPUs mit gut über 1GHz usw.

Das stimmt ja soweit nur Resultiert das irgendwie nicht in einem entsprechenden Absatz der GPUs, was ich ehrlich gesagt nicht so ganz nachvollziehen kann. Wo AMD seine größten Schwächen hat, dass ist der Multi-GPU-Bereich und der ist mit verlaub gesagt irrelevant auf den Gesamtmarkt bezogen.

Also was die kleineren nicht Tahiti 28nm GPUs angeht, so sind davon ordentlich Karten auch im Umlauf ;) Sind wenn mich nicht alles täuscht sogar mehr Mittelklasse 28nm AMD GPUs vertreten, als NV mit nicht GK104/GK110 GPUs bietet. Und dabei gibts bei AMD nichtmal Einsteigermodelle als 7000er GPUs.
Es hängt aber dennoch stark am Preis... Wenn man mal schaut, laut Steamumfrage sind die DX11 GPUs, die am meisten Vertreten sind, mit über 1/3 gesamt Anteil immernoch aus dem GTX 400/500 bzw. HD5000/6000 Segment. Und es sind überwiegend Mittelklasse GPUs.
Sprich die allgemeine Nachfrage nach 28nm DX11 GPUs sowohl bei AMD als auch bei NV ist nach mittlerweile 1,5 Jahren Verfügbarkeit immernoch eher mau. Auch steigen die geannten Alt GPUs immernoch in der Verbreitung, teils gar stärker als die 28nm Karten.

Der Schluss daraus?
-> die Karten könnten schlicht zu teuer für die gebotene Mehrleistung sein... Der Markt hat sich mittlerweile bzw. in der vergangenen Generation scheinbar genügend mit GPUs eingedeckt. Und die Wechselwilligen haben entweder schon gewechselt oder streuben sich aufgrund der gebotenen Leistungen.
Und das kann ich sogar 1A nachvollziehen... Denn mit der HD7000/GTX600 Generation sind die Preise stark gestiegen, im Vergleich zur gebotenen Mehrleistung.
Will man dazu noch einen ordentlichen Boost zur alten Karte haben, muss man heute ggf. sogar recht tief in die Tasche greifen. -> was über den Budget liegen könnte.

PS: ein Grund warum Tahiti nicht so stark am Markt vertreten ist, könnte der Verbrauch sein. In Zeiten von GreenIT wird ja immer wieder hervorgehoben, wie hoch der Verbrauch der Tahitis ist -> bzw. dies kritisiert. Und der Verbrauch ist schliecht einfach höher als bei vergleichbar schnellen GK104 GPUs.
Ich denke mal, erst mit der nächsten echten Generation, also 20nm wird sich hier was am Bild ändern... Mittelklasse GTX 600/700 bzw. HD7000er Modelle sind aus meiner Sicht zu teuer für die Mehrleistung zu den viel günstigeren GTX 400/500 bzw. HD5000/6000 Modellen. Mit den kommenden Produkten wird die Lücke aber wohl so groß werden, das der Umstieg auch leistungstechnisch lohnt.
 
Das klingt alles schlüssig, was du schreibst. Mir geht es primär darum, dass der Absatz nur so groß/klein ist bei AMD, dass da im letzten Quartal eine schwarze Null - trotz geringer Preise und Never Settle-Offensive. Ich mach mir mal nciht die Mühe Nvidias Gewinn gegenzurechnen, weil eh Q2 fehlt und ich bei denen nciht nachvollziehen kann wo welches Geld herkommt...
 
@fdsonne:
Differenzierter als das was ich geschrieben habe, geht ja wohl nicht ;)
Positiv ist auf jeden Fall anzumerken, dass man unzählige Möglichkeiten hat, mehr Performance zu bekommen. Manche mit Eingriff, andere einfach indem man beim Kauf ein Modell mit anständigem Kühler nimmt. Wenn AMD auch einen temperaturabhängigen Boost herausbringen sollte, werde ich auch dort diese Möglichkeiten gelten lassen. Ich denke in einem Enthusiastenforum ist das nicht verkehrt - die Leute, die keinen Plan von dieser Geschichte haben, haben eh Besseres zu tun, als sich um 10% zu streiten :d
 
@Mick
also ich denke mal, auch wenn die Gamebundels ein Kaufanreiz sind, nur deswegen dediziert zu den AMD GPUs greifen, (wenn man es nicht unbedingt braucht) würden wohl nur die wenigsten...
Vor allem auch, man bekommt die Keys zu den Games ja mittlerweile teils enorm günstiger als neu aus dem Blödmarkt. Das Gameargument zieht in meinen Augen aus heutiger Sicht nicht mehr so richtig... Also zumindest nicht so, wie es seinerzeit noch war, wo Neupreistitel mehrere Monate nach Release immernoch fast 40€ teuer waren.

Was die nakten Zahlen angeht, keine Ahnung, ich kenn da nix genaueres, auch weis ich nicht, ob sich das dediziert runterbrechen lässt auf gewisse Modelle.
Auffallend ist halt nur die Marktverteilung der GPUs. Hier ist AMD mit den Mittelklasse 7000ern laut Steamumfrage mehr vertreten als NV mit allen 28nm GPUs zusammen, die nicht auf GK104/GK110 basieren... Und davon gibts ne Menge mehr als 7000er AMD Modelle ;)
Von der Seite her kann es also nicht kommen... Und da man bekanntlich sagt, die Mittelklasse macht aufgrund der Masse das Geld, muss die von dir angesprochene Null wohl andere Gründe haben als den fehlenden Absatz der Tahiti GPUs im oberen Leistungsbereich.

@box
ich wollte nur den Gedanken von dir aufgreifen... Weil halt auffallend ist, das oben Kommentare zu lesen sind, wie toll die ein oder andere spezial 780er doch ist, unter diesen und jenen Bedinungen usw. usf. -> was äußerst pauschal ist und aus meiner Sicht Sonderfälle hervorhebt. Denn es gibt auch den umgekehrten Fall, der halt nicht beachtet wird, ja nichtmal wird erwähnt, das es sich um die genannten Konstellationen um "Sonderfälle" handelt.
Fakt ist wohl, das die GK110/104 GPUs mit Boost V2 weitreichende Möglichkeiten bieten, die Leistungsfähigkeiten ein Stückweit über dem default Mittel anzupassen. Was es bei AMD aktuell so nicht gibt... Dafür das Tahiti selbst schon so viele Monate auf dem Buckel hat, schlägt das gute Stück sich aber immernoch wacker ;)
 
Du solltest mal die Definition für unabhängig nachschlagen. Alleine schon die Existenz des Schiebereglers und die von dir erwähnte "kritische Temperatur von 94°C", zeigen, dass dort eine Abhängigkeit besteht...

Jedes Stück Silizium hat eine temperaturabhängige Schwelle, wo die Funktionsfähigkeit nicht mehr gegeben ist.
Also ja, jede Grafikkarte ist temperaturabhängig. :fresse2:
 
@ fdsonne: Was die Spiele angeht stimme ich dir zu, nur muss so ein Programm sich auch refinanzieren, also sollte es den Absatz ankurbeln. ;)

Was die Verteilung in der Steam-Statistik angeht ist das so eine Sache. Nimmst du die Statistik als Basis: Steam Hardware & Software Survey und nimmst nicht nur die Anzahl der Nennungen sonder die Prozentualen Anteile der jeweiligen GPUs auf: 12,2% dezidierte Nvidia-28nm-GPUs und und 7,5% dezidierte AMD-28nm-GPUs. Es gibt also ca 62% mehr Nvidia GPUs in diesem Segment als AMD GPUs. Gemessen an dem Betriebenen Aufwand (Preis/Neversettle) scheint das recht asymetrisch gemessen daran, dass die GPUs in Wirklichkeit von beiden Herstellern im Endeffekt ebenbürtig sind.

Natürlich kann es Abseits dieses Segmentes auch Probleme/Kosten geben, aber so richtig versteh ich das Bild nicht...

---------- Post added at 17:13 ---------- Previous post was at 17:11 ----------

Jedes Stück Silizium hat eine temperaturabhängige Schwelle, wo die Funktionsfähigkeit nicht mehr gegeben ist.
Also ja, jede Grafikkarte ist temperaturabhängig. :fresse2:

Und dem entsprechend jede Technik die die Thermischen Eigenschaft verändert, wie der Boost2.0... :wink:
 
Es ist doch klar warum so viel mehr NV karten am markt sind.
NV hat sich mit der zeit einen Namen gemacht den ATi/AMD nie hatte. AMD muss lange zeit einfach etwas wirklich gutes bieten und nicht immer den zweiten Rang abgreifen so das sie immer im Gespräch bleiben dann wird das.
Aber die Treiber müssen auch passen weil wenn du hinten liegst werden keine Fehler verschmerzt---> siehe die HD7990 die einfach ein FAIL ist weil kein Treiber und zu teuer.
 
Dies wird sich in wenigen Stunden ändern und denke der Preis wird auf 599/ 649 Euro geschraubt.
Die Karte wird sich nie groß absetzen können, aber den Fehler eines nicht vorhandenen Treibers dürfte sich wie ein Messer in die Brust gebohrt haben :-(
AMD beginnt wohl mit einer Kampfansage bis die Neuen Karten da sind, obwohl dies für unter 600 Euro angemessen wäre (Meine Meinung!)

Italien hatte heute bereits KURZ die 749 Euro am Start :-)
Nun wieder 812 Euro ...

SAPPHIRE TECHNOLOGY SCHEDA GRAFICA RADEON HD7990 - 6 GB GDDR5 - PCI EXPRESS 3.0 (21207-00-50G) + 8 GIOCHI IN OMAGGIO - INFORMATICA & MEMORIZZAZIONE - D.A.V. Digital Audio Video
 
Das Ding war nie gedacht um signifikanten Absatz zu generieren, das sollte die nötigen Balken liefern um die schnellste GPU der Welt zu haben...
 
Dies schon, dennoch sollten bis Dato einige Tausend Exemplare im Umlauf sein,- und dies wohl gar nur in Europa
Diese sollten auch verkauft werden,- und OHNE Passenden Treiber wird dies enorm schwer werden und auch bleiben.
Nun,- mit dem Heutigen Release des Finalen ProtoType Treibers ist nun AMD am Zug und hoffe sie vergeigen es nicht erneut wie schon so oft!
 
Bin mal gespannt ob der treib bei farcry 3 auch diese brutalen ruckler hat.
 
Teste dann mal fleißig interessiert mich. Bin dann auch mal auf die neuen AMD karten gespannt ob die vieleicht auch ne bessere bildqualität haben oder zusätzliche features. DS wäre geil
 
siehe die HD7990 die einfach ein FAIL ist weil kein Treiber und zu teuer.

Das ist doch auch wieder pauschaler Quark.
Keine Treiber? Keine Ahnung, aber irgendwie scheint das fernab jeglicher Realität. CF funkt seit je her so wie es eben läuft. Nur weil es seit ein paar Monaten in der Presse mal wieder irgendwelche Frametimeanalysen zu sehen gibt, heist das lange nicht, das es nicht funktioniert. Ihr pauschalisiert einfach viel zu stark. :confused: Noch vor ein zwei Generationen gab es nahezu überall MR und ungleiche Frametimes. Auch bei NV. Da sah man nichts von irgendwelchen "Optimierungen" auf dem Schirm. -> und CF sowie SLI wurden von den Randgruppen dennoch eingesetzt -> komischerweise waren diese Leute mehr oder weniger glücklich über das gebotene.
Und heute soll man CF gar nicht mehr betreiben können? Sorry, aber das ist Quark :wink: Es läuft zweifelsfrei schlechter als SLI, was die Durchschnittsgamebetrachtung angeht. Das stimmt wohl. Es läuft aber definitiv NICHT! schlechter als in vergangenen Generationen. Das Gegenteil ist eher der Fall. Denn es kommen immer mehr Optimierungen hinzu und die Skalierung ist auch besser geworden. Wer also CF kennt, weil er es in der Vergangenheit schon nutzte, kann auch heute bedenkenlos zu CF greifen. -> denn es ist nicht schlechter, sondern einfach nur schneller.

Zu teuer -> ja, das stimmt wohl. Gemessen daran, das man sich an der 690er orientierte, aber ebenso nicht grundlos so gewählt.
 
Ich bin bis Heute der Meinung das man unter V SYnc + Limiter super zocken kann im CF auch jetzt im SLI benutze ich es auch so .
DS wäre echt super bei AMD glaube aber nicht dran momentan zu mindest nicht.
 
Aber selbst der Verfügbarkeit von Framelimitern wurde CF genommen um die GPU Leistung zu steigern... Und die Leute waren glücklich darüber. Und am Endresultat hat sich bis heute nix verschlechtert. Das mein ich damit...
Das SLI in einigen Titeln nun bessere/rundere Frametimes liefert, ist ja gut und schön, deswegen wird CF aber nicht schlechter als es seinerzeit ist/war.
 
Und dem entsprechend jede Technik die die Thermischen Eigenschaft verändert, wie der Boost2.0... :wink:

bei dem wir ja schon geklärt haben, dass Boost 2.0 eine Temperatur bis zum Maximalwert erlaubt und somit vollkommen temperaturunabhängig funktioniert.
 
Jein. Bzgl. der reinen GPU-Temperatur ist der Boost 2.0 temperaturunabhängig, aber du musst noch die Umgebungstemperatur einbeziehen. Bei 10 Grad Raumtemperatur wird Boost 2.0 maximal takten, bei 30-40 Grad Raumtemperatur nicht (unbedingt). Die Karte ist ja in einer Umgebung und nicht isoliert, und das hat einen klaren Einfluss, wann die Maximaltemperatur erreicht wird.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh