'Hawaii'-GPU in 28 nm und effizienter als NVIDIAs GK110

Aber 1020Mhz takt um eine 837Mhz titan zu schlagen ist nun auch nicht so der hit.
Da drehste die AMD mit ner Titan@1000Mhz durch den fleischwolf
Da liegt meiner meinung nach deutlich leistung brach wenn das teil wirklich 2816shader mit 44Rops und 512Bit hat.
AMD traue ich das sehr gut zu das sie wieder zu dumm sind einen richtigen treiber von start weg zu liefern.
Denke das flimmern wird da auch nicht besser zur HD7970.

Auf jedenfall bräuchte NV nun nur noch ne 780ultra und Titan ultra bringen und schon hätte man wieder zwei modele die die AMD plätten
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich finds immernoch etwas enttäuschend, nach knapp zwei Jahren, ok lassen wirs eineinhalb sein, "nur" auf Titan Niveau zu kommen. Was haben die die ganze Zeit gemacht? Gut, wenn sie sich dafür auf den 20nm Prozess konzentriert haben und da ne Rakete kommen sollte, will ich nichts gesagt haben.
 
Ich Frage mich immer was manche von Hardware Herstellern erwarten... Am besten immer 200% mehr Leistung, bei nur noch 50% Verbrauch und das am besten für max. 250 Euro... Die Physik können auch die nicht aushebeln... Und irgendwo hat eben auch jeder Prozess seine Grenzen.

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Warten wir ja erst mal den 25.ten ab und wohl nur wenige Tage danach sollten wohl die ersten Reviews eintrudeln, hoffen wir mal mit AMD zugesendeten Treibern welcher die volle Leitung zeigt.
Recht clever zuerst einen TechDay zu veranstalten, und erst nach jenem sollten die Online Tester so langsam die Karten in Ihren Händen halten, die sicheren Quellen sollten wohl schon die Exemplare in den Händen halten,- und gaben dennoch einige Häppchen für uns Spekulanten preis :-)
Rechne schlussendlich wird es mit dem Standard Takt 940/ 1020 GPU Boost wohl auf Titan +15% hinauslaufen.
Die GTX 780 taktet auch mit 837 Mhz und der GPU Boost beläuft sich auf etwa 906 bis 920 Mhz.
 
Zuletzt bearbeitet:
Wenn ein Gerät nur dann seine volle Leistungsfähigkeit entwickelt (vom Hersteller zugesicherte Spezifikationen, OC außerhalb dieser ist damit nicht gemeint), wenn man die vom Hersteller vorgesehenen Defaultwerte händisch anpassen muss und\oder das Maximum nur mit Wakü etc. erreicht, stimmt etwas mit der zu Grunde liegenden Technologie nicht.

Wenn der Boost so schlecht wäre, dann wird AMD wohl sicherlich diesen nicht in einer sehr ähnlichen Form nutzen (grob tun das ja schon die 7970 GE und HD 7970 Boost - und ja, auch Temp-abhängig) - Bonaire macht's vor.

Das ist wohl eher dem Marketing als einer tatsächlichen technischen Notwendigkeit geschuldet.


@Blutwolf

Aber 1020Mhz takt um eine 837Mhz titan zu schlagen ist nun auch nicht so der hit.
Da drehste die AMD mit ner Titan@1000Mhz durch den fleischwolf

Wieso das? Der Titan - ich nehme mal an, es war sogar eine mit 80er ASIC - stand immer noch ihr ach so toller Boost 2.0 zur Verfügung.
 
Zuletzt bearbeitet:
Ich Frage mich immer was manche von Hardware Herstellern erwarten... Am besten immer 200% mehr Leistung, bei nur noch 50% Verbrauch und das am besten für max. 250 Euro... Die Physik können auch die nicht aushebeln... Und irgendwo hat eben auch jeder Prozess seine Grenzen.

Gesendet von meinem GT-I9300 mit der Hardwareluxx App

Wir haben in HWL lauter Techniker und Ingenieur die kennen sich halt aus mit GPU`s. :lol:
Von Beruf sind die wahrscheinlich Metzger oder LKW Fahrer, Schreiner, Friseuer, aber wenn es um GPU geht WoW haben die es drauf ohne Ende leider kann NV oder AMD diejenigen keine Arbeitsplatz geben wegen Überqualifiezierung :d
 
Wenn die AMD 1020 MHz durch umlegen eines Schalters schaft ist das für mich Stock/Boost vergl. Titan. Es geht doch nicht um Leistung pro Takt sondern um Leistung über Alles. Die Frage die dann noch bleibt ist der Verbrauch. Der Quotient aus Leistung pro Watt ergibt dann die Effizienz einer Architektur. Das allerdings auch nur bei gleichem Herstellungsverfahren.
 
Aber 1020Mhz takt um eine 837Mhz titan zu schlagen ist nun auch nicht so der hit.
Da drehste die AMD mit ner Titan@1000Mhz durch den fleischwolf
Da liegt meiner meinung nach deutlich leistung brach wenn das teil wirklich 2816shader mit 44Rops und 512Bit hat.
AMD traue ich das sehr gut zu das sie wieder zu dumm sind einen richtigen treiber von start weg zu liefern.
Denke das flimmern wird da auch nicht besser zur HD7970.

Auf jedenfall bräuchte NV nun nur noch ne 780ultra und Titan ultra bringen und schon hätte man wieder zwei modele die die AMD plätten

Hier wurde ja mehrfach gesagt, dass an der Titan garantiert der Boost-Takt anlag - und dass dieser nicht bei 837MHz gelegen haben dürfte, sollte auch klar sein.
Und wenn hier die Leute schon damit kommen, dass man bei der Titan "Ja nur eine Wasserkühlung braucht um daraus 1200MHz herauszuholen", dann vergleicht bitte nicht Äpfel mit Birnen. An eine R9 kann man auch eine Wasserkühlung dranhängen. Wie das dann aussehen wird, dürften die Reviews zeigen.
 
Seit ich Wakü habe habe ich konstant 1200Mhz ohne Wakü keine schanze. Die meisten nehmen diesen Wert 1200Mhz als Standart weil ein TITAN oder GTX780 packt aber bei den meisten von ihnen wird zu 99% ohne Wakü diesen Takt nicht konstant halten können. Powerplay betreibt mit Luftkühlung und offene Case dazu bläst eine Ventilator kalte Luft auf seine Karten. So kann ich mir vorstellen das er diesen Takt auch packt aber mit Referenz Kühlung wird keiner hier im Forum diese 1200Mhz auf dauer betreiben können.
 
Zuletzt bearbeitet:
@ Powerplay

Du wieder mit dein Takt.
Selbst wenn sie 3000 MHz brauch um schneller zu sein ist es doch egal solange der verbrach niedriger oder gleich auf ist . Es gibt viele Wege aber nur was hinten raus kommt zum angemessenen Preis zählt.
Ist echt immer das gleiche mit dir.
Bei mir Flimmert auch mein Desktop nicht, Irgendwie redest und siehst nur du die abnormalen, Heftigen, Übelst und Krassen Unterschiede in Sachen Bildqualität usw.
 
Grafik Fehler kaputte Wasser in BF3 mit NV Karten sieht er aber nicht :lol:
 
Zuletzt bearbeitet:
Wir haben in HWL lauter Techniker und Ingenieur die kennen sich halt aus mit GPU`s. :lol:
Verwechselst du das jetzt mit dem 3DCenter? Da ists wirklich so...

@ Powerplay

Du wieder mit dein Takt.
Selbst wenn sie 3000 MHz brauch um schneller zu sein ist es doch egal solange der verbrach niedriger oder gleich auf ist . Es gibt viele Wege aber nur was hinten raus kommt zum angemessenen Preis zählt.
Ist echt immer das gleiche mit dir.
Dem kann man nur zustimmen. Takt und co interessieren 'nen feuchten, alles was interessiert, ist der Verbrauch bei der Leistung - und genau DAS könnte nV jetzt echt zu schaffen machen. Insbesondere wenn AMD auch ein 1:2 DP Verhältnis implementiert hat, haben die Professionellen Version ein enormes Problem...
 
Ich finds immernoch etwas enttäuschend, nach knapp zwei Jahren, ok lassen wirs eineinhalb sein, "nur" auf Titan Niveau zu kommen.
Erstmal solltest du dich informieren, anstatt Blödsinn zu erzählen :rolleyes:

GK110 (Titan) = 550mm²
Hawaii (R9 290X) = 420mm²

Wie du siehst braucht Nvidia für die selbe Performance 30% mehr Chip Fläche.

Was haben die die ganze Zeit gemacht?.
Trinity/Richland, Kabini/Temash, Vishera, Steamroller/Kaveri, Volcanic Islsands & ARM.
 
Zuletzt bearbeitet:
Ich finds immernoch etwas enttäuschend, nach knapp zwei Jahren, ok lassen wirs eineinhalb sein, "nur" auf Titan Niveau zu kommen.
Dann verrate mir doch mal, was du bei gleicher Fertigung und gut 15% mehr Chipfläche für Wunder erwartest? Sollte AMD mit gleichem Energiebudget mindestens 25-30% an Performance zulegen, wäre das schon ein super Ergebnis. Schau dir mal an, was Nvidia mit höherem Energiebudget und fast 90% mehr Fläche im Vergleich zur GTX 680 bietet. ;)
 
Ich vermute fast, dass wir auf absehbare Zeit nicht mehr so große Leistungssprünge sehen, denn momentan scheint die Branche deutlich mehr mit der Energieeffizienz beschäftigt zu sein.
Hat natürlich den Vorteil, dass man mit einer Titan keine Angst haben muss, dass die schnell zum alten Eisen gehört, sondern die wird noch eine ganze Weile ausreichen, genau wie das entsprechende AMD Gegenstück.
Wenn man einmal von Battlefield 4 absieht scheinen mir jetzt auch keine Spiele am Horizont zu stehen, die ein solches System an die Leistunsgrenze bringen, wenn man von enormen Auflösungen einmal absieht.
Es gibt ja auch schon Gerüchte, dass selbst Intel nur noch alle 2 Jahre ca. 10% Leistungszuwachs für den Desktop einplant, weil der mobile Sektor mit effizienten Prozessoren deutlich wichtiger geworden ist.
Zumal sich Intel das ohne Probleme leisten könnte, weil die Prozessoren sowohl in Leistung als auch Energieeffizienz den AMD CPUs deutlich überlegen sind.

Ob das natürlich so stimmt werden wir erst in 2 Jahren sehen, es wäre jedenfalls plausibel.
 
Zuletzt bearbeitet:
Ich vermute fast, dass wir auf absehbare Zeit nicht mehr so große Leistungssprünge sehen, denn momentan scheint die Branche deutlich mehr mit der Energieeffizienz beschäftigt zu sein.
Natürlich sind weiterhin größere Sprünge möglich, es muss nur der richtige Prozess eingesetzt werden, die Architektur auf einem neuen Prozess anpassen sollte kein Problem sein ;)
 
Ist ja auch logisch, dass die Entwicklung dahin geht. Jeder schreit nach sparsameren Artikeln, sei es Autos oder im PC. Mir persönlich ist der Verbrauch meines PCs egal, weil er eben nicht 24/7 läuft, vielen jedoch nicht! Und warum sollte Intel/AMD einen 8 GHz 24 Core für 349 Euro bringen bzw. hier eben AMD/Nvidia eine Karte die 3x Titan bei 150 Watt und ebenfalls 349 Euro erreicht? Die Leistung der momentan verfügbaren Hardware reicht für 99% der Käufer aus bzw ist dort nicht mal richtig ausgelastet... Bei den meisten hier wird das ähnlich sein. Nur weil es früher gefühlt mehr Leistung gab und wegen dem "haben wollen" Faktor ist jeder immer gleich am heulen....
 
Ich sagte ja nicht, dass es nicht möglich wäre, sondern, dass die Branche momentan den Fokus eher auf Energieeffizienz setzt und Leistung und Energieverbrauch stehen in einem Spannungsverhältnis. Natürlich kann sich beides durch neue Architekturen und Fertigungsmethoden verbessern aber innerhalb der selben Architektur und Fertigung muss ich Prioritäten setzen.
Normalerweise steigt innerhalb einer Architektur und Fertigung der Energieverbrauch ja nicht linear an, das kann man ja häufig bei Übertaktungen betrachten.
 
Zuletzt bearbeitet:
Wenn man einmal von Battlefield 4 absieht scheinen mir jetzt auch keine Spiele am Horizont zu stehen, die ein solches System an die Leistunsgrenze bringen, wenn man von enormen Auflösungen einmal absieht.

Also ich bring meine Titan locker zum Einbrechen @1080p (Cry Engine 3 sag ich nur). Gerade im Bezug auf 120Hz Monitore, wäre mehr Leistung wünschenswert! GPU Power kann man NIE genug haben. Gilt genauso für die CPU... Ich vermisse den Quantensprung wie damals mit einer 8800 GTX. Ich persönlich scheiss auf den Energieverbrauch. Wenn ich nen R8 fahre, interessiert mich der Spritverbraucg herzlich wenig...

Gesendet von meinem GT-I9300 mit der Hardwareluxx App
 
Natürlich sind weiterhin größere Sprünge möglich, es muss nur der richtige Prozess eingesetzt werden, die Architektur auf einem neuen Prozess anpassen sollte kein Problem sein ;)
Nein, sinds nicht, siehe 3DCenter. Gipsels Argumente mit der Fertigung.

Und genau das ist ja auch der Punkt:
Früher hat ein neuer Prozess mal eben so 50% mehr Transistoren bei halbem Powerbudget gebracht - heute kann es sinnvoller sein einen gröberen Prozess zu nutzen!
Da hat man dann u.U. ein etwas größeres Die. Aber das wäre dann der einzige Nachteil, den man vom gröberem Prozess hätte!
Alle anderen Parameter müssen sich nicht zwangsläufig positiv verändern...

Ich vermisse den Quantensprung wie damals mit einer 8800 GTX.
...der nur möglich war, weil nV mit dem Vorgänger einen richtigen Fuckup gelandet hat. (Wennst nicht glaubst, schau mal Benches mit halbwegs modernen Spielen auf nV30, 40, G70 an)...
Denn es gab da einige Abhängigkeiten von TMU <-> Shader. Bei AMD war das ganze aber schon seit R300 (innerhalb eines Quads) entkoppelt!

Auf gut Deutsch:
Bei AMD haben Shader/Texturoperationen nix blockiert. Bei nVidia war das aber der Fall, dass die Pipeline gestallt werden kann, wenn man bestimmte Operationen durchführt. Das wurde mit dem G80 dann behoben, daher auch der rel. große Leistungszuwachs.
Gut, man hat auch so a bisserl aufs Power Budget geschissen und eine Karte mit sehr hoher Leistungsaufnahme gebracht - AFAIR im Bereich von 50-100% mehr Verbrauch als der Vorgänger...
(die D3D9 Generation war im Worst Case bei etwa 120W)

Ich persönlich scheiss auf den Energieverbrauch. Wenn ich nen R8 fahre, interessiert mich der Spritverbraucg herzlich wenig...
Ja, schön für dich. Nur wie soll man das kühlen?!
Das bekommt man doch z.T. schon mit aktuellen Designs wie Titan nicht gebacken...
Außerdem: Maximal spezifiziert sind 375W!

Ich glaub, du hast noch nicht gecheckt, dass die Rechen-Leistung in diesen Tagen einzig und allein von der Wärmeverlustleistung limitiert wird - und das wird sich auch in Zukunft nicht ändern!

Es ist ja schön, wenn du mit einer 500W oder 600W Grafikkarte leben könntest, andere können (oder wollen) das aber nicht...
 
Autovergleiche sind immer sehr schwierig, da es hier (bei den Grafikkarten) ja um das Delta zur Vorgängergeneration geht und nicht um den absoluten Stromverbrauch. Ein neues Stück Hardware kann immer noch eine höhere Leistung haben bei geringerem Stromverbrauch aber es wird eben vermutlich(!) nicht mehr so sein, dass ein Hersteller sagt "ok, wir können jetzt diese Grafikkarte mit doppelter Leistung bauen und nehmen dafür einen um 180% erhöhten Stromverbrauch hin".
Selbst in der Autoindustrie ist ja momentan häufig (also nicht bei jedem Modell) das Ziel, dass ein entsprechender Nachfolger zumindest weniger Benzin verbraucht wie das Vorgängermodell, bei gleicher Leistung.

Und natürlich wird es auch immer Karten/Autos für absolute Enthusiasten gehen aber ich glaube, dass auch dort - im Vergleich zum Vorgänger - nicht mehr diese enormen Sprünge zu sehen sind, wie bei Deinem 8800 GTX Beispiel.

Mein Vorposter hat ja auch schon gesagt, dass die Thermik eine entscheidende Rolle spielt. Daher wird alleine dadurch schon das Wachstum begrenzt, von daher sind also auch die Leute, die später ein richtiges Highendsystem wollen darauf angewiesen, dass die Abwärme im Rahmen bleibt.
Wir können uns ja einmal ansehen wie sich die TDP von den ersten Pentiums bis jetzt entwickelt hat.
 
Zuletzt bearbeitet:
Nein, sinds nicht, siehe 3DCenter. Gipsels Argumente mit der Fertigung.

Und genau das ist ja auch der Punkt:
Früher hat ein neuer Prozess mal eben so 50% mehr Transistoren bei halbem Powerbudget gebracht - heute kann es sinnvoller sein einen gröberen Prozess zu nutzen!
Da hat man dann u.U. ein etwas größeres Die. Aber das wäre dann der einzige Nachteil, den man vom gröberem Prozess hätte!
Alle anderen Parameter müssen sich nicht zwangsläufig positiv verändern...
Bisher hat AMD mit einem neuen Prozess die Anzahl der Transistoren mind. verdoppelt.
Das ist immer noch möglich, man braucht nur den richtigen Prozess!
Es könnte sein das AMD in Zukunft auch GPUs bei Globalfoundries produzieren lässt, dann hätte man andere Vorteile gegenüber TSMC,
wegen Gate-Last vs. Gate-First sollte der Chip bei Globalfoundries 20% kleiner sein als bei TSMC, das gilt zumindest bei 28nm!
Die Grenze ist noch lange nicht erreicht, der 14XM Prozess ist 20nm Basis mit 3D Transistoren, hier erwarte ich doppelte Performance gegenüber 28nm HP!

Der neue Hawaii Chip ist lediglich ca. 420mm² groß, das ist weit entfernt von Nvidias GK110 aka Titan,
bei 550mm² kann AMD ohne Probleme einen weiteren Chip mit z.b. 3584 Einheiten präsentieren, eine CU mit 64 Shader ist nur 5-6mm² groß.
 
Zuletzt bearbeitet:
Also ich bring meine Titan locker zum Einbrechen @1080p (Cry Engine 3 sag ich nur). Gerade im Bezug auf 120Hz Monitore, wäre mehr Leistung wünschenswert! GPU Power kann man NIE genug haben. Gilt genauso für die CPU... Ich vermisse den Quantensprung wie damals mit einer 8800 GTX. Ich persönlich scheiss auf den Energieverbrauch. Wenn ich nen R8 fahre, interessiert mich der Spritverbraucg herzlich wenig...

Gesendet von meinem GT-I9300 mit der Hardwareluxx App

Super, ich bringe meine 2 7970 auch an die Spitze wenn ich das will, und? Der Anteil an Käufern denen es so geht, wird sich auf so wenig belaufen, dass es eben keine "Auswirkungen" hat. Würdest du als Herrsteller lieber 2 Gamer mit einem Grafikmonster zufrieden stellen wollen oder lieber 1000 die nur normale Leistung brauchen bzw bei denen eine nV660/AMD7870 schon mehr als ausreicht? ;)


Aus Herstellersicht ist es einfach sinnlos ein GPU Monster mit Riesen-Die und haufen Leistung zu bringen, der dann 400+ Watt verbraucht. Zumal dann eben auch die die hier immer mehr und viel Leistung wollen wieder rumheulen würden ;)
 
Zuletzt bearbeitet:
Was ich enttäuschend finde ist ja, dass die Dinger immer noch keine integrierte Kaffeemaschine besitzen... :d Bei der ganzen Abwärme sollte man die mal effektiv nutzen... :d
 
Klingt nach einer echten Marktlücke und bei meinem Kaffeeverbrauch würde ich da sogar Geld sparen.
 
Was ich enttäuschend finde ist ja, dass die Dinger immer noch keine integrierte Kaffeemaschine besitzen... :d Bei der ganzen Abwärme sollte man die mal effektiv nutzen... :d

Das ist auch verständlich,schließlich steigt die Anzahl derer, die Kakao präferieren, so das man sich nicht auf ein endgültiges Getränkeformat einigen konnte. Eventuell hält auch ein properitärer Mix aus Malzkaffee und Krümeltee Einzug.
 
Aber 1020Mhz takt um eine 837Mhz titan zu schlagen ist nun auch nicht so der hit.
Da drehste die AMD mit ner Titan@1000Mhz durch den fleischwolf
Da liegt meiner meinung nach deutlich leistung brach wenn das teil wirklich 2816shader mit 44Rops und 512Bit hat.
AMD traue ich das sehr gut zu das sie wieder zu dumm sind einen richtigen treiber von start weg zu liefern.
Denke das flimmern wird da auch nicht besser zur HD7970.

Auf jedenfall bräuchte NV nun nur noch ne 780ultra und Titan ultra bringen und schon hätte man wieder zwei modele die die AMD plätten

Welche titan taktet mit 837???
Die schlechtesten asics laufen schon 960!!!
die besten 1013!
weist du was die da getestet haben?

Gesendet von meinem U9200 mit der Hardwareluxx App
 
Die R9-290X mit 1,3Ghz OC (WaKü) wird bestimmt eine interessante Karte.
 
Dann gebe ich dir Hand und Segel das der Powerplay die Karte sofort Kauft ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh