NVIDIA plant dieses Jahr noch komplett mit Pascal-Architektur

....
Also lass das doch bitte mit dem wichtig machen und möchtegern seriösen Getue und finde zurück zu den Dingen die wirklich zählen..
...
Du meinst also, das Niveau von 5 Jährigen Menschen zu verbreiten? Ne, das überlasse ich lieber dir. Du kannst das ganz besonders gut:d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ohoho da habe ich bei dir wohl einen offen liegenden Fanboy-Nerv getroffen, großartig dass du dich selbst zum Affen machst:popcorn:
*Sarkasmus An* Ja ne is klar, wir im Desktop interessieren uns natürlich brennend für die Idle/YouTube Leistungsausnahme, weil dies dahingehend die wichtigsten Punkte sind *Sarkasmus Aus*
Manoman, das ist genauso interessant wie der Spritverbrauch eines Stillstehenden Elektroautos :rolleyes:

Schuss Realität gefällig...
attachment.php

... denn solch Grütze wie deine darf man nicht ungestraft stehen lassen.
 
Was wurde ich von den Forenbekannten Fanboys geflamed und der Lüge bezichtigt als ich gesagt habe das Vega nur die Fury X in neuer Fertigung mit HBM 2 ist..
Äh was? AMD macht sich also völlig umsonst die Mühe DC in den Kernel zu integrieren, damit die Vega auch Display Support hat, weil sie eigentlich eine Fury ist und deshalb der alte Treiber genutzt werden könnte und einfach durch eine Device Id ergänzt werden könnte. Ja sicher leb du ruhig weiter in deiner Traumwelt.
 
lll
Bei deiner Fanboy Keule ist es doch erlaubt zu sagen, dass ich keinen hohen Grad an Intellekt bei dir sehe. Mit einem Haswell und einer GTX 760 und der Aussage von mir, ich würde lieber eine 1070 als Vega 56 kaufen, ist es angebracht auch an deinem Verständnis zu zweifeln.

Müsste ich heute neu kaufen, würde ich einen 1600X und eine 1060 kaufen, weil ich nicht mehr Leistung brauche. Da ich aber schon einen 4670K habe und mir diese Leistung locker reicht, ich zB eine Grafikkarte kaufen müsste, würde es eben dann maximal eine 1070 werden.

Fan bin ich nur von mir selber. Fan von Firmen,/Personen/Vereine usw zu sein, sehe ich als extrem schwaches Selbstwertgefühl und das habe ich nicht.
 
Och nöö, jetzt sind ihm die Pseudoargumente komplett ausgegangen und beleidigt nur mehr, schade, hätte noch viel lustiger werden können :rolleyes:
Ach ich mach einfach weiter, weils grad so lustig ist...
Vega ist nicht nur bei der durchschnittlichen Leistungsaufnahme deutlich schlechter, auch der Sprung zur Maximalen Leistungsaufnahmen sind desaströs, zb benötigt eine GTX1070 von der Durchschnittsleistungsaufnahme auf Maximale Leistungsaufnahme etwa 9% mehr, eine GTX1080 16% mehr, jetzt wirds lustig, eine Vega56 schon 47%, und eine Vega64 35%, Ineffizienz Deluxe :hust:
Aber was macht das schon, ist euch doch egal ob 150watt oder 400watt gezogen werden :haha:
 
Zuletzt bearbeitet:
Wobei man auch den Grund der desaströsen Leistungsaufnahme nennen muss, AMD hat die Teile schon Stock an die Kotzgrenze und weit weg vom Sweetspot getaktet da ansonsten die Leistung richtig kümmerlich wäre..

Äh was? AMD macht sich also völlig umsonst die Mühe DC in den Kernel zu integrieren, damit die Vega auch Display Support hat, weil sie eigentlich eine Fury ist und deshalb der alte Treiber genutzt werden könnte und einfach durch eine Device Id ergänzt werden könnte. Ja sicher leb du ruhig weiter in deiner Traumwelt.

Eigentlich brauchtmans garnicht zu kommentieren, du schreibst schon selbst, Displayport kann die Fury 2.0 Jetzt auch, heftige Neuerung ! :lol:
 
Zuletzt bearbeitet:
Ja siehste und die Fury 1.0 kann es eben auch ohne dc. Klar Featueres fehlen wie Sound, Freesync und der ganze Kram aber ein Bild spuckt sie aus im Gegensatz zur VEGA.
DC ist ja nicht das einzige Beispiel:
Vulkan braucht mit VEGA Fixes: RADV Vulkan Driver Begins Seeing Fixes For Vega - Phoronix
Wieso ist doch nur ne Fury 2.0 mit Fury gehts doch.
Vulkan wird in der VEGA trotz Fixes noch deaktiviert. Ziemlich sinnlos wenn VEGA doch nur ne Fury 2.0 ist: Mesa Temporarily Disabling Support For Vega In RADV Vulkan Driver - Phoronix
Zeitgleich mit Vega versucht AMD im Kernel den Page Support zu vergrößern: Vega 10 Huge Page Support, Lower CS Overhead For AMDGPU In Linux 4.14 - Phoronix
Jetzt kann man natürlich argumentieren, dass VEGA ja mehr Speicherkapazität hat, nur hatten das andere Grakas vor VEGA ja auch schon.
Ich bin halt der Meinung, dass sich mit Vega nicht nur der Speichersupport, der Takt und die Shadereinheiten geändert haben, sondern sich durchaus was an der Architektur geändert hat, da sich AMD, Red Hat, Valve und die ganzen anderen Entwickler die ich vergessen hab (sind ja bei weitem nicht nur AMD Entwickler auch wenn sie den größten Anteil haben) sich wesentlich leichter mit der Treiberentwicklung getan hätten.
 
Das das nicht komplett ne Fury X ist sondern leicht was geändert wurde braucht man nicht diskutieren, nur so wirds halt nix mit dem Kampf gegen Nvidia..
Hier hätte man mal richtig auf die Kacke hauen müssen und was Neues entwickeln wie Ryzen.
 
Zuletzt bearbeitet:
Man muss aber auch bedenken das AMD Finanziell bei weitem nicht so gut aufgestellt ist wie nVidia oder Intel, ihre Ressourcen sind begrenzt und ich vermute das das meiste für Ryzen aufgebracht wurde, da dort AMD noch weiter hinterher hinkte als im GPU Bereich und mit dem Rest der Ressourcen nicht mehr möglich war als das was aus Vega wurde. (Meine persönliche Vermutung). Das sie zu spät kamen ist ärgerlich, die Leistung dürfte für 2017 aber noch gut reichen, was für mich aber ein absolutes No-Go ist ist der Stromverbrauch, sowie der teure Preis, der sich aber durchaus noch einpendeln könnte.

Edit: On Topic, wenn man ehrlich ist hat nVidia auch gar kein Grund dieses Jahr eine neue Generation zu bringen.
 
Zuletzt bearbeitet:
Können die bei AMD nicht ne Nvidia GPU zerlegen und mal kucken warum die besser sind?
 
Das würde aber auch nichts bringen, hinter jedem kleinen fitzelchen an Verbesserung steckt ein Patent.
 
Zudem, nur wenn du den Aufbau der Transistoren und Einheiten kennst, heißt das noch lange nicht, dass du verstanden hast, wie das alles zusammen funktioniert. Die werden sich gegenseitig schon ihre Architekturen unter der Lupe anschauen, da habe ich gar keine Zweifel dran.

Hinzu kommt: Eine GPU wird ja auch durch eine Art Firmware, das BIOS, bestimmter Microcode, etc. angesteuert. Das muss ja auch verstanden werden. Nicht ganz so Trivial wie eine Motorsäge zu kopieren (Referenz auf Stiehl und die Motorsägen aus China ;)).
 
Edit: On Topic, wenn man ehrlich ist hat nVidia auch gar kein Grund dieses Jahr eine neue Generation zu bringen.

Warum auch, der Zeitplan sah immer 1. Quartal 18 für die Volta GTX 2070/2080 vor.
Hierzu passt auch die riesige Menge an GDDR6 die für den Zeitraum bestellt wurde.

Bin mal gespannt ob die 8 GB Vram beibhalten werden, ich fürchte ja ..
 
Zuletzt bearbeitet:
Hauptsache Titan Volta kommt direkt als Vollausbau der Architektur und mit 16GB GDDR6 sowie gescheiter Spannungsversorgung ;) Wie auch immer die Nachfolger von 1070 und 1080 heißen mögen, keine Lust auf Custom Designs zu warten oder ne Founders Edition zu kaufen, dann lieber bei Release die Titan und nen Wasserkühler rauf da.
 
Ich erhoffe mir einfach die Leistung einer 1080Ti mit einem Stromverbrauch einer 1070. Ist das realistisch?
 
Die GTX 970/980 hatten auch keine neue Fertigung sondern nur ne optimierte und da war die 970 schon so schnell wie die 780 Ti..
 
Och nöö, jetzt sind ihm die Pseudoargumente komplett ausgegangen und beleidigt nur mehr, schade, hätte noch viel lustiger werden können :rolleyes:
Ach ich mach einfach weiter, weils grad so lustig ist...
Vega ist nicht nur bei der durchschnittlichen Leistungsaufnahme deutlich schlechter, auch der Sprung zur Maximalen Leistungsaufnahmen sind desaströs, zb benötigt eine GTX1070 von der Durchschnittsleistungsaufnahme auf Maximale Leistungsaufnahme etwa 9% mehr, eine GTX1080 16% mehr, jetzt wirds lustig, eine Vega56 schon 47%, und eine Vega64 35%, Ineffizienz Deluxe :hust:
Aber was macht das schon, ist euch doch egal ob 150watt oder 400watt gezogen werden :haha:
Gib bei Nvidia die Spannung frei und du wirst sehen wie der Verbrauch durch die Decke geht. Wenn ich sehe wie massiv der Verbrauch von 1.05 auf 1.093v steigt bei kaum vorhandener Mehrleistung, gilt hier das gleiche und auch Pascal wird weit über dem Sweetspot betrieben. Mit. 0.8 v bei 1700mhz mal eben 40 % weniger bei knapp 10% Minderleistung

Gesendet von meinem GT-I9300 mit Tapatalk
 
@III was glaubst du den?

Natürlich läuft Pascal oberhalb vom Sweetspot, meine 1080 kommt ordentlich runter mit dem Verbrauch, wenn ich ihr die Spannung nehme und nicht mit 2100 sondern z.b. mit 1750 takte... das sind locker mal 40-70W weniger und nicht vergessen... die 180W TDP sind Werksangaben unter OC zieht meine 1080 auch mal 240W, leistet dafür halt ca 20-25% mehr wie Stock.

Diese Relation fehlt aktuell bei AMD einfach, ich glaube aber auch daran, dass da noch Treiber kommen werden die das Regeln, schau dir Linux an, AMD ist mit der RX64 ohne irgendwelche Optimierung an der Versorgung und am Takt, vor einer 1080-Ti und dort gehört die RX64 an sich auch hin, sei es von den Flops oder einfach nur, weil wir Konkurrenz brauchen, am Ende zahlen wir sonst 1000€ für eine 2040 GTX und die Titan kostet dann 4.000€....
 
Gib bei Nvidia die Spannung frei und du wirst sehen wie der Verbrauch durch die Decke geht. Wenn ich sehe wie massiv der Verbrauch von 1.05 auf 1.093v steigt bei kaum vorhandener Mehrleistung, gilt hier das gleiche und auch Pascal wird weit über dem Sweetspot betrieben. Mit. 0.8 v bei 1700mhz mal eben 40 % weniger bei knapp 10% Minderleistung

Gesendet von meinem GT-I9300 mit Tapatalk

Also wenn ich basteln muss, um bei Nvidia den Verbrauch radikal zu erhöhen, ist das ein Argument für AMD, bei denen ich basteln muss, um den Verbrauch radikal zu senken.

@ Tzumanik Wow 350 Mhz weniger und nur 40-70 Watt. Sweetspot heißt eigentlich was Anderes. Schon nur durch minimale Senkungen der Spannung bekommt man eine starke Energieeinsparung. Bzw schon ein paar MHZ mehr sorgen für einen enormen Anstieg beim Verbrauch.

GeForce GTX 1080 Gaming X im Test: MSI Twin Frozr VI trifft auf NvidiaÂ*Pascal (Seite 4) - ComputerBase

Die Amp hier wäre über dem Sweetspot. Oder die MSI und die Evga. Weil man für die 1-3 % die man den anderen Karten voraus hat mal eben 10-20 % mehr schluckt. Bei den anderen Karten sind es für 10 % mehr Leistung (gegenüber einer FE) für 18-20 Watt Mehrverbrauch.
 
@ Tzumanik Wow 350 Mhz weniger und nur 40-70 Watt. Sweetspot heißt eigentlich was Anderes. Schon nur durch minimale Senkungen der Spannung bekommt man eine starke Energieeinsparung. Bzw schon ein paar MHZ mehr sorgen für einen enormen Anstieg beim Verbrauch.

GeForce GTX 1080 Gaming X im Test: MSI Twin Frozr VI trifft auf NvidiaÂ*Pascal (Seite 4) - ComputerBase

Die Amp hier wäre über dem Sweetspot. Oder die MSI und die Evga. Weil man für die 1-3 % die man den anderen Karten voraus hat mal eben 10-20 % mehr schluckt. Bei den anderen Karten sind es für 10 % mehr Leistung (gegenüber einer FE) für 18-20 Watt Mehrverbrauch.
MSI ist bei der Stromaufnahme leider immer sehr großzügig, deren Gaming Reihe immer ganz oben dabei was den Verbrauch angeht. Andere Hersteller sind deutlich darunter bei vergleichbarer Leistung.
 
Ich wollte ja nur Beispiele für einen Sweetspot geben.
 
Was ich hier lese geht echt auf keine Kuhhaut mehr, müssen ja ziemlich mim Arsch an der Wand sein die AMD Fans bei dem Zeug was hier verzapft wird.. :stupid:
 
SweetSpot von Pascal wird denke ich mal genau der Basistakt sein. Also der Punkt wo wirklich die höchste Effizienz erreicht ist.

Umso höher dann der Boost und OC gehen umso niedriger wird die Effizienz. Dennoch natürlich noch weit vor Vega...

Bei den Nvidiakarten der letzten Jahre ist die Kurve aber allgemein relativ abgerundet, bei AMD ist das ja meist ein heftiger Knick im Effizienzgraphen und die Karten werden Werksseitig noch Richtung nach dem Knick getaktet, deswegen die miese Effizienz. Runtergetaktete AMD Karten sind von der Effizienz gar nicht so schlecht (weshalb Miner das runtertakten ja machen), die Nano die im Sweet Spot (~850MHz) lief war schon relativ in der nähe von Nvidias damaliger Effizienz.

Nur wenn AMD die Karten mit Takt im Sweet Spot verkaufen würde, wäre die Leistung ja schlechter - bei gleichen preisen für die Karten. Und der Kunde kauft nach Leistung.
und dann kommen so gnadenlos hochgetaktete Modelle ohne OC Reserve mit mieser Effizienz raus.
 
Zuletzt bearbeitet:
Um das Ganze auf den Punkt zu bringen, AMD verkauft die Karten bis an die Kotzgrenze getaktet um überhaupt mithalten zu können, eben weil sie technisch hintendran sind.
 
Um das Ganze auf den Punkt zu bringen, AMD verkauft die Karten bis an die Kotzgrenze getaktet um überhaupt mithalten zu können, eben weil sie technisch hintendran sind.

Um es auf den Punkt zu bringen. Das Referenz-Design war bei AMD noch nie wirklich optimiert. Oder wie erklärst du die 20% Einsparpotenzial bei gleichzeitig 20% Mehrleistung durch OC und Undervolting bei der Vega56.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh