AMD Radeon RX Vega 64 und RX Vega 56 im Test

Gravitationsfeld ist Dev und Pixeljetstream ist deutscher Nvidia Mitarbeiter!
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Gravitationsfeld ist Dev und Pixeljetstream ist deutscher Nvidia Mitarbeiter!
Nochmal : nVidia hat keine deutschsprachigen Devs.
Die Aussagen von ihm wirken aber auch nicht als ob er irgendwie was mit nV zu tun hätte.
Schau dir Mal an wie er schreibt
 
Ich verstehe nicht, wieso in diesem AMD thread, nun nvidia so sehr thematisiert wird. :confused:
 
Nochmal : nVidia hat keine deutschsprachigen Devs.
Die Aussagen von ihm wirken aber auch nicht als ob er irgendwie was mit nV zu tun hätte.
Schau dir Mal an wie er schreibt

Nvidia hat deutssprachige Mitarbeiter! Vielleicht nur nicht in deinem Bereich. Ließ doch noch so was Pixeljetstream sonst so schreibt. ;)
 
Nvidia hat deutssprachige Mitarbeiter! Vielleicht nur nicht in deinem Bereich. Ließ doch noch so was Pixeljetstream sonst so schreibt. ;)
Ändert nichts an meiner Aussage : Marketing und Vertrieb ja , Dev nein.
Und : es ist eben alles Open Source und kann eingesehen werden
 
Bemühen Mal das Internet ;)
Ach daher kommt es : Informier dich Mal was DevTech und Nvidia selber unterscheidet .
DevTech weiß eben nichts über die Treiber , macht aber Support für Firmen die mit nV zusammen arbeiten.
Sie sind im Grunde die externen Dienstleister von nV
Wir hingegen haben nen direkten Vertrag mit nVidia da sie uns mit den Chips beliefern.
Sei's drum, die Open Source Aussage bleibt dennoch , auch wenn einige User anscheinend nicht Source Code lesen können aus dem anderem Forum.
Ich habe auch nie behauptet die Doku wäre nicht ne Katastrophe, man muss schon echt viel low level Kram lesen aber es ist alles da ;)
 
Ach daher kommt es : Informier dich Mal was DevTech und Nvidia selber unterscheidet .
DevTech weiß eben nichts über die Treiber , macht aber Support für Firmen die mit nV zusammen arbeiten.
Sie sind im Grunde die externen Dienstleister von nV
Wir hingegen haben nen direkten Vertrag mit nVidia da sie uns mit den Chips beliefern.
Sei's drum, die Open Source Aussage bleibt dennoch , auch wenn einige User anscheinend nicht Source Code lesen können aus dem anderem Forum.
Ich habe auch nie behauptet die Doku wäre nicht ne Katastrophe, man muss schon echt viel low level Kram lesen aber es ist alles da ;)

Hau doch Mal raus für was und wen du arbeitest du super Dev!

Wieso habt Ihr eine Vertrag mit Nvidia wenn doch alles Open Source ist?
 
Zuletzt bearbeitet:
Hau doch Mal raus für was und wen du arbeitest du super Dev!
Wieso muss ich mich rechtfertigen ?
Du hast haltlose Behauptungen gemacht , wer trollt denn nun ?
Für jmd der mir wahrscheinlich nicht mal Pointer erklären kann bläst du dich ganz schön auf
 
Du trollst doch das du super Dev bist! Ich hab einen Link zu Leuten gepostet deren Historie nachweislich auf Firmen zurückzuführen ist. Bei Dir weiß man gar nichts!
 
Du trollst doch das du super Dev bist! Ich hab einen Link zu Leuten gepostet deren Historie nachweislich auf Firmen zurückzuführen ist. Bei Dir weiß man gar nichts!
Hey du musst mir nicht glauben , tu es am besten nicht . Ich verrate dennoch nicht für wen ich arbeite, das trete ich nicht öffentlich breit
Registriert dich und schau nach ob die sourcen öffentlich sind und dann ist Ruhe
 
Im Gegensatz zu dir bin ich kein Softwareentwickler und Maße es mir auch nicht an! Man muss ja nur Mal deine Beiträge hier verfolgen!
 
Zuletzt bearbeitet:
Und warum behauptest du dann nV macht kein Open Source ? Das ist keine Anmaßung ?

Weil ich besagte Quelle aus dem 3dcenter von den "nachweislichen" devs gelesen habe. Und wenn du gelesen hättest habe ich gesagt das ein großer "Teil" nicht Open Source ist.
 
Zuletzt bearbeitet:
Weil ich besagte Quelle aus dem 3dcenter von den "nachweislichen" devs gelesen habe. Und wenn du gelesen hättest habe ich gesagt das ein großer "Teil" nicht Open Source ist.
Sorry hat etwas gedauert.
Ich musste Mal in den sourcen suchen.
Da wir nichts mit Hairworks machen hatte ich es nicht im Fokus und siehe da : Nicht zu finden im Repository.
In dem Punkt hast du Recht !
Noch als Info : Godrays sind auch nicht Open Source aber laut Releasemap bald
Nvidia gaukelt also echt nur Open Source vor , jetzt bin ich dem Marketing Bla bla auf den Leim gegangen :/
 
Nunja das belegen mehr als genug Tests oder besser gesagt gibt es nicht mal ein test der das gegenteil behaupted. Also könnt man das schon einen fakt nennen, den fiktion ist es kein. Oder willst du jetzt sagen das was ich als Fakt genannt habe nicht stimmt?


Du weißt nicht was ein Fakt ist. Lautstärke von Grafikkarten ist ein subjektives empfinden. Für einige ist 50 db viel zulaut, für einige ist es ok, für andere ist es unhörbar. Also ja, dass was du aufzählst kann für dich stimmen, sind aber lange noch keine Fakten.

Paddy92, slot108, Powl. Ihr seid niedlich. Jedoch hast du tatsächlich recht. Ich habe ein schlechtes Beispiel rausgesucht, mir war die Zeit zuschade. Nur kannst du damit auch die Probleme der GPU erklären? Denn die GPU zeigt das selbe Spiel.
The Pascal Problem - YouTube
Wer sich das ganze Video nicht angucken will ein TLDW: Mit Stock Core-Takt und Stock Mem Takt kriegt er im ersten Benchmark ~37fps. Die Karte stark undervolted aber Core übertaktet (nahezu 2.1 ghz) schafft er ~24 fps. Mem Takt wurde nicht angefasst.
"Buildzoid speculates that the Pascal chips have some kind of on-board power management chip that downclocks the core (invisible to software) or disables parts of it when the core voltage supplied is not sufficient to sustain the current load. As a result, GPU-Z and other measurement suites may be fooled into thinking the GPU core is running at a higher frequency than it actually is. Hence, you might end up with lower benchmark scores even though you have the core overclocked to run at 'higher' clock frequencies."
Der Takt der bei GPU-Z angezeigt wird, bleibt auf dem übertakten Stand und stabil. Nun gibt es natürlich durch GPU Boost die schöne Kurve die man jedes mal neu anpassen muss, diese hat er unangetastet gelassen um den Test nicht zu verfälschen. Dieses Problem tritt weiterhin auf. Das ist das Problem was ich meinte und ich hatte nur den ersten Post vorhin aus dem reddit genommen - da ging es leider nur um Memory wie Ihr angemerkt habt ein normales Verhalten ist - mein Fehler. Eine andere Spekulation ist das zwar der Takt gehalten wird, jedoch Shader oder ähnliches durch das Undervolting abgeschaltet werden. Darüber gibt es auch bis jetzt nur Spekulationen. Entweder Takt wird gehalten und irgendwo anders wird etwas abgeschaltet, oder Takt wird nicht gehalten - wird aber nicht sichtbar angezeigt.
 
der Junge in dem Video tangiert mich persönlich überhaupt nicht. mir ist komplett egal, was der erzählt. du kommst uns jetzt mit einem Video von irgendeinem 16-jährigen Emo-Opfer, der uns über das "Pascal-Problem" aufklären will? von dem wir hier im Forum (und in anderen) never ever was gehört haben? und jetzt kommt der Gral der Weisheit wieder mal aus der AMD-Ecke? der Junge kommt mir vor du und deine geile Fehlerkorrektur der Pascalkarten.
und werd jetzt nicht wieder persönlich!
 
Der hat das aber ganz gut dokumentiert in dem video denke ich was da so passiert beim pascal UV. :)
 
Zuletzt bearbeitet:
Mich interessiert der "Junge" auch nicht, aber der Test den er durchführt. Komisch - im reddit kennen die Leute das Problem und konnten das Problem nachstellen. Auch im techpowerup Forum habe ich davon was mitgekriegt. Es ist also eindeutig nicht unbekannt.

Und du erzählst was von "Emo-Opfer", aber willst nicht das man dir gegenüber persönlich wird. Hmm. ;)

Edit: Und natürlich kommt es aus der AMD-Ecke. Denn der Typ der alles aus seiner Nvidia Karte rausholen wollte dieses Problem bemerkt hat, so ein übler AMD Fanboy ist das er sich für max-oc Tests Nvidia Karten holt...^^ Komm bitte.. Und wenn du mich meinst. Finde einen Post von mir in den 9 Jahren wo ich Nvidia schlecht mache. Nur einen einzigen. Ich bin auf das Problem gestoßen weil ich mir auf allen Seiten Reviews von GTX 1060/RX580 Karten angeschaut habe, weil ich mich nicht entscheiden konnte, bzw ob es sich überhaupt lohnt umzusteigen. Ja ich hate gegen euch Fanboys weil Vega gerade neu draußen ist und in meiner nähere Wahl fallen könnte. Ich habe aber genauso auch gegen AMD-Fanboys gehatet als das GTX 970 3.5GB Problem bekannt wurde.. Wieso? Weil ich dieses Fanboy getue komplett verabscheue, in beide Richtungen. Einfach ein wenig Objektivität zeigen wäre halt vom Vorteil.
 
Zuletzt bearbeitet:
Dann mach das mal. Objektiv is an deinen posts jedenfalls nicht viel.
 
slot, buildzoid, das "emo opfer" im video, mag ne affige frisur haben, aber durchaus ahnung vom thema.

Schau dir seine bisherige arbeit an, der kerl weiß durchaus was es mit OC/UV auf sich hat, wie sich architekturen verhalten etc. Macht öfter auf xoc wettbewerben mit, macht für GN und privat sehr gute analysen über vrm, board layout etc.

Bleib doch bitte beim inhalt, aber einen beitrag als unzulässig abzuschieben weil dir der user dahinter nicht gefällt, ist dämlich.

Die gezeigten ergebnisse kannst du deswegen nicht einfach ignorieren.

Zumal er ebenso zu AMD vieles macht und das ohne wertung der firma, marke oder sonstwas, sondern pur anhand der erreichten zahlen und ergebnisse.

Sent from OP3T
 
@Sheena

Ja genau, das glauben wir dir jetzt auch alle. :rolleyes:

Das was da in dem Video beschrieben wird oder auch wovon du schreibst, ist ein ganz normales Verhalten, wenn eine Übertaktung nicht stabil ist! Dieses Verhalten hast du nicht nur bei Pascal sondern auch bei allen anderen GPUs und nicht nur bei GPUs, sondern auch bei CPUs. Manche User haben die Erfahrung gemacht, dass deren CPU weniger Performance trotz mehr Takt geliefert hat. Es ist einfach kein Pascal Spezifika. Such einfach mal ein bisschen und lies dich allgemein in dem Bereich OC ein, damit du wenigstens etwas Basiswissen hast.

Extrem witzig, dass du von Objektivität redest, aber anderen Falschaussagen unterstellst, obwohl du nicht in der Lage bist, diese zu entkräften. Oder das du nur reagierst, wenn man AMD hatedet.
 
Echt? Alle Karten haben dieses Verhalten? Es gibt keinen Absturz, keine Artefakte nichts was normalerweise auf unstabiles OC bei einer Grafikkarte hinweist, sondern die Karte bringt einfach nur die Hälfte der Leistung wobei keinerlei Taktveränderung festzustellen ist? DAS ist normales Verhalten bei Grafikkarten? Wenn das die Wahrheit ist bei allen Grafikkarten, ja, dann muss ich eingestehen das ich keine Ahnung habe. Ich kenne nur ein ähnliches Verhalten bei den Fiji Karten. Bei allen anderen habe ich sowas noch nie bemerkt.

Wo soetwas noch vorkommen kann ist wenn man bei GPU-Boost ins Temp-Limit rennt, dann sieht man die Karte aber runtertakten. Oder auch bei GPU/CPU´s das die bei zuviel Hitze drosseln, aber auch das wird angezeigt. Aber bei diesem Test wurde darauf geachtet das keine Temperatur Probleme bestehen und trotzdem wurde ohne irgendeine Anzeige die Leistung gedrosselt. Also nein das habe ich noch nie gemerkt bei allen CPU´s oder Grakas wo ich bis jetzt dran rumgebastelt habe. Aber ich vertrau dir da einfach mal. ;)
 
So jetzt hab ich die Bescherung, weil ich billig eingekauft habe. Klar kann das alles nen Zufall sein, aber komisch kommt es mir trotzdem vor!
Beide Grafikkarten von Mindfactory ausm Mindstar sind defekt!!! :grrr::fire:

1. GPU = geht mitten im game (Prey anno '17) einfach aus. Andere games noch nicht getestet, aber die andere verursacht nicht diesen Absturz! dafür aber...
2. GPU = Hier spinnt das LED Band und zaubert ne herrliche Lichtorgel, sprich bei Vollauslastung flackern die LED's und nicht wie normal Dauerleuchten.

Ich könnt kotzen. Wer billig kauft stirbt billig oder wie war das?...

TanteEdit:
Also die mit dem LED Flackerbändchen behalte ich, dass stösst mir nicht so übel auf. Denn son LED Band ist ja fast nur Disco und kann deaktiviert werden und 2. wenn ich die als GPU2 für CF nutze stört mich das dann eh nicht, aber GraKa wo der PC einfach aus geht, ist nen No Go!
Mein NT ist es jedenfalls nicht, denn die Lichtorgelvega verursacht wie gesagt keinen Absturz.


Hmm, wenn nicht die Garantie flöten gehen würde bei Kühlerwechsel, würd ich ja noch mal versuchen nen WaKüler bei der Vega zu testen, die den PC ausschaltet, da es ja eventuelll nen Temp Prob sein könnte, aber vielleicht liegt es auch an einer fehlerhaften Spannungsversorgung, letzteres gehe ich eher von aus und das Risiko auf der GraKa dann sitzen zu bleiben geh ich nicht ein!

Was meint ihr, nicht lange fackeln und besser zurück schicken oder? :shake::hmm: :heul:

GPU-Z 2.3.0
GPU-Z - Download - ComputerBase

Unbenannt.png
 
Zuletzt bearbeitet:
Mal dass zweite BIOS getestet?
Alten Treiber mit DDU entfernt?
System Info noch aktuell?

Kommt mir komisch vor, das du gerade zwei Defekte Karten erwischt hast.
 
@Sheena

Dieses Verhalten tritt natürlich nur auf, wenn die Karte schon sehr nah an einem komplett stabilen Zustand ist. Sie ist halt noch nicht 100%ig stabil. Bei einer zu großen Instabilität stürzt die Karte irgendwann einfach ab oder fängt an Artefakte zu bilden. Und ich rede nicht von einer Verringerung der Leistung durch zu hohe Temps oder wenn eine Karte ins Powertargetlimit läuft, denn dann würde sich der Takt sichtlich verringern, sodass es mit entsprechenden Tools ausgelesen werden kann, wie du bereits angemerkt hast.

Ich hätte eigentlich wissen müssen, dass du diese Transferleistung nicht hinbekommst, sry my Bad.
Vor allem nachdem du versucht hast die Fehlerkorrektur vom Vram als Pascal Spezifika zu erklären. :hust:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh