Grafikkarte bis Ende Sommer - Fury, 480,1060,gebraucht?

Würde da direkt mal auf den heutigen Release der GTX 1060 verweisen. Preislich wahrscheinlich um die 300,- und ja vielleicht mit der guten H.265 Codec Verarbeitung der größeren Brüder. Dazu Customs eventuell sofort verfügbar.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
https://www.computerbase.de/2016-07...gramm-videos-abspielen-h264-codec-lav-filters.

.. die 1060 ist sogar besser im Video abspielen, als ihre stärkeren Partner ?!*

Wie soll man das verstehen... das ergibt doch kein Sinn ?!
Aber sie ist so gut wie überall in den Spielen schlechter als die Fury, aber besser als 480

Also momentan:

Spiele:480 < 1060 < FuryVideo Bearbeitung:480 < Fury < 1060

Das ist schwierig... Mal schauen was die Preis so bis Ende August sagen...
 
Zuletzt bearbeitet:
Hm... Gebraucht Markt finde ich keine sooo guten Angebote.

Beste war glaube ich 240€ VB für eine Palit 980 Referenzdesign

Frage:
Wann kommen die Nachfolger von Fury (X) ?


Weil wenn ich mir die GPU Computing Benchmarks so ansehe von der 1060 sind die nicht so überragend. Nur bei der Video Wiedergabe ist sie sehr gut.
Für mich macht die Fury die beste Figur bei den Benchmarks, außer das Problem mit den neuen H.265 Codecs... Daher dachte ich: Evtl auf die neue Generation warten, die dann hoffentlich genauso abgeht in dem Codec wie die GTX 10x0 Karten von Nvidia...

Weil 1060 ist nicht so gut, und 1070 & 1080 liegen weit außerhalb meines angestrebten Budget für Grafikkarten.
 
Wieso dann nicht die 480?
+Die Codec-Leistung kann mit kommenden Treibern noch ausgebessert werden,
+wenigstens sind sie schonmal da (anders als H.265 bei der Fury). 90 fps find ich nicht so wenig.
-Die Spiele-Leistung ist zwar noch knapp unterhalb der 1060,
+aber das wird sich mittel- bis langfristig umkehren.
++Bei der Videobearbeitung liegt die 480 mit OpenCL meilenweit vor der 1060.
++Die Preise sind bei der 480 am niedrigsten. Vor allem wenn Spiele eher Nebensache sind, weil du dann auch eine 4GB-Version kaufen könntest.
 
Also für mich ist 480 > 1060 nach den ganzen Beiträgen die ich bisher gelesen habe

Aber momentan ist Fury > 480 für mich, da der Aufpreis von 30€ von Sapphire 480 Nitro+ -> Sapphire Fury Nitro so gering ist, dass die mehr Leistung der Fury der besser Plus Punkt ist.

Wie verhält es sich bei OpenCL zwischen der "alten" Fury und der neuen 480 ?


Fury schafft bei H265 112 fps
480 91fps

Skeptisch bin ich da bei 90 fps, weil :
Ich nehme manchmal wenn die Aufnahmen Top werden sollen, in 4K und 60fps auf. Die 90fps wurden wahrscheinlich gemessen, als die Grafikkarte nichts anderes zu tun hatte. Wenn ich nun das Video bearbeite und die Grafikkarte muss: 60fps 4K decodieren & Effekte berechnen, dann frage ich mich ob die Grafikkarte da nicht wieder zum Flaschenhals meines PC's wird.


Edit: Und die 480 Nitro+ hab ich irgendwo gelesen, dass diese nicht gerade leise ist wenn sie im "Übertakt" Modus arbeitet
 
Zuletzt bearbeitet:
H.264 & kommendes H.265 wird hardware decodiert ? In allen möglichen neuen CPU's & GPU's sind solche Hardware Decoder Blöcke implementiert.

Deshalb will ich auch eine neue Grafikkarte, weil meine 570 es nicht kann. Video der Gopro ruckelt wie ein Auto beim Absaufen :P


Edit:

Direkt auch hier auf der Homepage zu finden:

http://www.hardwareluxx.de/index.ph...c-mit-h265-support-und-4k60fps-streaming.html

NVIDIA ist der erste Hersteller, der mit den GM204-GPU auf Basis der Maxwell-Architektur ein hardwarebeschleunigtes H.265-Encoding möglich macht.

An der Stelle, wo dieser Decoder nicht mehr ausreichend ist, um Prozesse des H.265-Decodings auszuführen, springt normalerweise die Software ein, was allerdings ein langsamer und kein besonders effizienter Prozess ist. Mit Maxwell verwendet NVIDIA dafür nun die zur Verfügung stehenden Shader, was noch immer nicht derart effizient wie eine FFU ist, aber besser als ein reines Software-Level.
 
Zuletzt bearbeitet:
Sorry, ich meinte, dass Hardwareencoding hässlich ist. Hardwaredecoding ist dagegen normal.

Die Frage beim Abspielen ist halt, ob Deine Filme mehr als 100 FPS in 4K mit HEVC/h.264 haben...
 
oooverclocker schrieb:
Sorry, ich meinte, dass Hardwareencoding hässlich ist.
Korrigier es besser auch oben mit den STRIKE-Tags.


Mauby schrieb:
Ich nehme manchmal wenn die Aufnahmen Top werden sollen, in 4K und 60fps auf. Die 90fps wurden wahrscheinlich gemessen, als die Grafikkarte nichts anderes zu tun hatte. Wenn ich nun das Video bearbeite und die Grafikkarte muss: 60fps 4K decodieren & Effekte berechnen, dann frage ich mich ob die Grafikkarte da nicht wieder zum Flaschenhals meines PC's wird.
Nur zur Sicherheit: ist das wirklich De- oder nicht eher Encodieren?
 
bin bisschen verwirrt bzgl. den Bezeichnungen.

Ich habe Videos im .mp4 Format mit H.264 Codec, welches ich bearbeiten will.

Um es in Premiere Pro als Vorschau abspielen zu lassen ( mit Effekten ), muss doch die Grafikkarte den Codec entschlüsseln ( decodieren ) um es anschließend mit Effekten zu versehen und abzuspielen...


Soweit hatte ich es auf meiner Suche im Internet verstanden, warum mein PC o. besser gesagt meine Grafikkarte den H.264 Codec nicht schafft in Realtime abzuspielen.
Ich musste bis jetzt immer H.264 in AVI umwandeln, damit es vernünftig läuft im Premiere Pro beim Bearbeiten. Aber AVI ist furchtbar riesig.

Wenn ich durch eine neue Grafikkarte alle Videos nicht stundenlang umwandeln muss und ein riesiges Datengrab brauche, dann zahle ich es gern. Das war der Gedanke
 
Ob nun 480 oder 1060, stundenlang warten musst du mit keiner von beiden. Übrigens wirst du das ohnehin in den 2 Wochen mit Widerrufsrecht feststellen, es kann also überhaupt nichts schief gehen.
 
Die Hardwareencodierung speichert sozusagen das Projekt als Videodatei im gewählten Codec. Das ist aber nicht mit Rendern gleichzusetzen. Die Effekte müssen erst in die Bilder gerendert werden und dazu braucht man möglichst viel Rohleistung. Da sehe ich die RX 480/470 mit der höheren Leistung somit als deutlich besser geeignet an.
Das Hardwareencoding wird eigentlich nur wichtig, wenn man sein Spielerlebnis auf Twitch oder ähnliche Portale streamt, weil da die Qualität weniger wichtig als die zeitnahe Codierung ist. Für die maximale Qualität benutzt man in der Regel Softwareencoder, die ebenfalls eine hohe Rechenleistung fordern.
 
Die 480 hat ne bessere Rohleistung als welche Karte?

Fury? Oder 1060?


Also der Hardware Decoder decodiert das verwendete Video bei der Vorschau

Und die Shader Einheiten berechnen mir die Effekte?
 
Die 480 hat ne bessere Rohleistung als welche Karte? Fury? Oder 1060?
Die Fury hat etwas mehr als 7TFLOPS, die RX 480 hat 5,8 TFLOPS und die GTX 1060 hat etwa 4,4 TFLOPS mit 32- Bit Fließkommazahlen. Edit: Man sollte aber nicht unterschätzen, dass manche Berechnungen auch gerne viel VRAM haben...


Also der Hardware Decoder decodiert das verwendete Video bei der Vorschau Und die Shader Einheiten berechnen mir die Effekte?
So sollte das optimalerweise sein :), manche Effekte werden eventuell ausschließlich von der CPU berechnet, wenn die Berechnung nichts mit Fließkommazahlen am Hut hat oder die Komplexität zu gering ist(sodass sich eine Verwendung der Grafikkarte für die Programmierer nicht lohnt)
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh