Ankündigung

Einklappen
Keine Ankündigung bisher.

Benchmark

Einklappen
X
  • Filter
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge

  • Hero
    hat ein Thema erstellt Benchmark.

    Benchmark

    Ich wollte mal sehen, wie groß der Unterschied beim Rendern ist, wenn man einen normalen PC wie meinen (FX-6350 6-Core) dieselbe Szene rendern lässt, wie einen Raspberry Pi 2.

    Einen der üblichen Blender Benchmarks verdaut der RasPi nicht. Darum habe ich eine minimale Szene erstellt. Ein Objekt und als Lichtquelle eine HDRI-EnvMap. Bei 200 Samples und direktem/indirekten Clamp (je 1) habe ich dann per CPU rendern lassen. Hier das Ergebnis.

    Klicke auf die Grafik für eine vergrößerte Ansicht  Name: image_1538.png Ansichten: 1 Größe: 805,0 KB ID: 10805

  • Schlange
    antwortet
    Okay mir ist nur aufgefallen das zb. eine gtx1080 nicht bei jedem Benchmark die gleiche Platzierung hat da ich jetzt mal die Möglichkeiten hätte meine Hardware zu Updaten und da mir die Frage kommt eine größere GPU (zum Beispiel eine gebrauchte R9 390 Nitro für unter 70€) Oder Neues Mainboard da meins schon über 12 Jahre alt ist.

    Einen Kommentar schreiben:


  • Hero
    antwortet
    Zitat von Schlange Beitrag anzeigen
    ...woran kann das liegen ?
    Das liegt an der Szene und der Hardware, die für bestimmte Anforderungen besser ausgelegt ist. Manche Szenen brauchen besonders viel und schnellen Speicher, andere mehr Rechenpower. Wieder andere benötigen eine hohe Datengeschwindigkeit zwischen den Bauteilen. Auch die Architektur des verbauten Rechners kann entscheidend sein. Wenn du eine gute GK auf einem lahmen Motherboard betreibst, kann sich das negativ auf die Leistung auswirken.

    Einen Kommentar schreiben:


  • Schlange
    antwortet
    Abend
    ich möchte aufrüsten hauptsächlich in einem System mit mehr Speicherplatz als ich im Netz nach gpu Benchmarks für blender schaute ist mir aufgefallen das für jede Szene unterschiedliche Grafikkarten ,,Testsieger" sind woran kann das liegen ?

    Einen Kommentar schreiben:


  • Hero
    kommentierte 's Antwort
    Ich denke nicht. Ich hatte die Karte kurzzeitig auf meinem alten PCIe 2.0-Rechner verbaut. Sie war dort nicht langsamer.

  • Frogman
    kommentierte 's Antwort
    Fein, das spart natürlich, da ich 32GB Ram habe, allerdings mit PCIe2.0-Nadelöhr und es ist nicht das schnellste Ram. Könnte also sein, dass es bei großen Projekten dann auch nicht schneller rendert als auf CPU, oder?

  • Hero
    antwortet
    Zitat von Frogman Beitrag anzeigen
    Ich orientiere mich somit an den Werten Deiner GPU-Z Angaben
    Es geht noch besser.

    Zitat von Frogman Beitrag anzeigen
    eine günstige 8GB-Karte zu suchen
    Das dürfte nicht unter 190€ möglich sein. Meine hat 4GB. Die habe ich für 155€ bekommen. Die 4GB reichen völlig aus, um auch größere Projekte zu stemmen. Radeon-Karten haben zudem den Vorteil, dass sie - falls nötig - auch den Systemspeicher nutzen können. Da wird es kein "Out of Memory" mehr geben.

    Einen Kommentar schreiben:


  • Frogman
    antwortet
    Ich orientiere mich somit an den Werten Deiner GPU-Z Angaben lt. https://blendpolis.de/forum/communit...3994#post23994 was den Chipsatz, Hersteller und die Revision betrifft, um eine günstige 8GB-Karte zu suchen. Die 7W im Idle haben mich zudem nun endgültig für die Verwendung im Hauptrechner überzeugt. Die GTX750ti baue ich in den "Blendercube" ein, den ich nur anwerfe, um ihn als Slave in der Cloud des Intranet zu nutzen. Super, nun weiß ich Bescheid.
    Zuletzt geändert von Frogman; 09.03.2019, 23:22.

    Einen Kommentar schreiben:


  • Hero
    antwortet
    Zitat von Frogman Beitrag anzeigen
    Hast Du in 2.8 mit der Kombi GPU/CPU gerendert
    Nein. Kann man an der Temperatur sehen. Die bleibt über das gesamte Rendern unten. Die Wasserkühlung ist sowieso noch nicht eingebaut.

    Zitat von Frogman Beitrag anzeigen
    Ich schätze den Idle Deiner Karte auf ca. 30W.
    7-8 W. Im Rendermode um 100W (1920x1080).

    Zitat von Frogman Beitrag anzeigen
    Gibt es Deiner bisherigen Erfahrung nach noch etwas worauf ich achten sollte
    Du solltest unbedingt beim Kauf auf die Frequenzen achten. Bei allen Karten gibt es z.Tl. große Unterschiede. Und auf jeden Fall eine Neuinstallation machen. Ich hatte Treiberprobleme. Sonst fällt mir derzeit nichts ein. Habe die Karte aber selbst noch nicht lange. Geräusche macht sie keine. Die kommt kaum auf Temperatur, was schön ist. Das kann bei höher getakteten Karten aber auch anders sein, denke ich.

    Das Kernel-Laden ist übrigens nur beim ersten Rendern. Danach, also wenn die Szene schonmal gerendert wurde, ist das nicht mehr. Also wird das bei der Arbeit an Projekten kaum zu spüren sein. Klar, eine CUDA-Karte hätte ich auch lieber. Aber für den Preis und die Leistung bin ich froh gewechselt zu haben.

    Einen Kommentar schreiben:


  • Frogman
    antwortet
    Erstmal vielen Dank für Deine anschaulichen Video-Tests. Was mich wundert ist, dass die Leistungs-Aufnahme der CPU ebenfalls angezeigt wird. Hast Du in 2.8 mit der Kombi GPU/CPU gerendert, oder liegt es vielleicht daran, dass GPU-Z den Sensor meiner FX nicht findet? Ok, zurück zum Wichtigen: Ein geeichtes Messgerät an der Steckdose ist natürlich genauer als GPU-Z, und die Rendergeschwindigkeit Deiner RX580 überzeugt auf ganzer Linie trotz 19sec Vorladung, was bei komplexeren Szenen oder höheren Auflösungen sowieso nicht mehr auffällt. (Da ich Bilder meist in hohen Auslösungen berechne, wäre mir der kleine Vorlauf auch vollkommen egal, also kein wirkliches Manko. Doch wie verhält es sich, wenn man die Vorschau in der 3D-Ansicht auf "render" stellt?) Ich schätze den Idle Deiner Karte auf ca. 30W. Das ist "viel" bei reinen Desktop-Anwendungen, aber auch nicht mehr als bei meinen alten 560/680-Staubsaugern. Also damit kann man leben.
    Zum Vergleich habe ich Dir Test-Bilder der GTX-750ti angehängt. Der Stromverbrauch ist zwar außerirdisch gering, aber dafür braucht sie (unter Blender 2.79, Win7-64pro und PCIe2.0) auch gut dreimal so lange für die BMW-Szene. Der Stromverbrauch einer GTX1050 könnte ähnlich niedrig sein (zumindest bei der Zotac mini) und die Renderleistung auf Grund des 128bit-Nadelöhrs auch nicht viel höher als bei anderen xx50-Karten. AMD gibt übrigens die GTX1060 als Vergleichskonkurrenz an, aber mittlerweile halte ich das für untertrieben.
    Gibt es Deiner bisherigen Erfahrung nach noch etwas worauf ich achten sollte, um die Zotac auf meiner Wunschliste nun endgültig gegen eine RX580 8GB zu tauschen? (Hersteller/Revision?)

    GPU-Z-Werte meiner GTX750ti unter BMW-Last und Idle:
    Klicke auf die Grafik für eine vergrößerte Ansicht

Name: GTX750ti_bmw_last.jpg
Ansichten: 52
Größe: 99,6 KB
ID: 24037
    Klicke auf die Grafik für eine vergrößerte Ansicht

Name: GTX750ti_idle.jpg
Ansichten: 53
Größe: 47,0 KB
ID: 24036

    Einen Kommentar schreiben:


  • Hero
    antwortet
    Hier nochmal eine komplexere Szene. Aber auch da dauert das Laden der Kernels nur 18 Sekunden. Auch der Stromverbrauch ist gleich.

    Ich bin mit der RX 580 auch von Nvidia zu Radeon gewechselt, weil ich das mal ausprobieren wollte. Klar, das Laden der Kernels ist nervig, aber doch vernachlässigbar, wenn man von mehreren Minuten Renderzeit ausgehen kann. Da punktet die Karte mit eben den Vorteilen, die du genannt hast. Sie ist verdammt schnell. Interessant wäre es, sie direkt mit einer GTX 1050 ti zu vergleichen.

    Einen Kommentar schreiben:


  • Hero
    antwortet
    Habe ich gemacht. Sie verbraucht definitv weniger als angegeben. Ich hatte mich schon gewundert, wie ich bei meiner Messung mit dem Messgerät auf insgesamt 185W für den PC gekommen bin, wenn die RX allein soviel verbrauchen sollte.

    Das Laden der Kernels dauert hier 19 Sekunden. Die werden allerdings nur einmal pro Render/Animation geladen.

    Einen Kommentar schreiben:


  • Frogman
    antwortet
    Was mich von der RX580 wirklich überzeugen könnte, ist neben dem günstigen Preis die extreme Texture Rate/Bandwidth, 8GB und die 256bit-Speicheranbindung im Vergleich zur GTX1050ti. Was mich etwas abschreckt, ist die theoretische Max-TDP von 175 zu 75W. Wärst Du mal so nett, die Sensoranzeige von GPU-Z bezüglich der Max/Durchschnitt/idle-Power Deiner RX580 beim BMW-Bench mitlaufen zu lassen, damit ich einen realistischen Praxisvergleich habe?
    Laden des Kernels: Bezieht sich diese "Bremse" auch auf jedes Einzelbild einer Animation oder nur einmalig pro Szene? Könnte mir eigentlich egal sein, da ich keine Animationen render, wäre aber trotztem gut zu wissen, falls ich mal ein schwarzes Schaf über die Wiese laufen lasse *scherzel*. Ich denke, je komplexer die Szene ist, desto weniger schlägt diese Ladezeit ins Gewicht bezüglich der Gesamtrenderzeit - und warum sollte man sich sonst eine 4 oder 8GB-Karte anschaffen, wenn nicht aus Gründen der Auflösung und Komplexität - oder was meinst Du, Hero? Auf jeden Fall gut zu wissen, dass sich die DEVs nun endlich mal um die Blender-Optimierung von Karten ohne Cuda-Kerne kümmern. Ich bin kurz davor, NVidea untreu zu werden ... danke. ^^
    ____________________________________
    https://www.techpowerup.com/gpu-spec...n-rx-580.c2938
    https://www.techpowerup.com/gpu-spec...-1050-ti.c2885
    Zuletzt geändert von Frogman; 09.03.2019, 03:04.

    Einen Kommentar schreiben:


  • Hero
    antwortet
    Wie gesagt, dann muss es was aktuelles sein. Ich kann die RX 580 empfehlen. Die gibt es noch immer für etwa denselben Preis einer GTX 1050 ti. Was einzig stört, ist das Laden der Kernels vor jedem ersten Render. Das haben sie aber jetzt deutlich beschleunigt, wie Pablo in seinem Vlog mitgeteilt hat.

    Einen Kommentar schreiben:


  • Frogman
    antwortet
    Das ist alles sehr ernüchternd; Hero.
    https://www.notebookcheck.com/Test-Z....239702.0.html
    Auch die 1050ti mini ist nur eine Mogelpackung mit 128Bit Speicherbus.
    Erst Modelle der x(x)70-Reihe verfügen über SLI und verbrauchen wiederum richtig viel Strom. Ich hab zwar noch eine 680ti mit sli, aber das Teil ist einfach zu laut und Stromgierig. Nun schaue ich mir mal die Werte der 770/80 ti an und was eine Gebrauchte mit sli kostet ...

    ... das beste Preis/Leistungsverhältnis scheint die 970 zu haben - die 770/80 sind auch Stromfresser- Ich gebe es auf ... für heute.
    Zuletzt geändert von Frogman; 08.03.2019, 11:32.

    Einen Kommentar schreiben:

Lädt...
X