AW: pc vergleich ist neiner Schrott?
Die Szene ruckelt auch bei mir unter keiner der älteren Grafikkarten (z.B. ATI 4770, GeForce GTS 450). Ich bin mir auch ziemlich sicher, dass es neben evtl. dem Treiber an den Texturen liegt. Du kannst aber zum Arbeiten im Editor einige beschleunigende Maßnahmen treffen:
- Darauf achten, dass OpenGL eingeschaltet ist
- OGL Funktionen (Schatten, Transparenz, Noises..) in Cinema nur dann zuschalten, wenn sie wirklich gebraucht werden
- Texturdarstellung in den Materialien so weit runter schalten wie möglich. Was übrigens auch beim Speichern der Szene platz spart! Bin mir grad nicht sicher, ob "voreingestellt" oder "64x64" die kleinste ist, das hat sich imo zwischen R13 und R14 auch geändert. Kann man aber mit einer Textur ausprobieren
- Plugins wie
solo benutzen, mit dem Du blitzschnell nur die Elemente sichtbar schaltest, an denen Du gerade arbeitest
- Modellteilen ein Darstellungstag verpassen und das auf Quader stellen. Man muss nicht immer das ganze Modell voll sehen
- HyperNURBS und anderen Generatoren, die unterschiedliche Einstellungen für Editor und Rendering anbieten, für den Editor runterfahren. Also 0 beim HN, bei Partikeln je nach Anforderung
- Texturen sollten nie größer sein als nötig. Eine 4k Textur nutzt einem wenig und bremst dafür alles, wenn sie ein kleines Hinweisschild auf einem riesigen Objekt ist und man das Schild nie lesen kann. Oder auf einem Baum als Blatt genutzt wird, die Bäume aber weiter weg sind. Setzt dann schon etwas an Planung für eine Szene voraus
- Wenn ein Modell zig Texturen verpasst bekommt, lieber das Modell gut unwrappen und so wenig Materialien daraus machen wie möglich. Dann muss die Software nicht zig Materialien dafür auswerten, sondern eben nur wenige
Guten Morgen,Holy Sh..
Braucht man sowas? Also 16GB könnt ich ja noch verstehen, aber...
Im Hobbybereich: klares Nein. Hier im Forum hat meiner Erinnerung nach jedenfalls noch kein C4Dler Projekte gezeigt, die so viel RAM zwingend benötigen. Solange Du nicht mit 1.000en von Klonen und Partikeln mit Geometrie arbeitest, solltest Du diese Grenze jedenfalls garnicht erreichen.
Edit: Allerdings sollte man beim Rendern darauf achten, dass die Szene nicht direkt aus dem Editor heraus gerendert wird, wenn sie schon sehr groß ist. Dann liegt sie nämlich 2x im Speicher, 1x davon unnötig und RAM fressend. In dem Fall kann man den Rendermanager oder den Netrender benutzen.
Was imo viel wichtiger ist, ist die Fähigkeit, mit einem "so wenig wie möglich" und "so viel wie nötig" an Polygonen auszukommen. Das ist auch dann wichtig, wenn man z.B. mit einigen Leuten an einem Film oder Game arbeitet, was gerade im Hobbybereich immer wieder angegangen wird.
Beruflich bin ich mit sehr großen Szenen auch noch nicht über die 16GB Grenze gekommen, und da sind gerade in den letzten Jahren einige mit mehreren Mio. Polygonen dazu gekommen, die teils ohne Renderinstanzen auskommen mussten. Das hängt auch viel davon ab, wie man die Szene aufbauen kann oder muss. Ich rendere aus Geschwindigkeitsgründen z.B. oft nur den Szenenhinter- und Untergrund mit voller GI aus, das sind dann reine Kamerafahrten und da kann man viel backen. Die Vordergrundanimationen, wo sich dann auch massig Objekte bewegen können, sind dann z.B. mit einfacherem Licht ausgeleuchtet. Und schon ist die Szene getrennt und kann pro Renderpass kleiner ausfallen. Ich versuche auch, so viel wie möglich als Geometrie vorliegen zu haben, die rendert generell schneller als eine entsprechende Alphamaske (Bäume, Gitter..).
In welkerbois Szene (übrigens ein sehr hübsches Modell!) sind zum Beispiel allein 20 Arrays und über 100 Instanzen, die hier alle nicht auf Renderinstanzen eingestellt sind. Das tut zwar nichts zur Grafikkarte, bedeutet aber deutlich längeres Rendern, vor allem mit Material. Stellt man die hier um, rendert das gleiche Bild anstatt 20 z.B. nur noch 15 Sekunden. Aber das tut nichts zur Anzeige im Editor.
Zudem würde ich hier die Kamerafahrt auf das 4-fache strecken. Ich weiß nicht, ob Du das schonmal ausgerendert hast, aber bei dem schnellen, unregelmäßigen auf und ab kann einem echt schwindelig werden
Edit 2:
Was mir bei dir und turboniko auch auffällt, ihr nutzt Radeons (ATI) und nicht die so angepriesenen Nvidia-Chips?
Wer preist die wo an? Im Moment liegt NVidia mit seinem CUDA halt weiter vorn, das im Grafikbereich etliche Beschleunigungen verspricht. Aber es setzen auch viele Kollegen auf ATIs, die lange den Ruf hatten, in 3D Applikationen sauberer zu werkeln. Dazu kommt, dass in den letzten Jahren beide Hersteller immer wieder Müll gemacht haben und die User dementsprechend hier oder dahin ausgewiechen sind. Wenn Du eine verlässliche Karte haben möchtest, gehts eher um den Mid- oder Hi-End Bereich. Wobei ich bis auf bestimmte 3D Anwendungen bisher keine große Schlechterstellung mit den Gamerkarten erfahren habe. Das kann natürlich woanders anders aussehen, z.B. mit Tessla Systemen, die soviel wie ganze Workstations kosten ^^