Beiträge von kyodai

    Bei mir wuerde das so aussehen...




    Round halt weil ich hier mal festlege es gibt nur "an" oder "aus", nix dazwischen, also nur 0 und 1. On/Off 0 oder 1, koennte man noch rounden, aber wozu wenn ich weiss was es macht. Speed einfach Multiplikator - schneller oder langsamer. Ich muss gestehen ich teile deine Leidenschaft fuer static switch Parameter nicht. Gibt sicherlich Faelle wo die total Sinn machen.... Hier? Seh ich nicht.

    Hmmm schaetze mal da gabs Aenderungen in 5.1...


    Viel machst du ja in dem Abschnitt eh nicht, ich wuerde es ausm Bauch heraus durch NativeDestruct() ersetzen, das feuert ja auch wenn du RemoveFromParent machst.

    Hast du Lerp auch wirklich verstanden? Das ist ein lineares interpolieren. Bei hart 0 oder 1 macht das ja eigentlich gar keinen Sinn. Da gibt es dann ja nicht viel zu interpolieren. Wolltest du vielleicht runden? Bei deiner LED waerst du doch viel besser dran fuer die Lichtintensitaet nen Faktor zu nehmen und den dann mit deinem float zu multiplizieren. Wasauchimmer mal null ist immer noch null und mal 1 ist halt was du eingestellt hast. Ich glaub du machst es dir manchmal selber schwer, nimm doch ein material einfach mal als Material, so isses auch gedacht.

    Eindeutig 5900x. Beim Shader kompilieren ist jeder core mehr willkommen. Es sei denn du liebst es mit Kaffee vor der Meldung "compiling shaders" zu sitzen. Auch für light baking ein plus falls du mit static lights arbeitest.

    Grundsaetzlich - du musst unterscheiden zwischen CUDA und DirectX.


    Cuda ist ein Berechnungsproxy der komplexe Berechnungen auf die Grafikkarte auslagert. Das machen redshift und Cinema4D - wie du bemerkt hast - sehr gut. Damit ist es egal welcher Monitor an welcher Grafikkarte haengt - die Grafikkarte wird im grunde als "Rechenzentrum" genutzt. kannst du toll sehen dass deine Renderings auch astrein werden wenn du alle Monitore abziehst.


    Dann gibt es noch DirectX/Vulcan/OpenGL. Das ist echtzeit 3D Grafik. Das ist das gleiche wie wenn du GTA V spielst. Deine grafikkarte berechnet die Spielgrafik und gibt sie direkt auf dem Monitor aus der daran angeschlossen ist. Es laeuft ja auch das Framebuffering auf der graka (!!!). Das gleiche in UE. DU kannst nicht irgendeine Grafikkarte einbauen, den Monitor an einer anderen haengen haben und dich dann wundern dass die ohne Monitor nix macht in DirectX. Das ist "by design". Eine Ausnahme ist (teilweise) SLI, also das verbinden von 2 NVidia Karten per speziellem Kabel. Unterstuetzen aber kaum Spiele und Anwendungen, die meisten koennen nix damit anfangen.


    Es gibt ein paar tasks in UE4 wo es Sinn macht mehrere Karten zu nutzen, z.B. lightmass building, aber das ist eher die Ausnahme. Monitore an 3090. Und schau mal in C4D und redshift - der Unterschied duerfte nahezu nix ausmachen - es sei denn du spielst GTA V waehrend dem rendern....

    Draw calls und VRAM haben erst mal gar nix miteinander zu tun.


    Draw calls = Rechenaufgaben und somit GPU und nicht VRAM!


    Klassischerweise war VRAM mal "nur" dazu gedacht frames zu buffern.

    Seit es 3D Karten gibt wird VRAM aber exzessiv durch andere Dinge genutzt. Das meiste geht in der Regel drauf um Texturen zu puffern. Daneben Geometrie und Z-Buffer. Frame buffer ist verschwindend gering - bei 4K Aufloesung etwa 33 MB pro Frame. Noch ein bisschen geht fuer Spielereien wie Anti Aliasing und Shader drauf. Meist sind texturen schuld.


    Im Falle von DEX klingt es fuer mich nach einem bug. Laedt er das projekt - alles OK. Schliesst er es und laedt erneut - 8 GB VRAM fehlen auf einmal? Das ist ein bug, ganz klar. Wuerde mal schauen ob die aktuellsten Nvidia Treiber installiert sind - STUDIO, NICHT gaming.

    Grundsaetzlich hast du etwas falsch gemacht wenn die Engine abstuerzt. Ich weiss dass das mit C++ leider recht einfach ist.


    Natuerlich kannst du auch vieles in einer (oder mehreren) dll machen. Wenn du verstehst wie man eine dll einbindet sollte das kein problem sein.


    Best practice trotzdem immer: Plugin. Das gute ist du erstellst Plugins ja meist eh in einem leeren projekt - wenn dann die map hinueber ist ist es nicht so schlimm.


    Ob du jetzt ein Plugin machst oder eine dll ist nominell kein Unterschied - in einem Plugin kannst du aber auf die Engine Funktionen zugreifen - was ja meist schon erforderlich ist wenn du nicht gerade ein tool schreibst um csv Dateien in eine Datenbank zu importieren oder so. Sprich - alles was du in der Engine machen willst - ob nun Rendertargets bedienen, etwas spawnen usw - das geht nur als plugin.

    Ungewoehnlich. Aber erst mal willkommen. Unreal Engine ist natuerlich auch fuer Archviz gut zu gebrauchen. Eigentlich bewirbt Epic dafuer das Schwesterprogramm "Twinmotion" welches sich zwar gar nicht fuer games oder Entwicklung allgemein eignet aber auch auf etwas mieserer hardware die Moeglichkeit bietet in Echtzeit durch ein Gebaeude zu latschen und das ganze gut aussehen zu lassen.


    Ich bevorzuge immer noch UE 4.27 fuer Archviz und vieles anderes weil die Performance der 5er Engine auf aelterer hardware doch je nach Setup und Einstellungen etwas mieser ist.


    Tip Fuer Archviz: Licht und Materialien sind alles! Es gibt ein paar kostenlose Szenen die in Richtung Archviz gehen und von denen solltest du dir wenn sie gut aussehen ein paar Scheiben abschneiden in bezug auf beleuchtung. Der Unterschied zwischen mieser und guter Archviz ist meistens Beleuchtung oder es sind Materialien. Natuerlich ist es auch immer gut ein paar Requisiten zu haben - wie im Filmstudio - Buecher, Schuhe, Moebel, Elektronik, usw. Also gegenstaende die zwar mit der Architektur nix zu tun haben aber das ganze etwas echter und "belebter" aussehen lassen. Da gibt es im Marketplace auch einiges kostenlos was gut aussieht.

    Klingt für mich nach RAM wenn du andere Dinge wie plugins, cpu, disk io, usw ausschliessen kannst. Bin mir nicht sicher ob die clicks die du machst multicore sind, würde mal schauen ob die cpu in den boost geht. Gfx card - mal skalierung auf niedrig