Hi bekomme seit Monaten keine Quixel updates mehr. Das Letzte ist immernoch Desert Western Cliff. Seit fab.com hat sich scheinbar was geändert gibts keine kostenlosen Assets mehr? Ist Quixel plugin abandoned? Auf fab.com gibts Quixel assets die mir nur zum kauf angeboten werden wie https://www.fab.com/listings/d…00-48f8-a2d3-bf5263819d15... blicks nicht hoffe jmenad kann da helfen.
Was geht mit Quixel?
- akuma
- Erledigt
-
-
Hi bekomme seit Monaten keine Quixel updates mehr. Das Letzte ist immernoch Desert Western Cliff. Seit fab.com hat sich scheinbar was geändert gibts keine kostenlosen Assets mehr? Ist Quixel plugin abandoned? Auf fab.com gibts Quixel assets die mir nur zum kauf angeboten werden wie https://www.fab.com/listings/d…00-48f8-a2d3-bf5263819d15... blicks nicht hoffe jmenad kann da helfen.
Aufgefallen ist mir beim letzten Fab besuch das Quixel content nicht mehr kostenlos ist, wohl auch rückwirkend also ehemals freie Sachen kosten jetzt. Wenn ich mich einlogge in Fab steht aber überall saved in my library und license terms sagen:
You may:
- Use the assets commercially or privately
- Modify and adjust the assets in order to incorporate them into your Projects
- Commercially distribute your Projects with the Fab assets incorporated into it
- Use the assets with any compatible tools (usage is not limited to Unreal Engine)
- Share the asset (directly, via a private repository or in the Project) with your collaborators that are working on the Project with you
You may not:
- Resell or redistribute the asset for free on a standalone basis or allow others to do the same
Additional notes:
- Both pricing tiers (Personal and Professional) grant you the same scope of rights. Reference-Only tier will only grant you access to the content in form of a referenced asset, not its source format
- There is no need for upgrading from Personal to Professional tier if you cross the revenue threshold after the purchase
- No warranties are given
- You are not required to give credit to the publisher you acquired the Fab asset from
Neuer Quixel content kam eh sehr selten und Epic hat ja damit geworben das das kostenlos ist.
Jetzt ist es wohl nur noch für Bestandskunden kostenlos und Neukunden sollen zahlen.
Ich vermute mal das die Quixel Mitarbeiter ihren Anteil an der Firmenübernahme mitgenommen hatten und so viel bekommen haben das sie nicht mehr weiter arbeiten mussten weil sie anteilig beteidigt waren. Chat GPT sagt details zum Kaufpreis von Quixel sind nicht bekannt. Epic hat die Firma dann wohl für einen Mrd. Betrag übernommen und weill alle ~ 100 Mitarbeiter einen Anteil bekamen wollte keiner mehr für nen Monatslohn arbeiten. Was die gemacht haben war ja eh nur Photogrametrie was heute jeder mit seinem Handy kann.
War wohl ein Fehlkauf und um das Geld wieder reinzuholen ist Quixel content jetzt kostenpflichtig. Nur ne Vermutung.
-
Ich kann dir aus zuverlässiger Quelle sagen, dass Quixel definitiv kein Fehlkauf war.
Ich habe Kim Libreri, den CTO von Epic Games, auf der FMX in Stuttgart getroffen. Es ist kein Zufall, dass gerade er CTO ist – denn Kim kommt ursprünglich aus der VFX-Welt.
Was Epic Games aktuell entwickelt, ist im Kern der Versuch, 3D-Content auf Filmniveau zu bringen – also Low-Poly-Echtzeitgrafik mit der Qualität von High-End-VFX. Und genau das passiert gerade – Schritt für Schritt.
Unreal Engine 5 = Bugatti Chiron mit 1.600 PS – aber sie läuft aktuell nur mit 100 PS
Die Unreal Engine 5 hat deutlich mehr Power, als aktuell genutzt wird. Hier einige konkrete Beispiele:
Nanite
Wird vielerorts noch nicht vollständig integriert – viele Entwickler setzen es gar nicht ein oder kombinieren es nicht sinnvoll mit Virtual Texturing. Dabei ist es eine der mächtigsten Technologien für Echtzeit-Geometrie.
Lumen (Echtzeitbeleuchtung)
Viele Studios deaktivieren Lumen, weil es Performance kostet – anstatt es richtig zu konfigurieren. Dabei ist es das erste global dynamische Beleuchtungssystem, das in dieser Form ohne Lightbaking funktioniert.
World Partition
Ermöglicht riesige, offene Welten – aber die meisten Entwickler setzen es nicht ein, weil das Tooling noch im Aufbau ist. Das größte Hindernis: Bislang konnten nicht mehrere Entwickler gleichzeitig an einer Karte arbeiten.
→ Collaborative Level Design wird das ändern – und das ist ein echter Gamechanger.
Niagara (VFX-System)
Derzeit wird nur ein Teil der Effekte auf der GPU berechnet – die vollständige GPU-Integration kommt noch.
→ Das wird nochmal „500 PS“ mehr Leistung bringen, besonders bei massiven Effekten und Simulationen.
Chaos Physics & Destruction
Das neue System wird es ermöglichen, ganze Städte realistisch zu zerstören – in Echtzeit.
→ Kein vorgefertigtes „Explodiert-jetzt“-Objekt mehr, sondern echtes Physikverhalten auf großem Maßstab.
Mass Entity System
Klingt unspektakulär, ist aber revolutionär:
→ Ermöglicht tausende KI-Charaktere, die sich unterschiedlich verhalten, lernen oder spontan reagieren – echtes emergentes Verhalten.
Kim Libreri sagte auf der FMX ganz klar:
Zitat„In Zukunft wird sich Content aus Unreal Engine 5 nicht mehr vom Film unterscheiden.“
Und genau dafür braucht Epic Games hochwertige, standardisierte 3D-Scans, die man irgendwann eins zu eins übernehmen kann – ohne manuelle Nachbearbeitung.
🔮 Der Ausblick:
In Zukunft wirst du mit deinem iPhone 20 einfach einen Charakter oder ein Gebäude scannen – und direkt in Unreal Engine verwenden können.
Du wirst deinen eigenen 3D-Content hochladen, teilen und in Echtzeit nutzen können.
Alles läuft in Richtung einer Plattform, in der Film und Game-Content verschmelzen – ohne Grenzen, ohne Qualitätsunterschiede.
Das Interview mit ihm war auf jeden Fall richtig beeindruckend und hat meine Vorfreude auf die Zukunft definitiv beflügelt.
Ich bin überzeugt, dass wir die UE5 in ein paar Jahren mit Full Power erleben werden.
Externer Inhalt www.youtube.comInhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.PS.: Das war nicht das Interview wo ich Fragen stellen konnte.
-
Soll das heissen das Nanite und Lumen auf Quixel Patenten beruhen? Dann wär das sicher kein Fehlkauf. ICh bin davon ausgegangen das Quixel einfach real world content fotorealistisch in 3d übertragen hat mit ihrer photogrammetrie und Beleuchtung.
Ich wunder mich eigentlich eher warum die Umwandlung von Foto zu 3D heute immer noch so kompliziert ist. Das ging mit der XBox 360 Kinect Kamera schon echt gut und die Sony Xperia Handys konnten das auch schon vor vielen Jahren.
Externer Inhalt www.youtube.comInhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.Was Quixel gemacht hat war soweit ich weiss nur die Beleuchtung zu standardisieren so das ein 3d gescanntes Objekt ansich beleuchtungsneutral war und dann in der Engine realistisch beleuchtet werden konnte. Also keine Lichtpunkte auf der einen Seite und Schatten auf der Anderen vom scannen.
Das es jetzt aber Geld kostet stimmt zumindest für Neukunden bei Fab. Aber es gibt auch jeden Monat kostenlosen Content der davor und danach wieder was kostet. Ich hoffe ja das an Weihnachten Fluid Flux 3 mal kostenlos verfügbar gemacht wird lol.
-
Ja, genau – Quixel hat im Grunde damit angefangen, Oberflächentexturen zu scannen. Am Anfang waren es noch keine vollständigen 3D-Modelle. Quixel hatte damals sogar ein spezielles Gerät entwickelt, das ein bisschen aussah wie die Bundeslade.
Es handelte sich um einen Scanner, der einige Quadratmeter Asphalt erfassen konnte – und dabei sämtliche externe Lichtquellen ausschloss. Im Prinzip wurde also eine Art Dunkelkammer direkt auf die Straße gestellt, um dort unter kontrollierten Bedingungen Fotos zu machen. Dabei kamen, wie du schon sagtest, neutrale Lichtquellen zum Einsatz.
Externer Inhalt www.youtube.comInhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.Bei den 3D-Scans von Objekten funktioniert das ein bisschen anders – dabei kommen mobile Scanner zum Einsatz, aber dennoch ist eine ganze Menge Ausrüstung nötig.
Externer Inhalt www.youtube.comInhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.Was Quixel macht, ist, ein Team irgendwo auf der Welt hinzuschicken – zum Beispiel nach China –, um dort eine oder mehrere Statuen in 3D zu scannen. Das ist sehr aufwendig.
Das Problem ist: Wenn du zum Beispiel eine Statue scannst und daneben steht ein Baum, der dauerhaft Schatten auf die Statue wirft, muss die Statue so abgeschirmt werden, dass der Scan ohne störende Schatten möglich ist.
-
Ich muss doch arbeiten, warum bin ich nur so ein Quatschkopp der so gerne fachsimpelt.
Letztendlich weiss ich ja gar nicht warum kaum neuer Quixel content kommt und warum das jetzt kostet. Was die gemacht haben ist ja nichts Besonderes, die haben es nur extrem gut gemacht.
Ich hab aber alles von Quixel wieder rausschmeissen müssen weil das nicht für ingame Echtzeit gedacht ist sondern für fotorealistische Render. Ich hatte mal die Quixel Maerialsammlung im zweiten Level verwendet bis mir irgendwann aufgefallen ist das der Levelordner 40gb gross war, das war alles durch die Quixel scans. Ingame hat das von der Framerate gar nix gemacht aber die scans von quixel sind so hochauflösend das es unglaublich viel Speicherplatz braucht. Da sollten die vielleicht einfach mal eine realtime abgespeckte Version veröffentlichen. Geht ja nicht das man was veröffentlicht wo eine einzelne Textur 500mb gross is. Das von Quixel ist nicht für Spieleproduktion gedacht. Könnte aber indem man es runterrechnet.
-
und warum zum Teufel ist in meinem Spiel jetzt die Nanite 3D Verschiebung des Terrains weg. Normal kam da doch immer die Meldung das die Materialien neu berechnet werden müssen. Ahh, ich weiss, Einstellungen, Engine Skaliebarkeit hab ich runter gedreht, jetzt ises wieder auf Switch 1 Grafikniveau und da gibts kein Nanite 3D Verschiebung. Oh ja, das wars und wenn ich auf hoch stelle sind die Texturen multi bueno, spagetti crisp, man möchte förmlich in das Gras reinbeissen... Das sollte n Scherz sein aber stimmt auch. Hier mal der Unterschied in der Engine Skaierbarkeit Einstellung zwischen Niedrig, Hoch und KInematisch. Zwischen hoch und kinematisch erkenn ich kaum nen optischen Unterschied aber hoch ist flüssig spielbar wohingegen kinematisch 1 fps bringt.
Ich denke das Spiel würd auf Niedrig aber auch kaum weniger Spass machen. So setzt ich auch mal die Hardware Anforderungen, min ist Switch 1, max is mir egal.
-
Ich kenne das gar nicht anders – schon früher wurden Texturen häufig in 8K gemastert. Das bedeutet: Man erstellt extrem hochauflösende Texturen oder 3D-Modelle (zum Beispiel in 8K) und skaliert sie dann je nach Bedarf auf die passende Auflösung herunter.
Bei den 3D-Scans gibt es in der Regel (wenn auch nicht immer) mehrere LOD-Stufen – soweit ich weiß, meist von LOD0 bis LOD4.
In Quixel Bridge kannst du beim Import auswählen, welche LOD-Stufe du verwenden möchtest.
Nanite-Meshes haben oft gar keine klassischen LOD-Stufen mehr, da Nanite das intern automatisch und effizient ohne sichtbare LOD-Wechsel verwaltet.
Falls du mit Meshes arbeitest, die keine LODs mitbringen, kannst du sie aber auch automatisch generieren lassen – entweder direkt in der Game Engine oder mit externen Tools.
Was viele beim Umgang mit Unreal falsch machen, ist der unsachgemäße Umgang mit dem Maßstab (Scale).
Viele importieren einfach ein Mesh, skalieren es in der Engine zurecht – und wundern sich dann, wenn Unreal sich „seltsam“ verhält.
Ein Beispiel:
Du kannst in Unreal problemlos einen Planeten mit 65.000 cm Durchmesser erstellen – und daneben einen kleinen Ball mit nur 10 cm Durchmesser.
Beide Objekte lassen sich beliebig skalieren: Du kannst den Ball so groß machen wie den Planeten oder umgekehrt.
Aber Unreal interpretiert diese Größen nicht nur visuell – sie haben Auswirkungen auf Masse, Gewicht und Physik.
Wenn du einen kleinen Ball auf Planetengröße skalierst, erhält er entsprechend mehr Masse. Das beeinflusst die Gravitation und andere physikalische Berechnungen.
Ähnlich ist es bei LODs: Der LOD-Switch – also der Wechsel von einem Detail-Level zum nächsten – hängt von der Entfernung zur Kamera ab.
Wenn z. B. eingestellt ist, dass bei 10 m Entfernung LOD1 aktiviert werden soll, du aber ein riesiges Objekt hast (z. B. ein Planet), dann stehst du im Verhältnis vielleicht 10 km entfernt. Der LOD-Switch findet dann gar nicht oder viel zu spät statt.
Achte beim Import darauf, deine Meshes im realistischen Maßstab anzulegen – also in Zentimetern. Unreal geht standardmäßig davon aus, dass 1 Einheit = 1 cm ist.
Das ist wichtig – nicht nur für korrekte Physik, sondern auch für LOD-Wechsel, Lichtberechnungen, Kollisionen und vieles mehr.
Ich mache das zum Beispiel so, dass ich meine Meshes im 3D-Programm (ich benutze Maya) direkt auf den korrekten Maßstab bringe.
Im Scale-Feld steht dann zum Beispiel: XYZ = 3.7785566
Diese Werte „freeze“ ich anschließend (also: Transformationen zurücksetzen bzw. anwenden), sodass der Scale auf XYZ = 1 gesetzt wird, obwohl das Objekt die richtige Größe beibehält.
Importiere ich das Mesh dann in Unreal, hat es die korrekte physische Größe, und der Scale steht sauber auf 1,1,1.
Damit vermeidest du viele Probleme, die sonst durch nachträgliches Herumzupfen am Maßstab entstehen – sei es bei Physik, Kollision oder LOD-Logik.
Ich Skaliere nie nie nie in Unreal.
-
Das ist ein sehr wichtiger Für jeden der mit der UE arbeiten möchte sollte das in der Grundsatz Fibel stehen. Erstell einen Quader 1m gross dann ist er auch in der UE 1m gross.
und ich werd das in meinem Spiel verletzen weil ich ein bischen mehr natur reinbringen möchte. Ein Gumba in Super Mario World ist immer exakt 16 pixel hoch, das muss ich in meinem Spiel nicht beachten und ich kann jeden standardgegner skalieren wie ich will, die basisbröße ist 1 aber kann Instanzen setzen die 1,02 oder sogar 2 gross sind. Diese Freiheit nehm ich mir und ich denke das wird dem Spiel einen zusätzlichen organischen touch geben. Standardgegner in sidescroller Spielen haben eigentlich immer die exakt selbe Größe weil es durch die Sprite Darstellung vorgegeben war, das muss ich aber heute nicht beachten, eigentlich wär es unnatürlich wenn überhaupt 2 Gegner exakt die selbe Größe hätten. Das wurde in alten Sidescrollern wie Mega Man durch technische limitierungen gemacht die es heute gar nicht mehr gibt. Ich kann nicht jeden Standardgegner einzigartig machen aber an gewissen Variablen kann ich schon drehen, z.B. scale, 1,02, ez, leicht erhöht aber die immersion.
-
Das kannst du natürlich machen. Mir ging es eher um extreme Skalierungsfaktoren – also zum Beispiel Faktor 10, 100 oder sogar 1000.
Wenn du einem Objekt in Unreal einen Scale-Faktor von 1000 gibst, wird vieles verfälscht, mit dem Unreal intern arbeitet.
Eine solche Skalierung kann Probleme bei Physik, Kollision, Lichtberechnung oder LOD-Wechseln verursachen – denn die Engine rechnet intern weiterhin mit der ursprünglichen Mesh-Größe. Die Skalierung wird lediglich als Modifikator auf das Instanzobjekt angewendet.
Alles, was du in den Viewport ziehst, ist letztlich nur eine Instanz des Ursprungsobjekts aus dem Content Browser.
Wenn du zum Beispiel im Content Browser einen Stuhl durch einen Tisch ersetzt, werden alle Instanzen dieses Stuhls in deiner Szene automatisch durch Tische ersetzt.
Für sämtliche Berechnungen – wie Physik, LODs oder Licht – verwendet Unreal das ursprüngliche Mesh aus dem Content Browser, nicht die skalierten Instanzen im Viewport.
Das bedeutet: Auch wenn du ein Objekt im Viewport skalierst, bleibt die interne Referenzgröße die gleiche – und das kann zu unerwarteten Effekten führen.
Bestimmte Faktoren der Instanz werden zwar einbezogen aber ich würde mich nicht darauf verlassen.
-
Alles anzeigen
Das kannst du natürlich machen. Mir ging es eher um extreme Skalierungsfaktoren – also zum Beispiel Faktor 10, 100 oder sogar 1000.
Wenn du einem Objekt in Unreal einen Scale-Faktor von 1000 gibst, wird vieles verfälscht, mit dem Unreal intern arbeitet.
Eine solche Skalierung kann Probleme bei Physik, Kollision, Lichtberechnung oder LOD-Wechseln verursachen – denn die Engine rechnet intern weiterhin mit der ursprünglichen Mesh-Größe. Die Skalierung wird lediglich als Modifikator auf das Instanzobjekt angewendet.
Alles, was du in den Viewport ziehst, ist letztlich nur eine Instanz des Ursprungsobjekts aus dem Content Browser.
Wenn du zum Beispiel im Content Browser einen Stuhl durch einen Tisch ersetzt, werden alle Instanzen dieses Stuhls in deiner Szene automatisch durch Tische ersetzt.
Für sämtliche Berechnungen – wie Physik, LODs oder Licht – verwendet Unreal das ursprüngliche Mesh aus dem Content Browser, nicht die skalierten Instanzen im Viewport.
Das bedeutet: Auch wenn du ein Objekt im Viewport skalierst, bleibt die interne Referenzgröße die gleiche – und das kann zu unerwarteten Effekten führen.
Bestimmte Faktoren der Instanz werden zwar einbezogen aber ich würde mich nicht darauf verlassen.
Ja, ich weiß was Du meinst und exakt diese Problem hatte ich grade wieder. Ich arbeite ja leider mit 3d Max und kenne Blender z.B. fast gar nicht. Ich sehe aber die Entwicklung von Blender und würde jedem empfehlen, lernt das, nicht Maja oder 3D Studio, nutzt Blender von Anfang an. Professionelle 3D Agenturen nutzen heute 3D Max, es ist aber so verdammt teuer das man mit 3D Max Kentnissen auch nur in solche spezialisierten Agenturen rein kommt. Mit Blender kannste in jedem Grafikjob arbeiten. Also nur so nebenbei.
Aber zurück zum Problem, hatte ein FBX importiert um ein Skelett zu machen. Würfel aufgezogen und gesehen das das fbx das ich ~20m gross einbauen will 1cm gross ist. Auch erst einfach skaliert und beim skin modifier kam der Fehler. Die Reichweite des Knocheneinflusses war viel zu gross, also bildlich, der Oberschenkelknochen hat auch die Zehen mitbewegt. Dafür
ist Chat GPT wieder super, ich wusste das es eine Lösung für das Problem gibt und die KI hats auch gleich ausgespuckt,
XForm reset
Damit passt man ein 3D Objekt an die aktuelle Weltgröße an in 3D Max. Ich weiss nicht ob das in UE oder Blender genauso heisst aber man kann Chat GPT fragen: Wie heisst die XForm reset Funktion von 3D Max in Blender oder UE.
Da ich ja versprochen hab nützlich fürs Forum zu sein:
🎯 In Blender: "Apply Transforms"
XForm Reset in Blender heißt:
Apply All Transforms(Strg + A)Das entspricht dem Zurücksetzen von:
-
Location (Position)
-
Rotation
-
Scale
👉 So geht's:
-
Objekt auswählen
-
Drücke
Strg + A(oder im Menü:Object>Apply) -
Wähle
All Transformsoder einzelne wieRotation and Scale
Ergebnis: Die aktuellen Transformationen werden in den Ursprung „eingebacken“. Die Skalenwerte stehen danach auf 1, Rotation auf 0 etc.
🎯 In Unreal Engine:
In Unreal Engine gibt es kein direktes XForm Reset wie in 3ds Max oder Blender, aber ähnliche Konzepte:
Option 1: Reset Transform
-
Wähle das Objekt im Level aus
-
Rechtsklick auf das Objekt im World Outliner oder im Viewport
-
Wähle
Transform>Reset Location / Rotation / Scale
Option 2: Bake Transform in Static Mesh Editor (für Meshes)
-
Wende ggf. eine Reimport- oder Transform-Änderung über das Import-Menü an
Das hört sich so nebensächlich an und vielleicht wird Auszubildenden oder Studenten sowas direkt beigebracht wie das 3d 1x1. Autodidaktisch ist das aber ein Kanckpunkt der viele Probleme verursachen kann und es ist optisch nicht nachvollziehbar woher das Problem kommt. Warum sind die Schatten oder die Relieftextur so komisch, da stimmt doch was nicht, ja ohne XForm reset wurde das Objekt statt auf 20m Größe auf 1cm Größe berechnet.
Gut das wir mal drüber gesprochen haben, liesst in so langen Postings aber wahrscheinlich kaum einer.
-