Beiträge von kirby

    Matierals wo raus ?

    Parallax vergleichbar mit was ?

    Keine Ahnung was dieser Satz bedeuten soll.


    Ich glaube er mein mit Parallax - den Effekt den es bei Bump Maps gibt. Das verbessert das Bumpmapping. Den gibt es aber bei Normalmaps nicht....und mit "Material wo raus?" würde ich auf Textur backen tippen.


    @ Draylor : Da hat Sleepy schon recht. Das ist sehr schwammig.

    Das ist ein Ratespiel.

    Ich wollte niemanden kritiseren und hab dies auch nicht auf den Threadsteller bezogen. Das mit dem Lowpoly hat ja erst mal nichts mit der eignetlichen ursprünglichen Frage und mit dem generellen Verständnis von PBR oder Displacement zu tun. Und jeder kann natürlich selbst entscheiden wie weit er optimieren will oder möchte.

    Der Typ zeichnet das was zusammen ... vor allem der Eimer sieht leicht Pervers aus :)

    Genau genau - exportieren wir doch einfach alles HQ und sehen dann zu wie die Performance den Bach runter rauscht. Und Texturen sind leider auch ein nicht zu unterschätzender Speicherfresser. Aber gute Normalmaps bringen schon richtig coole Details. Gute UV-Abwicklung sorgt für kleinere Texturen ohne Details zu verlieren.


    Die Kunst ist es, es mit wenig Ressourcen richtig gut aussehen zu lassen...und das kostet Zeit, Geduld und wieder mal noch mehr Arbeit und Optimierung und wieder mal noch mehr Zeit.


    Ich hab heute den ganzen Tag Windräder, Solarpanels, Strommasten, Bäume, etc. von meinen alten Modellen für ein Projekt Polyoptimiert. Insg. Hab ich bestimmt fast 100.000 Polys für alle Modelle zusammen rausgearbeitet. Und das kostet richtig richtig viel Zeit...8 Std.nur für optimierung eigentlich fertiger Modelle (und UV-Abwicklung fehlt noch :( ). Wie viel Segmente braucht so ein einfacher Zylinder, 6, 8, 10 oder doch lieber 16,18, 20?

    Wie groß ist er, bzw wie groß überhaupt sichtbar in der Szene. Sieht man ihn denn überhaupt? Könnte der Zylinder, da so klein, evtl. auch einfach nur ne Box sein und welche Deckflächen sind überhaupt sichtbar. Dann könnte ich die nicht sichtbaren ja auch löschen !?...und so darf man dann das ganze Prozedere für jedes einzelne Objekt akribisch durcharbeiten, Stück für Stück... Wenigstens belohnt einen das Endergebnis.

    also > Displacement Materials und PBR


    PBR - Physically Based Rendering:


    Dafür verwendest du Texturen für verschiedene Channels um den Albedokanal, die Glanzlichtstärke, die Roughness und das Relief oder die Normalmap über Teturen zu definieren/festzulegen.


    Displacment - sub poly displacement:


    Displacement heißt in der Langform "sub poly displacement". Das hast du in allen gängigen 3D-Programmen. Der Name Sub deutet darauf hin das Material unterteilt wird. Dementsprechend muss ein Unterteilungsfaktor angegeben werden. Je höher der Faktor desto höher wird das Mesh unterteilt und zwar richtig unterteilt und zwar genau dann, wenn man auf den Renderbutton drückt um ein Bild berechnen zu lassen. Im Editor wäre das zu heftig, daher sieht man das Displacement dort auch nicht

    und dort wird es auch in einem 3D-Programm noch nicht berechnet, obwohl man das dort über Deformatoren teils schon erzwingen kann, in Cinema wäre das dann der "Displacer-Deformer".


    > Vor dem Rendern macht der Renderer aus der Geometry dann:

    aus einem Polygon entstehen 2 Polys und wenn der Unterteilungslevel höher ist dann eben 4, 8, 16, 32, 64, 128, usw. Polys aus jeder einzelnen Polygonfläche und diese werden dann anhand der Graustufeninformationen in der Höhe im 3D-Raum angeordne.


    Das ist sehr speicherintensiv (daher erfolgt die Berechnung auch im 3D-Programm erst kurz vor dem rendern!) und ich bin mir nicht ganz sicher, denke aber nicht das Unreal etwas so speicherhungriges überhaupt können will/machen kann...falls doch, würde mich das auch interessieren...


    Du kannst versuchen dich mit einer Normalmap da anzunäheren.

    Aber das ist nicht ganz das selbe.


    Anbei ein Link wie es in Cinema gehen würde, aber so ähnlich geht es auch in allen anderen 3D-Programmen:

    https://greyscalegorilla.com/t…isplacement-in-cinema-4d/


    Evtl. verstehst du jetzt besser was Displacment mit der Geometrie genau anstellt und wieso es so speicherintensiv ist.



    Wenn du Details (Blätter, Äste, Steine, Gras, etc.) willst musst du die Scattern/Pinseln. Damit hab ich mich in Unreal noch nicht beschäftigt, aber das geht dann in die Richtung:


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Davon gibt es wirklich sehr viele schöne Tutorials und Videos auf Youtube, welche dir bestimmt alle möglichen Fragen beantworten und dir zeigen wie man an die Sache ran gehen könnte - siehe mal hier:

    https://www.youtube.com/result…ch_query=unreal+landscape


    Ich denke das ist eher der richtige Ansatz ....

    ich seh es mir gerne an. schick es mir doch bitte an die mailadresse die ich dir pm gesendet habe - hier im forum möchte ich die nicht posten - bekomme schon genug spam. brauche keine weitere Mailsammler-Bots, die sich auf mich stürzen...


    Zum Mograph Chachen hier direkt ein Video von MAxon:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    .aber ich bin mir ab dem Punkt nicht ganz sicher - schick es mir mal iund ich teste das fix durch und geb dir bescheid.


    nimm einfach wetransfer:

    https://wetransfer.com/


    musst dich nicht anmelden - einfach auf free klicken und los geht´s bis zu 2 GB am Tag....



    fab

    sorry mein fehler - das tut oben geht schon aber für das binden sind diese tuts hier besser.


    Autowichtung geht so:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Aber hier wird keine manuelle Anpassung gezeigt, dafür ist sind diese hier besser,

    auch wenn jeder davon es finde ich viel zu umständlich erklärt - kuck dir mal die an - hab extra gekuckt, das die tuts kurz sind:


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.



    Brian Horgan hier ist der Burner - von dem hab ich soviel gelernt - ein Meister, aber das geht denke ich zu weit, für das was du willst aber der zeigt dir ganz genau wie man wichtet, an dem Punkt wo er sagt "and here begins the fight" :)


    Generell. Wenn gezeigt wird wie du ein komplettes Biped RIG aufbaust über die C4D Characterkomponente, so wie Brian, z.B. anfängt, dann kannst du das komplett überspringen, denn du willst keinen 2-Beiner mit einem vollständigen Rig. Das ist wie mit Kanonenkugeln auf Spatzen geschossen. Kuck dir einfach nur das Wichten an und in den anderen Tuts oben, wie man ganz simple einen Bone erstellt.


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Der Worklow ist immer der selbe.

    Erst Bonekette zeichnen, was du nicht brauchst, da du nur einen Joint in der Position deines Kettengliedes brauchst.


    Diesen dann über die Autobind-Methode wichten und sollte er nicht richtig gewichtet sein, kannst du diesen per Hand nachwichten.


    Teste kannst du das ganze indem du den Joint einfach bewegst, dann solte sich das Kettenglied zu 100% mitbewegen.


    .. und dann geht es weiter über den Kloner um die restlichen Kettenglieder zu erstellen.

    Das Spline ist letztendlich nur ein Hilfsmittel für die Animation in C4D. Du musst nicht das ganze Mesh in PLA backen. Letztendlich kann jeder Klon auch ein animiertes Nullobjekt sein. Die backst dazu einach für die Nullobjekte welche du den Spline entlang klonst die Positios- und Winkelwerte. Nach dem backen löscht du die Keys der Achsen die nicht notwendig sind wieder aus der Timeline. Das ist nur ein Ansatz der mir einfällt und du hättest leider die ganzen Einzelteile. Evtl. kann man die dann auch in Unreal nur ein Stück importieren und dort die anderen als Instanzen für die restlichen Nullobjekte ersetzen.


    ----------------------------------


    Unabhängig davon ist denke ich der einfachste Weg wirklich ein Bonrig zu nehmen.


    Wichten und Simple Bones in Cinema ist wirklich super einfach - das Tutorial hier müßte für deinen Einsatzzweck schon ausreichen:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Mach einfach pro Klon einen Bone. Dafür nimmst du deinen Kloner und kopierst einfach x-viele, z.B 30 Bones da rein (Die Bonelänge und Orientierung ist dabei egal - es geht nur um die Position.). Dann nimmt der Kloner für jeden Klon genau ein existierendes Boneobjekt. Jetzt konvertierst du dein altes Klonrig und fasst diese aLLE zu einem einzigen Objekt zusammen. Jetzt wichtiest zu jedes einzelne PolySegment zu jedem zugehörigen Bone mit 100% Wichtung pro Segement.


    Am Ende backst du in der Timeline einfach nur die Bonekette. Jetzt brauchst du den Kloner und das Spline nicht mehr und kannst das ganze als FBX exportieren und in Unreal importieren.


    Wenn du alternative Animationen haben möchtest kannst du auch nur für die Bonekette andere Animationen backen und NUR die gebackene Bonekette ohne Meshes Nullobjekte etc. als FBX

    exxportieren und nachträglich hinzufügen. Unreal erkennt dann, dass die Rigstruktur zu deinem ersten Import gehören. Das hat bei mir super geklappt mit einem ähnlichen, aber leicht anders aufgebautem Modell...



    Nachtrag > ist mir grad eingefallen:

    mach einen Bone + 1 Segment und wichte das - stopf das einfach x-mal unter den Kloner. Dann musst du nicht jedes einzeln wichten ....backe das und konvertiere dann den kloner...das geht super fix.

    Da dreh ich mich mit meinen Gedanken auch drumrum.


    Die Triggerbox hab ich einfach erzeugt, bin aber leider daran gescheitert diese im "FirstpersonCharacter" Blueprint anzsprechen. Wie oben im Screenshot gezeigt kann auch keine Variable als TriggerboxActor anlegen, da ich diese nicht mit der Triggerbox füttern kann.


    Daher Frage 1:

    Kann ich die irgendwie direkt ansprechen?


    Aktueller Umweg:

    Als Notlösung/Umweg (will ich eigentlich gar nicht), habe ich die Triggerbox im Worldoutliner angeklickt und dann über den "Blueprints" Button ganz oben in der UI "Convert Selected Actor to Blueprintclass".


    So würde man auch ein typisches PREFAB erstellen. Jetzt konnte ich diesen neuen Blueprint wie oben im Screenshot angezeigt über "GetAllActorsFromCLass" endlich ansprechen, vermute aber, dass ich ja den Blueprint anspreche der die Triggerbox enthält und nicht die Triggerbox direkt selber.


    Der Blueprint mit der Triggerbox, also das Prefab - siehe aktuell so aus:

    ich mach´n video - ich habs jetzt erst mal auf meinen Server gelegt:

    http://www.digital-connector.c…ndheld-AR-Template_01.mp4


    Letztendlich ist das ein Handheld Template, in welchem ich beliebeige 3D Objekte anzeigen lassen kann und später auch einfach weiterentwicklen kann. Erst mal brauch ich aber den Grundstock.


    Hier siehst du schon wie sich die ARplanes über das Tracking aufbauen und jederzeit in Echtzeit aktualisieren und auch dementsprechend Ihre Größe ändern.


    Die blauen Outlines sind nur der Debugmodus..die sieht man eignetlich nicht, genauso wie die vertikalen Otlines der Planes am Kühlschrank. Das hab ich verboten genauso das man auf eine vertikale Plane ein Objekt setzen/spawnen könnte, bzw. auf die Rückseite einer ARPlane. Das kann man jetzt auch ganz einfach umkehren. Hätte man also z.B. als Objekt ein Wandregal, dann würde ich verbieten dies auf dem Boden zu platzieren und auch das blaue Planeraster dort anzuzeigen zu lassen. Das hier gezeigte Diagramm darf aber nicht an der Wand hängen....das soll wagerecht nur auf eine horizontalen Plane gespawnt werden können. Das funktioniert wunderbar.


    Dann Toucht man mit dem Finger auf irgendeine Plane - diese EINE Plane wird dann per LineTrace ausgewählt und dann erscheint der Spawn genau auf dieser einen Plane an der Koordinate. Den kann ich drehen, rotieren, skalieren und zwar per Gestures (Rotate/Pinch) oder über die Sticks. Ob beides Sinn macht muss ich mir noch überlegen. Aktuell finde ich die Sticks etwas präziser.


    SWIPE (da wo der Finger ist bewegt sich auch realtiv dazu das Objekt hin auf der x und y achse) - das ist hier im Video noch nicht integriert!

    Für AR Mobile muss man jedes mal einen kompletten Build machen und den Mist auf dem Endgerät testen, da Unreal das nicht simulieren kann, da man die Kamera + das Tracking braucht, dass Unreal halt nicht hat.


    Daher habe ich den Swipe im FirstPerson Template angelegt mit einer einfachen Plane.

    Der Swipe funktioniert aber die Kollisionsberechnung an den Grenzkanten der Plane eben nicht. Jetzt kann ich wenigstens, ohne immer einen kompletten Build zu machen, gleichdirekt in Unreal testen.


    Wenn das funzt, dann kann ich es auch auf das AR-Template übertragen und wieder mich mit den Builds und dem Testing rumschlagen... aber der Swipe geht schon mal super exakt.



    Nochmal zu meiner Frage oben. Wie kann ich den auf die TRiggerbox direkt verweisen, bzw, wenn diese in einem Blueprint ist, wieso kann ich dann die Triggerbox nicht auf die exakte Größe der Plane anpassen, wie in dem Screenshot oben gezeigt. Wenn das gehen würde, kann ich mich durchgoogeln (da gibt es Stuff zu) um die Abfrage InTriggerbox - true oder Out of Triggerbox - false zu machen und damit die Kollision umzusetzen,....

    Die ARPlane ist eine von flieen ARPlanes welche durch live Cameratracking erzeugt wird und sich dementsprechend auch jederzeit vergrößern kann, wenn die Kamera geschwenkt wird uns es mehr Tracking Punkte gibt (siehe Video ganz oben ab 9:30)


    Der Planeactor? - Ich nenne den Spawn. Das ist irgendein 3D-Objekt, eine Kugel, ein Würfel oder ein Roboter, eine Biene, was auch immer, kann statisch oder animiert sein. Diese sitzt in deinem einem Blueprint auf Pos 0, Rot 0 und skalierung 1,1,1 und wir so auch auf der ARPlane erzeugt und zwar genau da wo dau auf dem Screen ghintoucht, genau auf dieser einen ARPlane die du angetouscht hast...

    Es werden ganz viele AR Tracking Planes erzeugt - das zeigt das Video ganz oben ab 9:30.

    Erst in dem Moment wo ich auf irgendeine Plane touche wird diese ausgewählt - das funktioniert auch und ich kann auch den Namen für diese eine Fläche rausschreiben und auch auf die Pos, Size & Rot der Fläche dann zugreifen. Gleichzeitig wird dann auch der eine Spawn (das gewünschte 3D Objekt) dann an der Position auf der Fläche erzeugt. Jetzt kann ich das Objekt per Gestures drehen, rotieren und skalieren und eben per Swipe verschieben. Und beim Swipen soll das Objekt diese eine, per LinetTace ausgewählte Fläche, eben auch nicht mehr verlassen können...die Fläche kann sich dabei jederzeit in der Größe ändern, aber das sollte kein Problem darstellen. Durch EventTick kann ich die Werte ja djederzeit aktualisieren....


    Zu der Triggerbox mit Event Overlap hab isch schon Sachen gefunden - das könnte gehen - siehe:

    https://answers.unrealengine.c…s-still-within-a-tri.html


    Nochmal zu der Frage ganz oben, wie ich auf die Triggerbox richtig im Blueprint verweisen kann.

    Aktuell möchte die leider nicht die Größe, Rotation und Position der Plane annehmen - so sieht es aktuell aus, aber das juckt die Triggerbox überhaupt nicht... - siehe:




    .. ich vermute das ich den blueprint in dem die Triggerbox ist anspreche, aber nicht die Triggerbox direkt, was ja irgendwie nicht geht, so wie oben beschrieben. Hab ich da einen Denkfehler??

    Mal noch ne andere Frage die auch zum Thema indirekt gehört und mich tierisch nervt.

    Zum testen benutze ich das Std.FirstPerson Template. In der Szene erstelle ich mir aktuell immer meine Testobjekte, also die Plane, eine Triggerbox, ein Kollisionsvolumen etc.


    Mein BP_Schaltung mache ich im "FirstPersonCharacter" Blueprint. Jedesmal wenn ich auf einen einfachen Würfel, eine Plane, eine Triggerbox, etc. im BP verweisen will, kann ich keine Variable dafür anlegen, da dort für den Actor immer steht "Editing this value in a class Default Obejct is not allowed!".


    Daher muss ich aktuell gezwungener Maßen immer einen BP aus jedem Objekt machen und kann dann auf diesen über "GetAllActorsFromClass" verweisen und so komme ich dann endlich mal an ein einfaches Grundobjekt ran. Muss man das wirklich immer so machen? Kann man nicht direkt ein Objekt einbinden. Mit "Cast to" komme ich anscheinden gar nicht an so ein einfaches Objekt ran...


    siehe Screenshot:


    ja leider - das problem liegt zw. Kelt und lokalen Koordinaten.

    die arplane hat ihr lokales Koordinatensystem und der Spawn hat wiederum sein eignes veretztes.

    natürlich könnte ich den spawn auf das lokale Koordinatensystem der Plane setzen, aber das geht nicht, weil der dann jeweils unterschiedlich verdreht zum Betrachter wäre.


    Folgende Idee: Wenn man eine Triggerbox an das lokale Koordinatensystem der Plane anpasst und auch die größe, kann ich dann nicht checken ob der Spawn sich in der Triggerbox befindet oder nicht? Das könnte man dann über eine Branch als Kollisionsverhalten inBox/notInBox = Ture/False verwenden?


    Die eigentlich Größe des Objects müsste ich dann noch damit verrechnen, da ansonsten die Mittelpunktkoordinate des Objekts als Kollision dient ohen den UmRadius des Objektes mit zu beachten...

    Das Objekt ist ein einem Blueprint auf Pos und Winkel 0,0,0 und wird per Touch dann in an die Postion auf die jeweils errechneten und angetouchte AR-Plane gespawnt und hat dann auch wieder genau die Größe von 1 und einen Winkel von 0. Es kann dann aber per GesturePinch/Rotate beleibig skaliert und gedreht werden.


    Shmann hat mir denke ich den richtigen Ansatz gegeben. Die aktuelle Objektgröße sollte ich vermutlich noch zusätzlich aus der Kollisionsberechnung rausrechnen, also abziehen.


    Frage zu dem Winkel? Es gibtz doch globale und lokale Objektkordinaten.

    Der Node "Get ActorTransform" gibt lokale Objektkoordinaten aus? Und "get WorldLocation" oder Transform gib gloabel Koordinaten aus? Die ARPlane wird manchmal auch schief im x,y Raum erzeugt werden....das muss ich mir ansehen wie ich das dann zwischen lokal und globaler Verschiebung verhält...

    Hi Leute,



    an folgendem bin ich aktuell hängen geblieben. Egal was ich in Google oder Youtube eingebe *dead* -

    ich finde einfach keine Lösung, dabei ist es bestimmt recht einfach.


    Für mein AR Template:

    Da wird zu Begin das AR-Tracking gestartet und führt dann zu AR Planes, welche für die Kollision

    und das setzen des AR Objects als Spawn führen.


    Die generierten AR Planes sind einfache ganz normale Flächen, welche sich aber jederzeit in der Größe verändern können, wenn mehr getrackt wurde. Generell sind es einfach Flächen oder Planes - Das sieht so aus - siehe hier ab Minute 9:30:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    Wenn ich auf den Screen Touche wird ein LineTrace durchgeführt, der dann das gew. Ar Objekt auf der Plane platziert.

    Wenn ich das Objekt per Swipe jetzt im Raum verschiebe, soll es nicht über diese EINe angeklickte AR Fläche, auf der es erzeugt wurde, hinausgezogen werden können. Es soll sich einfach nur auf dieser Fläche bewegen können und an den Rändern stoppen.

    Also eigentlich ne ganz einfache Kollision an allen Grenzen der Fläche. Wie bekomme ich das denn hin. Das Objekt ist natürlich flach, ich bräuchte aber eigentlich imaginäre Wände an den Außenseiten der Fläche für die Kollision.


    Vielversprechend sah das "Blocking Volume" aus. Das erzeugt einen schönen Blockwürfel. Die Position und größe könnte ich im Blueprint immer schön an die AR Plane anpassen. Das blockt aber leider nur von außen ;(!! Wenn Mein Objekt da drinnen sitzt lässt es sich gar nicht mehr bewegen. Daher hab ich danach gesucht wie ich das "Blocking Volume" invertieren kann und auch nichts gefunden.


    Ich hab auch danach gesucht wie ich einen Actor auf eine Area einschränken kann. Dann bräuchte ich gar keine Collision.

    Da hab ich nur was für die AI gefunden. Letztendlich geht es mir bei der gew. Technik erst mal nicht genau um die AR Planes, auch wenn ich es später auf deise anwenden will. Aktuell teste ich mit einer einfachen statischen Plane in einem Firstperson Template und meiner Kugel darin welche ich per Maussimuliertem Swipe darin bewegen kann - siehe:



    Wie kann ich einen Actor auf eine spezifische Fläche beschränken, so dass dieser sich nur innerhalb dieser bewegen kann?

    Das Prinzip könnte ich ja dann auf die AR Plane übertragen.... das sollte doch doch irgendwie machbar sein....

    Danke Jungs > der Tip mit "GetAllWidgetsOfClass" hat funktioniert.


    Im UMG hab ich jetzt drei einfache Text-Buttons

    und jedem Button einem Dispatcher verpasst - sieht so aus:



    Für den ersten Button: Event > Im Levelpblueprint füge ich das Widget dem Viewport zu . irgendwo muss es ja einmal erzeugt werden.

    Sonst sieht mann auch keine Buttons - sieht so aus:



    Für die beiden weiteren Buttons > Event > in einem anderen Blueprint ! > bei mir dem Prefabblueprint (das ist das Spawn-OBJ) kann ich jetzt den andern beiden Buttons verschiedene Events zuweisen über "GetAllWidgetsOfClass" ohne nochmal das Widget dem Vieport hinzuzufügen. Das funktioniert als Reference darauf recht gut - sieht so aus:



    > cool danke :) - das funzt.


    finde es persönlich als immer noch sehr viel Nodes für so ein einfaches ButtonOnClick Aufrufergebnis.

    Auf jeden Fall schon mal vielen Dank Euch beiden.

    Wenn es noch einfacher gehen sollte bin ich sehr interessiert daran...


    LG

    Fab

    ...das hört sich gut an :)


    Das "UMG Main Menu Widget" ist bereits eine Reference. Vielmehr fehlt das Setten der Reference. Nachdem du dich für ein Erstellen entschieden hast.


    Wie sette ich das genau ?


    Doppelt erstellen sehe ich auch als quatsch an...

    Über einfache Variablen geht das ButtonClick Event nicht in einem
    anderen Bluprint direkt anzusteuern?