Beiträge von triztan

    die folgenden materialien werden unter UV-bestrahlung selbstleuchtend, leuchten aber ohne UV strahlung nicht selbst weiter.


    ich verwende fuer solche sachen fluorescein-natrium (leuchtet gelb-gruenlich) und chinin (ist in schweppes drin, leuchtet blau).


    fluorescein braucht WINZIGE mengen um viel wasser zu faerben, wird deswegen auch zum einfaerben von wasserlaeufen verwendet (ja, man kann damit auch den rhein sichtbar zum leuchten bringen). fluorescein gibts relativ guenstig in jeder anstaendigen drogerie/apotheke. 100 gramm ist glaube ich die mindestmenge, das sollte reichen um den rhein zu faerben.....trotzdem, bitte nicht machen. das zeugs ist auch relativ ungiftig (Giftklasse 4)


    bei chinin ist es etwas komplizierter dran zu kommen, denn es gilt als arzneimittel. die einfachste loesung ist, fuell einfach schweppes in die glaeser rein, das funzt gut.


    hoffe das hilft weiter. gruss,
    daniel

    nein, man kann in edius den farbraum nicht erweitern. deswegen habe ich geschrieben, dass hierzu ein compositing programm noetig ist.


    der erweiterte farbraum führt zu massiven datenmengen, d.h. man braucht dazu einen schnellen rechner mit viel ram.


    -> hier ein vergleich, wie floating space den kontrast erweitert:
    shake beispiel

    jo schon richtig. ich spreche davon, das von miniDV in den rechner eingelesene material im farbbereich zu erweitern (floating space), und dann darin farbkorrekturen zu machen.


    bei echtem film wird das material bereits im floating space digitalisiert um den kontrast des films beizubehalten. bei MiniDV muss man deshalb etwas tricksen.

    ich habe mir auch ueberlegt nen mac zuzulegen, entschied mich aber
    fuer einen fujitsu-siemens R540 Dual Quad Xeon zu nem viel guenstigeren
    preis. das ganze kam sogar viel guenstiger als selber schrauben.


    Fujistu-siemens


    Geschwindigkeitsmaessig konnte ich schon benchen dass es schneller als
    ein vergleichbares alienware system ist. das gehaeuse ist sehr aufgeraeumt,
    hat nen sehr niedrigen geraeuschpegel (seeeehr wichtig).


    die geschichte mit 64bit treibern ist aufm mac sowie auf anderen 64bit faehigen systemen die selbe. alle 32bit programme funktionieren und koennen den mehrspeicher nutzen, hardware treiber gibts mittlerweile auch fuer das meiste. ausser halt die nx karte, die laesst sich leider nicht nutzen und verstaubt hier in der gegend rum. ich weiss auch ned wieso ich die karte ueberhaupt noch brauche, support fuer 64bit treiber ist nicht in aussicht und edius performt auf diesem system so schnell dass ich gar nicht merke dass keine nx eingebaut ist.


    aber eben, jedem das seine. viel spass bei der entscheidungsfindung,
    daniel

    der einzige unterschied ist, dass das eine proggie was kostet und das andere nicht. schoene bildchen machen koennen alle ;)


    viel spass beim modellieren,
    daniel

    Zitat

    Original von esche
    Was ich bis jetzt noch nicht gefunden habe ist: optical flow.
    Ist das ein Java Programm ?


    optical flow ist eine methode mit der moderne compositing software bildfolgen analysiert,
    so kann z.b. motion blur, retiming, morph und warp viel besser errechnet werden.
    d.h. dies ist kein programm sondern nur eine mathematische methode mit welcher
    einige compositing programme oder retiming plugins arbeiten. diese methode liefert im moment die besten ergebnisse bei retiming weil automatisch versucht wird neue zwischenbilder aufgrund der basisbewegung der bildinformationen zu generieren.


    -> Optischer Fluss

    hier noch 2 blender links:
    blender wiki: fluids
    blender fluids: tutorials


    die beiden links ware fuer die simulation gedacht, wobei das halt nicht
    vorhersagbare ergebnisse liefert und wie bei vielen fluid simulationen
    wenn nicht korrekt ausgefuehrt sehr kuenstlich ausschaut.


    ansonsten ist staffels link "the way to go". wenn das noch detailierter
    ausgebaut wird schaut es ganz fett aus.

    genau dieses problem wird so geloest. durchsichtige bereiche bleiben durchsichtig.
    egal, ich wuerde das mit rauch und wasser auf alle faelle so loesen. einfach ausprobieren. es funktioniert garantiert. 1x1 des compositings....


    und nochmals.....es muss nichts gekeyed werden. sobald man keyed treten natuerlich die probleme die von herrn manges geschrieben wurden auf.

    und eben....wasser auf schwarzem hintergrund braucht man nicht mehr zu keyen.


    einfach r,g oder b kanal in einen alpha kanal einfuegen, am kontrast schrauben bis es gefaellt und als luminanz matte verwenden, danach wieder einfaerben, so einfach isses....

    hmm, also wenn du den tropfen auf schwarzem Hintergrund filmst, brauchst du nicht mehr zu keyen, Du hast automatisch ein Key erstellt, da alles ausser dem Tropfen Schwarz ist. Nun kannst Du einfach deine Footage mit dem gewuenschten Hintergrund compositen.


    So wirds ja auch in Hollywood gemacht. 3D Software wird nur eingesetzt wenn unbedingt noetig. und wer mal mit relflow gearbeitet hat weiss wieso....


    Realflow ist teuer und fuer einen einmaligen gebrauch macht dies nicht sinn, da man sich auch einarbeiten muss. ausserdem ist das proggie sehr rechenintensiv.


    natuerlich kann man relativ einfach diese wassertropfen animation inkl. splash in einem beliebigen 3d programm (www.blender.org is gratis) erstellen aber eben, dazu braucht man ein bissl erfahrung.


    retimiong:
    retiming machst du am besten in ner compositing software mit optical flow. so kann zumindest ein teil der zwischen bilder mathematisch errechnet werden.


    wenn du diese ressource nicht hast, kannst du die zwischenframes auch painten, sollte nicht so ein wilder job sein dies zu tun.


    lieber gruss,
    daniel

    hmm, ok, annaehernd kann man evtl mit edius einen filmlook hinkriegen aber um es anstaendig zu machen wuerde ich auf compositing software zurueckgreifen und Farbkorrekturen der einzelnen channels im Floating Space machen.


    hauptsaechlich geht es darum, dass du in video einfach nicht genug farbschritte hast.
    film hat einen weitaus groesseren farbbereich.


    Wenn du also pro Video-Farb-Kanal einem Bereich 0-1 (0 Schwarz, 1 weiss) hast, bist du limitiert auf diesen bereich. Viele Video Programme teilen 0-1 in 255 Schritte ein. Dies gibt wenig Spielraum fuer Feinheiten. Deshalb kann man den Farbraum kuenstlich erweitern und versuchen so einzelne Farbkanaele separat fein zu bearbeiten.


    Natuerlich ist bei uebersteuertem Signal (1) oder bei Schwaerze (0) nichts mehr zu retten, d.h. Voll Weiss bleibt voll Weiss -> gibt weisse Flecken.


    Eine weitere Komponente ist das filmgrain, je nach verwendetem Film schaut das Grain in jedem Farbkanal anders aus. Ein bissl Grain muss also auch rein ;)


    Edit: nach den ganzen bearbeitungen muss man fuer bildschirmpraesentationen das material wieder runtersampel. der floatingspace bringt einfach nur mehr flexibilitaet. ausser natuerlich du exportierst das material wieder auf film zurueck...dann laesst man es floating....


    viel spass,
    daniel

    Und schon sind wir wieder off topic. der thread handelt nicht von after effects oder imaginate, oder dem Einsatz von Bildern in verschiedenen groessen sondern einzig allein von der Moeglichkeit die Aufloesung des Hauptprojektes frei einzustellen. Erst lesen, dann posten ;)


    daniel

    ich habe nur hardwareseitig ein problem. da 32bit software unter xp64 anstandslos laeuft,
    funktioniert auch edius. nur wuerde ich halt die nx hardware auch gerne einsetzen.


    das mit der Speichergrenze nutze ich ganz klar aus in 3D und compositing software, dies ist auch der einzige Grund wieso ich gewechselt habe.


    trotzdem, bleibt doch bitte on topic und lasst dies nicht zu einem flame thread wachsen, dies ist ueberfluessig.


    daniel

    Zitat

    Original von staffel
    Letztendlich ist doch die Videoauflösung relativ wurscht, da man ja alles mit dem ProcoderExpress in der Größe einstellen kann, oder? Das würde doch nur, wie oben beschrieben im Layouter Sinn machen.


    nicht wirklich, ich produziere viel in 3D und compositing software, dazu kommt,
    dass ich oft auf nicht 4:3 oder 16:9 formate verwende, sondern eben die
    aufloesung die ich gerade brauche.


    da die geschwindigkeit fuer den schnitt oder rudimentaere farbkorrekturen in edius
    ganz fix ist wuerde ich dies gerne auch nutzen. leider muss ich bei 60 % meiner arbeit
    immer wieder auf premiere, after effects oder ocmbustion arbeiten weil ich da in jeder
    gewuenschten aufloesung arbeiten kann.


    klar verstehe ich dass aufloesungen groesser als HDV wohl nicht unbedingt gehen,
    bei kleineren aufloesungen waere doch der geschwindigkeitsvorteil recht markant.
    kann eben sein, dass der codec auf 4:3 und 16:9 optimiert ist, wenn dies aber nicht
    zutrifft waeren benutzerdefinierte aufloesungen der hammer und ich kann endlich premiere ins regal stellen, wenn nicht, werde ich wohl in zukunft nicht mehr in edius
    investieren da edius so wie es ist fuer reine video geschichten ausreichend ist.


    daniel

    Hallo,
    ich arbeite sehr oft in verschiensten Aufloesungen fuer Web, CD und
    Standalone Anwendungen. Gibt es oder wird es je die moeglichkeit geben
    benutzerdefinierte Videoaufloesungen in Edius einzustellen?


    Oft muss ich deswegen meine projekte auf after effects, combustion oder premiere
    "umlegen".


    zumindest standardgroessen wie 320*240, 640*480 wuerden mich
    schon mal weiterbringen.


    weiss jemand mehr zu diesem thema? geht dies ueberhaupt mit der Hardware
    und dem canopus codec?


    vielen dank,
    daniel

    hat sich bezueglich des betriebes der NX hardware unter xp64 etwas getan?


    ich kann den treiber nicht installieren und die karte erscheint im device manager als "multimedia device".


    edius selbst funktioniert aber ich wuerde schon ganz gerne auch die gekaufte hardware verwenden.


    vielen dank fuer informationen,
    daniel

    schade dass sich niemand meldete bisher.
    leider kann ich dir da nicht helfen.


    ich bin auch ganz scharf auf eigene presets,
    der unterschied ist dass ich gerne x,y groesse
    und den pixel aspect selbst einstellen moechte.


    80% meiner arbeit sind custom aspect und variieren
    von 300x100 zu 800x600 usw.


    dies ist der EINZIGE grund weshalb ich noch andere
    schnittsoftware einsetze.


    ist eine solche moeglichkeit geplant?


    daniel