Stimme aufpeppen

  • Hallo,
    ich habe ein neuen Projekt vor und möchte es mit gesprochenen Kommentaren versehen.
    Nun ist es so das jeder, der sich selber im Film hört, es schrecklich-grässlich findet.


    Was kann man also tun um die Stimme - naja vielleicht nicht zu verfremden - sondern etwas aufzupeppen.
    Also voluminöser oder ich weiß nicht was ?( zu machen.


    Habt Ihr einen Tip welches Proggy dazu taugt.


    Tschau ?

    • Offizieller Beitrag

    Hallo,


    den gleichen Audiotrack synchron noch einmal unter den ersten Audiotrack legen. Je nach Geschmack in einem Audiobearbeitungsprogramm um WENIGE Milisekunden asynchonisieren.

  • Vielen Dank,


    vor allem für die konstruktiven Vorschläge von ROLAND - hast' mal was gesagt - nun ist gut -


    __________________________________________________________________________


    für alle anderen,
    was gibt es für praktikable "SOUND"-Programme?


    Tschau

  • ... oooodddderrrrrrrrrr einfach ein wenig runterpitchen. Dann klingt das in Verbindung mit Dopplung schön sonor (so wie die Sprecher der Kinotrailer für die alten italienischen Horrorfilme ;))


    Beste Grüße,


    Thomas

  • Hallo,


    was auch sehr gut klingt, ist ein Energizer - wird oft im Radio gemacht für die Trailer usw.. Alternativ was mit einem Compressor versuchen und am Equalizer rumspielen. Natürlich müssen die entsprechenden Plugins da sein.



    Gruss
    Marcus

    • Offizieller Beitrag

    Hallo,


    Beim Pitch wird die Tonhöhe geregelt, ohne dass sich die Geschwindigkeit ändert.
    Energizer und Kompressor sind Plugins, die z.B. über die DirectX-Plugin bridge in Storm Edit -> Audipofilter eingebunden werden können.


  • Jou, und jetzt die Frage - Mit welchem Proggy - ???


    Sagt doch einfach mal womit ...

    • Offizieller Beitrag

    Hallo,


    Zitat

    Soundforge, Cool Edit Pro bzw. Adobe Audition, Wavelab ...


    ....Nuendo,Q-Base,Reason......


    Es gibt sicherlich auch Premiere-Plugins, die das erledigen.

  • Hi Leutz,


    also die Verwendung normaler DirectX Plug Ins kannste bei Premiere voll vergessen.
    Das geht nicht. Da ich jetzt einen Storm habe werde ich die Einbidung von DirectX Plug Ins in Stormedit mal testen.
    Laut Timo geht das ja. Für diese Art Nachbearbeitung kann ich Wave Lab sehr empfehlen.
    BTW Hat schon jemand erfahrung mit dem neuen Adobe Audition im Vergleich zu Wave Lab P

    ##################
    Ciao und Servus
    Armin


    -------Das Einzige was durch Teilen wächst ist Wissen-------

  • bei uns werden Voiceover in folgender Reihenfolge processed :


    1. normalized
    2. peak reduced (von Hand)
    3. energized nicht mehr als 30% (native plug-in von Logic Platinum)
    5. spectralized (VST plug-in von Steinberg)


    und/oder


    6. ultramaximimized bis - 6 dB max. (L1 VST plug-in von Waves)


    oder


    6. Equalized (mit T-Racks mastering software)


    das wäre die ganze Kette.


    Rauf und runter gepitch wird nur bei theatralischem Material.

  • Hi,


    Verständnisfrage:


    warum zuerst "Normalisieren" und dann "Peak reduzieren"?


    Das "Normalisieren" orientiert sich doch an den Peaks. Sollte man nicht zuerst die Peaks reduzieren und dann erst Normalisieren?


    Auf wieviel dB? 0, -3 oder wie?
    Und beim "Doppeln"? Dann doch wohl mindestens auf -3 dB? Oder?



    geht das auch für "Normalsterbliche" zu übersetzen??


    Gruß vom
    Tom

  • Hallo Tom,


    Zitat

    warum zuerst "Normalisieren" und dann "Peak reduzieren"?


    sehe ich genauso: Erst werden die Peaks "bearbeitet" (abgeflacht) und dann normalisiert.


    Beste Grüße,


    Thomas

  • Zitat

    warum zuerst "Normalisieren" und dann "Peak reduzieren" ?
    Das "Normalisieren" orientiert sich doch an den Peaks.
    Sollte man nicht zuerst die Peaks reduzieren und dann erst Normalisieren?


    wenn man Normalisiert hat man eine 0 dbFs Referenz, die lauteste stelle
    ist 0 dBFs. Würde man zuerst die peaks reduzieren, dann hat man die nicht.
    Referenzen, also in diesem Fall die lauteste Stelle, sind hilfsreich und
    erleichtern das kontrollierte weitere vorgehen. Normalisieren bedeuted für den
    Engineer immer die lauteste Stelle ist 0 dBFs.


    Zitat

    Auf wieviel dB? 0, -3 oder wie?
    Und beim "Doppeln"? Dann doch wohl mindestens auf -3 dB? Oder?
    geht das auch für "Normalsterbliche" zu übersetzen?


    es geht beim genannten Arbeitsprozess darum :


    1. die Lautheit zu erhöhen
    2. die Verständlichkeit zu verbessern
    3. die spektrale Qualität des Sprechers zu verandern, damit
    sie wenn z.B. mit Musik hinterlegt schneller erfassbar und verständlich ist.
    4. wie wird das fertige Signal dem Kunden abgeliefert


    Detailliertere Beschreibung der Arbeitskette :


    Normalizieren , das Resultat dieses Prozesses ist eine 0 dB Referenz


    Peaks reduzieren ,dieser im folgenden genauer beschriebene Prozess dient dazu
    den RMS Pegel des Signals zu erhöhen ohne das dazu ein Kompressor eingesetzt wird. In diesem
    Beispiel werden wir denn RMS level des Signals um 1.5 dB erhöhen, das quasi von Hand.


    1. search peak, dieser 1. peak ist 0.0 dBFs, selektiere diesen peak reduziere ihn mit - 1.5 dB (change gain)
    2. search peak, dieser 2. peak ist -0.1 dB, selektiere diesen peak reduziere ihn mit - 1.4 dB (change gain)
    3. search peak, dieser 3. peak ist -0.2 dB, selektiere diesen peak reduziere ihn mit - 1.3 dB (change gain)
    führe diese Arbeitsweise weiter bis folgendes eintritt
    8. search peak, dieser 3. peak ist -1.4 dB, selektiere diesen peak reduziere ihn mit - 0.1 dB (change gain)
    9. search peak, dieser 9. peak ist -1.5 dB, selektiere diesen peak, dieser peak wird nicht reduziert


    jetzt haben wir wieder einen headroom von 1.5 db oder anders gesagt die lauteste Stelle ist -1.5 dB und das ohne
    nennenswerten Verlust, weil nähmlich alles was leiser ist als 1.4 dB ist nicht verändert wurde. An dieser Stelle
    könnte man wieder normalisieren, wird aber ausgelassen weil der folgende prozess "energizer" das automatisch macht.


    Audio Energizer, (native plug-in Logic, nicht mehr als 30%) dieser Prozess erhöht dem RMS Pegel.
    Der Zweck des Energizer processing ist, dass wahrgenommene Volumen des Signal zu erhöhen ohne
    das clipping statt findet. Dieses Plug-In und sein Algorythmus ist einmalig und nicht das selbe wie ein Kompressor,
    weil es die peaks nicht verändert sondern nur die leiseren Stellen regelmässig und Ausgeglichen anhebt.
    An diesem Punkt haben wir bereit den RMS level um ca. 3 dB erhöht ohne hörbaren Verlust.


    Spectralizer , (VST plug-in von Steinberg) dieser Prozess dient dazu die Helligkeit im für Sprecher wesentlichen
    Frequenzbereich zu erhöhen, dass sich der Sprecher z.B. im Soundtrack besser differenziert und somit
    schneller erfassbar und verständlich ist.


    Equalizer , dieser Prozess dient dazu um die letzen Feinheiten in Sachen Helligkeit (2KHz bis 15 KHz)
    aber auch im unteren Frequenzbereich (60 Hz bis 120 Hz) zu verbessern. Wir benutzen für diesen Prozess
    den T-Racks EQ.


    L1 Ultramaximizer , diese Prozess dient dazu um das Pre Master zu rendern und hier wird der RMS Pegel
    um 6 dB angehoben (-6 dB max.), diese -6 dB sind so zu verstehen, dass es sich um eine Anhebung handelt
    und nicht um eine Absenkung. Diese Rechenart ist üblich bei professioneller (auch virtueller) Maschinerie.


    zu diesem Zeitpunkt haben wir das Signal ohne Quallitätsverlust um ca. 10 dB angehoben .


    das fertige Signal für den Kunden, jetzt werden noch Gutturals (Zungen und Halsgeräusch) und
    Schnaufgeräusche im Volumen reduziert (z.B. -18 dB) oder ganz entfernt.


    Diese Audiodatei ist fertig. Der Video Engineer setzt dieses Signal auf die Timeline und rendert den fertigen Film
    wobei es je nach Verwndungszweck (Radio, TV, DVD, Audio CD) den entsprechenden Pegel setzt.


    weitere Fragen werde ich euch gerne Beantworten, denn ich weiss das das alles ein bisschen komlex tönt