VST audio plugins in Edius - Test

  • Kurzer nachtrag noch von mir:


    Unter PremPro zeigen sich nach meinen bisherigen Erfahrungen nicht in der extremen Weise. Alllerdings sind sie auch dort z.T. nicht 100% einsetzbar wie in dem originären Programm (hier Wavelab). Manche Funktionen sind nicht oder nur beschränkt einsetzbar. Presets lassen sich nicht speichern oder aufrufen.


    Der Gegensatz zu VST von Steinberg ist bei Sonar (früher Cakewalk)
    DirectXer. Sollen aber wohl auch über VST laufen. Die allerdings habe ich bisher gar nicht einsetzen können.
    Müßte ich mal näher testen.


    hast Du da Erfahrungen Editamelc in Edius??

  • Zitat

    Der Gegensatz zu VST von Steinberg ist bei Sonar (früher Cakewalk)
    DirectX


    Sonar ist eine der einzigen professionellen Sequenzer software die keine VST Schnittstelle hat.


    Zitat

    Sollen aber wohl auch über VST laufen


    DirectX (DX) PlugIns laufen natürlich nicht über die VST Schnittstelle. DirectX ist ein anderer Standard. Viele Audio PlugIns installieren VST und DX parallel und somit stehen beide Arten zur Verfügung.


    Ob DirectX Audio PlugIns in Edius aufgerufen werden können weiss nicht nicht. Vielleicht hat das jemand schon in Erfahrung gebracht und kann das hier posten.


    In diesem Zsammenhang sind mir noch weitere Mängel betr. Edius aufgefallen,
    siehe unten 15. und folgendes

  • 15. Der derzeitige VST Standard macht auch folgendes:
    sind in einer Host-Applikation schon VST PlugIn installiert und wird später eine weitere Host-Applikation installiert die über die VST Schnittstelle verfügt, müssen die VST PlugIns nicht ein zweites mal installiert werden.
    Beide Host-Applikationen suchen beim Aufstarten die ganze Harddisk ab nach VST PlugIns die bei einer anderen Applikation bereits installiert sind und werden so mit aktiviert.


    16. Der heutige Standard sieht auch vor, das im "pulldownmenu" eine Liste aller im System installierten VST PlugIns aufgerufen werden kann, dort können sie dann deaktiviert oder aktiviert werden. Somit kann man die Liste auf das kürzen was gebraucht werden will, die Liste kann ansonsten sehr lang werden.


    17. Die meisten Host-Applikationen haben auch ein standalone Programm wo man eine Liste von DirectX PlugIns aktivieren oder deaktivieren kann, die sich dann nur auf diese Applikation auswirkt.


    18. Heutige VST Host-Applikationen haben auch die Möglichkeit einen
    "Gemeinsamen VST-PlugIn-Ordner verwenden" zu bestimmen. Damit ist die eindeutige Möglichkeit gegeben die VST PlugIns nur einmal zu installieren für alle Host-Applikationen.


    -


    Es gibt also doch noch einiges zu Tun bis der Komfort erfüllt ist, ist aber nicht weiter Bedenklich, da ich in der Vergangenheit gesehen habe das Mängel in der VST Schnittstelle schnell behoben wurden.


    zufrieden, Thomas? :D

    • Offizieller Beitrag

    An Angelo und Alle,


    da man in diesem Thread schnell die Übersicht verlieren kann möchte ich nur nochmal betonen....


    Man kann VST PlugIns in Edius nutzen und die Meisten funktionieren auch!


    Ich wollte das nur noch mal schreiben da dieser Thread sehr aufgebläht ist und wenn jemand diesen nicht von vorne bis hinten durchliest könnte er den Eindruck haben das sein PC bei der Nutzung von VST PlugIns explodieren wird.....
    :ironie:


    BTW: Könnte ich deine Erkenntnisse auch in den Tips's und Tricks nutzen?

    Mit freundlichen Grüßen


    Stephan Kexel
    Grass Valley



    Hinweis: Dies ist kein Support Forum der Firma Grass Valley. Unsere Mitarbeiter schauen zwar immer wieder hier hinein, wir können aber keine Support hier garantieren. Benötigen Sie Support, dann kontaktieren Sie den Grass Valley Support Center unter Tel. 02602-1069-100, Fax. 02602-1069-169 oder
    per e-mail canopus.support-de@Thomson.net .

  • Was Herr Kexel sagt ist vollkommen richtig,


    Die VST PlugIns können benutzt werden und funktionieren in Edius


    -


    Ja, ich bin damit Einverstanden das sie diesen Text in irgend einer Form weiterverwenden.


    dieser thread kann von mir aus auch geschlossen werden mit diesem Abschluss.

  • Hallo Angelo,


    danke für Deine Pionier-Arbeit.
    Bringt mir als Laien in Sachen Audiobearbeitung eine Menge an wertvollen Informationen, die man sich erst mühevoll erarbeiten müsste - warscheinlich in dieser Form gar nicht könnte-
    Dafür steht Dir der EDIUS AUDIO PLUGIN ORDEN zu ;)


    ciao
    Erich

  • Ich habe Wave Lap 3 & Magix Musik Cleaning Lab 2003.


    Den Ordner mit VST Plugin habe ich auch.


    Die Plugins habe ich auch in den Edius VST Ordner kopiert.


    Aber ich finde in EDius kein einzigiges Plugin :gruebel:


    Sind diese vielleicht nicht kompatibel?


    Vielleicht könnt Ihr mir ja weiter helfen!!!


    Vielen Dank schon mal!


    Gruß

  • Hallo,


    Angelo hat es doch in diesem Thread beschrieben:



    Danach sollten die Sachen unter Audio-Filters >>VST<< auftauchen.


    Beste Grüße,


    Thomas

  • Virtuelle Studio Technologie - kurz gesagt: VST



    :laut: Was ist überhaupt VST?


    VST besteht aus der von STEINBERG für Cubase entwickelten standardisierten VST-PlugIn-Schnittstelle, die allen Softwareherstellern erlaubt, ihre Software als PlugIn in Steinberg Cubase, Nuendo aber auch in Emagic Logic zu integrieren.


    Zudem bietet STEINBERG auf Anfrage die komplette Dokumentation seiner Schnittstelle zum Download an, was wohl neben der eigentlichen Idee der ausschlaggebende Grund dafür ist, dass sich die VST-Schnittstelle etabliert hat.


    Die Anzahl der existierenden PlugIns ist kaum überschaubar. Nicht nur die großen Softwarehersteller wie STEINBERG, sondern vor allem die Effektgerätehersteller wie z. B. LEXICON, ANTARES usw. haben die Vorteile der VST-Technik für sich entdeckt und entsprechende virtuelle Geräte entwickelt. Inzwischen gibt es nicht nur Effektgeräte im VST-Format, sondern auch viele Instrumente (z. B. Synthesizer, Sampleplayer, Klaviere usw.) die ganz komfortabel per MIDI gespielt werden können. Auch preislich (natürlich gibt es hier Unterschiede in Qualität und Bedienung) erstreckt sich das Spektrum von der kostenlosen Freeware bis hin zum Profi-Tool.


    Parallel zur VST-Schnittstelle wurde zusätzlich der ASIO-Standard entwickelt, der dafür sorgt, dass Audio-Interfaces in Form von PCI- oder USB-Geräten exzellent in die Hostsoftware eingebunden werden können.




    Wie alles begann


    Im Frühjahr 1996 stellte Steinberg auf der Musikmesse in Frankfurt die erste Version von Cubase VST vor. Cubase VST 3.0 war zunächst dem Mac vorbehaltenen. PC-User mussten sich bis zur Version 3.5 gedulden, bis auch sie in den Genuss der Virtuellen Studio Technologie kamen. Damals waren die Möglichkeiten noch stark beschränkt, und auch die CPU-Leistung der damaligen Rechnergenerationen war alles andere als berauschend. So musste man sich mit vier Effekt-Sends begnügen, hatte keine Dynamics und an VST-Instrumente war gar nicht zu denken.


    Doch schon Ende des Jahres 1996, fing die Firma WAVES an, Ihr Native Power Pack auch für die VST-PlugIn-Schnittstelle aufzubereiten, und so standen dem Anwender ein recht guter Hall, sowie EQ und Kompressoren in ordentlicher Qualität zur Verfügung, die es bislang nur für das teure Digidesign TDM System gab. Das revolutionäre an der Sache war die vollkommen native Berechnung auf nur einem Prozessor, nämlich der CPU des Host-(Haupt-)Rechners. Musste man damals noch Unsummen für einen ADAT-Recorder mit nur 8 Spuren ausgeben, war dies bereits in Cubase VST mit zusätzlichen Effekten, Mischpult und Total Recall Funktion enthalten. Die Flexibilität eines nativen Systems ist bis heute unerreicht.

    Als damals STEINBERG die Unterstützung von Pro Tools einstellte, schwenkten viele Kunden auf Emagic Logic um, da EMAGIC bis heute noch eine Pro Tools Unterstützung bietet. Für Musiker und Produzenten, bei denen das Geld nicht so locker sitzt, ist die VST Technologie sicherlich die bessere Wahl. Die Firma EMAGIC adaptierte nach und nach die Funktionen, die Cubase besitzt und bietet zudem noch ein paar Funktionen mehr, die man in Cubase ein wenig vermisst. Dennoch zeigt sich, dass in Logic die Standards VST und ASIO nicht ganz reibungslos unterstützt werden, was aber nach und nach durch Updates behoben werden soll.




    Funktionsweise


    Die von STEINBERG entwickelten Programme Cubase VST und Nuendo bieten ein komplettes virtuelles Studio im PC oder Mac. Neben den Midi-Möglichkeiten steht ein Harddiskrecording-System sowie ein Mischpult und Effekte zur Verfügung. Durch ein Audio-Interface, das durchaus viele Ein- und Ausgänge besitzen kann, stellt VST durch den ASIO-Treiber die Verbindung zur Außenwelt her.

    Audio-Interfaces mit ASIO-Treiber gibt es von etlichen Herstellern. Die eigens von STEINBERG angebotenen Interfaces rekrutieren sich aus der Schmiede der Firma RME-Audio, die allgemein als die störunanfälligsten bekannt sind.

    Das Funktionsprinzip, sowie die Bedienung der Software erfolgt nach den traditionellen Funktionsweisen herkömmlicher analoger Studios, mit der Ausnahme des Arrange-Festers. Das Arrange-Fenster stellt die einzelnen Audio-Spuren im Gegensatz zur Bandmaschine grafisch dar. Zudem ist ein Schneiden und Verschieben der Audiospuren möglich, wie es von MIDI-Spuren bekannt ist. Den einzelnen Spuren weist man jeweils einen Mischpultkanal zu. Pro Kanal stehen acht Effektwege, ein vollparametrischer Vierband EQ, sowie eine Kompressor/Gate/Limiter zur Verfügung. Zudem gibt es die Möglichkeit bis zu vier PlugIns als Insert-Effekte einzuschleifen. Acht Subgruppen, sowie ein Masterbereich komplettieren die Ausstattung.




    VSTi - virtuelle Instrumente


    Als wäre dem noch nicht genug, gibt es zusätzlich die sogenannten VST-Instrumente. Sie stellen in Form von PlugIns virtuelle Klangerzeuger dar.


    Als Beispiel seien da Drumcomputer, Synthesizer oder Sampler zu nennen. Die Anzahl der inzwischen erhältlichen VSTi ist ebenfalls nur schwer zu überschauen. Neben Hochqualitativem ist auch eine Menge minderwertiger Freeware zu finden. Hier muss man nach eigenem Ermessen selektieren. Genauso verhält es sich übrigens mit den Effekt-PlugIns. Die Einbindung in das VST-System stellt sich denkbar einfach dar. Da sämtliche Instrumente über MIDI gespielt werden, weist man einer MIDI-Spur anstatt eines MIDI-Ausgangs ein VSTi zu. Das VSTi erscheint zudem automatisch im VST-Mischpult, sobald es geladen wird.



    Komplettes Studio im Computer?


    Man stellt sich also heute die Frage, ob es denn möglich ist, ein komplettes Ton-Studio im Computer unterzubringen. Theoretisch gesehen, ist das virtuelle Studio bereits Realität - praktisch gibt es noch einige Grenzen. So kann man die Antwort zu diesem Zeitpunkt klar mit ´Jain´ beantworten :D.


    VST bietet zunächst einmal die Möglichkeit dazu. Beschränkt werden diese Möglichkeiten zum ersten in der Zahl der gleichzeitig möglichen aktiven Effekte/Audiospuren/Instrumente. Hier zeigt sich die Prozessorleistung von Intel Pentium 4 sowie AMD Athlon XP noch als zu gering, um eine komplette professionelle Produktion AUSSCHLIEßLICH auf einem Computer in Echtzeit zu bewerkstelligen. Zum zweiten lässt die Bedienung der Software mit Maus und Tastatur erheblich zu wünschen übrig. Man versuche doch mal tagtäglich mit der Maus die gewünschte EQ-Frequenz anzuwählen...

    Positiv zu bewerten ist die Integration von Software-Samplern in VST. Hier zeigt sich, dass die Bedienung von Maus/Tastatur enorme Vorteile gegenüber den Hardware-Samplern hat.


    Auch gibt es seitens einiger Hersteller Bemühungen, mittels Hardware-Controllern diesem Problem entgegenzuwirken. Doch bisher wurde die ´analoge´ Bedienung - zumindest für eingefleischte Studiotechniker - nicht konsequent genug umgesetzt, da diese Art der Bedienung gegenüber herkömmlichen Systemen immer noch Nachteile besitzt. Die derzeit erhältlichen Hardwarecontroller stellen leider immer einen Kompromiss aus Preis/Leistung dar, der sich in etlichen Mehrfachbelegungen von Endlospotis und Kanalfadern ausdrückt. So wird das Konzept des Channelstrips, wie man es z.B. vom Sony DMX100 Mischpult kennt, nicht in diesen für VST konzipierten Controllern umgesetzt.

    Ein weiterer Aspekt, der nicht auf die leichte Schulter zu nehmen ist, ist das leidliche Thema der sogenannten Latenz. Im anlalogen Zeitalter noch ein Fremdwort (in analogen Studios gibt es diese Latenz nicht.), ist unter Latenz eine Verzögerung zu verstehen, die durch den Rechenprozess im Computer erzeugt wird. Dies kann sich beispielsweise bei Aufnahmen störend auswirken, wenn sich der Sänger beim Monitoring über den Kopfhörer mit einer Verzögerung hört. Latenz entsteht erst durch die A/D-Wandlung [ca. 1 ms] wird durch die interne Berechnung des Computers erhöht [ca. 1,5 ms bis 189 ms] und schließlich durch die D/A-Wandlung [ca. 1 ms] komplettiert. Man erkennt, dass der Hauptanteil im Computer entsteht.


    Als Faustregel kann man sagen, dass mit fallender Latenz die verfügbare Rechenleistung im Computer sinkt. In der Praxis bedeutet dies, das man die Recording-Sessions entweder über ein zusätzliches Mischpult mit Hardware-Effekten (für die nötige Atmosphäre, die z.B. der Sänger braucht) fährt, oder die Latenz so weit wie möglich nach unten setzt und möglichst ohne PlugIns zunächst die Aufnahme durchführt.


    Ein weitere enormer Vorteil der VST-Technologie ist die PlugIn-Struktur. Im Gegensatz zu hardwarebasierenden Studios, die oft Geräte mehrfach anschaffen müssen, braucht man nur ein PlugIn zu kaufen und kann es mehrfach, wenn es sein muss auf 16 Spuren gleichzeitig, mit unterschiedlichen Einstellungen benutzen.




    Die Audio-Qualität


    Ein heftig diskutiertes Thema ist die objektive und subjektive Beurteilung des Klanges innerhalb digitaler PlugIn-Umgebungen.


    Messtechnisch hängt der Klang von der Bitauflösung und der Samplerate ab. Zudem kommen die Qualitäten der A/D-D/A-Wandler. Die Wandler sind heutzutage, abgesehen von wirklich billigen Soundkarten, hervorragend. Die Bitauflösung von VST ist mit 24 Bit für die normale und die Score-Version und 32 Bit Floating Point für die VST/32 Version absolut ausreichend.


    Ausschlaggebend sind also nur die Algorithmen (Rechenvorschriften) der klangbeeinflussenden PlugIns. Hier scheiden sich die Geister, welches PlugIn gut oder schlecht ist. Eines kann man jedoch mit Sicherheit sagen: Ein exzellenter Hall, der dem Stand von teurer Hardware gleichkommt, ist derzeit für die VST- oder DirectX Schnittstelle nicht zu haben. Ein sehr gutes seiner Zunft ist wohl das Rverb von WAVES (über Klangeindrücke kann man bekanntlich streiten). Es reicht aber lange nicht an die Qualität der TC-M2000-Klasse oder darüber heran. Andererseits muß auch gesagt werden, dass gute virtuelle Hallgeräte immer noch besser sind, als billige Hardwaregeräte. Bei Kompressoren und Equalizern kann man dagegen keine Einschränkungen machen.






    P. S.: Gar nicht so einfach unter 10001 Zeichen zu bleiben... :S

  • Zitat

    Thomas: Angelo hat es doch in diesem Thread beschrieben:


    ja, hierzu noch ein Detail :


    WaveLab dll's
    als ich alle auf einmal rüberkopiert habe hat Edius sie nicht aktiviert.
    Hab dann jedes einzel einkopiert und jedesmal Edius aufgestartet
    und dann ging es

  • Glossar der Fachbegriffe




    A/D D/A-Wandler
    Die Wandlung eines Analog-Signals in ein digitales erfolgt in zwei Schritten. Zunächst wird das am A/D-Wandler anliegende Analog-Signal in immer gleichen Zeitabschnitten abgetastet. Die Abtastgeschwindigkeit wird Sampling-Frequenz genannt. Eine Sampling-Frequenz von 44100Hz (üblich auch bei Audio-CDs) bedeutet, dass das Analog-Signal 44100 Mal pro Sekunde abgetastet wird; es werden also 44100 Proben (englisch: samples) entnommen. Jedes Sample gibt über die zum Entnahmezeitpunkt anliegende Amplitude des Analogsignals Auskunft. Man bezeichnet diesen Vorgang als Puls-Amplituden-Modulation (PAM).


    Nun haben wir schon ein Zeit-digitales, aber Amplituden-analoges, also ein halbdigitales Signal. Im zweiten Schritt werden die Samples noch in ein Werteraster ´gepresst´, d.h. es wird geprüft welcher Wert aus dem Vorgegebenen Raster dem Sample am nächsten kommt. Dieser zweite Schritt der Digitalisierung oder Quantisierung, wie man die A/D-Wandlung auch nennt, heißt Pulse Code Modulation (PCM). Die Anzahl der Rasterwerte nennt man auch Auflösungsgenauigkeit oder kurz Auflösung. Die Auflösung wird meist als Anzahl von Bits angegeben, 8 Bit Auflösung bedeutet ein Raster mit 256 Stufen, 16 Bit unterteilen in 65536 mögliche Werte. Hier gilt: Je größer die verwendete Auflösung bei der Digitalisierung, desto genauer ist die digitale Entsprechung des Analog-Signals.


    Die D/A-Wandlung erfolgt in umgekehrter Richtung, indem das Digitale Signal wieder in ein Analoges (hörbares) Signal zurückgewandelt.




    ASIO
    Audio Streaming Input Output. Ein von der Firma STEINBERG zunächst mit Cubase VST eingeführtes Treiber-Modell, das die Nachteile der Standard-MME-Treiber in Windows umgeht.
    Zwischenzeitlich gibt es auch von der Konkurrenz-Firma Emagic eine eigenes Treiber-Modell EASI.


    ASIO-Treiber berücksichtigen direkt die Belange von Musik-Software und verfolgen zwei Hauptziele: Die Unterstützung von Multi-I/O-Karten und eine möglichst geringe Latenz. In der neuen ASIO-Spezifikation 2.0 ist nun auch der Multiclient-Betrieb möglich - unter der Voraussetzung, dass die Applikationen auf unterschiedliche Audiokanäle zugreifen. Mittlerweile hat sich ASIO soweit etabliert, dass praktisch alle professionellen Audiokarten mit einem ASIO-Treiber ausgestattet sind. Auch die Unterstützung durch die Audio-Software ist sicher: Zwischenzeitlich wurden viele namhafte Midi/Audio-Sequencer und auch schon einige Software-Synthesizer mit ASIO-Unterstützung nachgerüstet. Selbst Steinbergs härtester Mitbewerber Emagic ermöglicht seit Logic Audio 3.6 den Zugriff auf ASIO-Treiber.



    Chorus
    Effekttyp, der ein Signal minimal verzögert, wobei die Verzögerungszeit periodisch variiert (moduliert) wird. Typischerweise sind Geschwindigkeit und Tiefe dieser Modulation einstellbar. Der Chorus gehört zu den Standardeffekten und macht einen Klang ´fetter´, ´breiter´ oder ´reicher´. Er ist einem Gesangschor nachempfunden, bei dem durch die nie 100prozentig reinen Stimmen ein flächiger, schwebender Klang entsteht. Ein Verwandter des Chorus ist der Ensemble-Effekt.



    Codec
    Die Abkürzung für Compression/ DE-Compression (Komprimierung/ Dekomprimierung) Algorithmus. Ein CODEC kann entweder in Hardware oder Software implementiert sein und wird zur Komprimierung/Dekomprimierung verschiedener Dateiarten benutzt.



    De-esser
    Effektgerät. Eigentlich ein Kompressor, der für eine spezielle Aufgabe optimiert wurde, nämlich überbetonte Zisch- und Hisslaute aus dem Signal von Gesangs- und Sprachaufnahmen zu entfernen. Unter Zischlauten versteht man gesprochene oder gesungene Buchstaben wie ´S´ oder ´Z´, die später in der Aufnahme störend hervortreten.
    Zuerst wird in einem Hoch- oder Bandpassfilter der zu bearbeitende Frequenzbereich bestimmt, der danach die Pegelspitzen der Zischlaute absenkt. Filterbereich und Kompressionseinsatz sind meist regelbar.
    Wendet man einen De-Esser zu stark an, wird aus unserem Vocal-Talent ein Lispler.



    Delay
    Engl.: Verzögerung, Verzögerer. In diesem digitalen Effektgerät wird das Eingangssignal für eine einstellbare Zeit zwischengelagert und dann zum Ausgang geführt. Diese einmalige, zeitverschobene Wiederholung kann durch eine Schleifenschaltung (Feedback) beliebig oft wiederholt werden. Weitere Parameter ermöglichen die Programmierung der Abklingzeit, was zu einem natürlich ausklingenden Echo führen kann. Diverse Geräte können tempomässig über MIDI oder ein manuell eingegebenes Tempo (Tap) gesteuert werden, was rhythmisch genaue Echos ermöglicht. Die meisten Multieffektgeräte bieten eine grosse Zahl vorprogrammierter Delay-Arten an.



    DirectX
    Eine Ansammlung von durch Microsoft entwickelten Anwendungs-Programmierschnittstellen, die Softwareentwicklern die Möglichkeit gibt ´Kürzungen´ in ihrer Programmierung vorzunehmen. Anstatt bestimmte Operationen jedes Mal wieder programmieren zu müssen, können diese spezialisierten und optimierten APIs von Programmierern bei der Entwicklung ihrer Anwendungen verwendet werden, um sowohl Zeit als auch Gehirnzellen zu sparen.



    DSP
    Abkürzung für ´Digitaler Signalprozessor´. Die Funktionen eines DSPs sind im Gegensatz zu einer CPU spezialisiert auf ganz bestimmte Aufgaben, wie sie zum Beispiel bei der Echtzeitbearbeitung von Audiodaten anfallen.
    Vorteil: höhere Arbeitsgeschwindigkeit
    Nachteil: begrenzte Einsatzmöglichkeit



    Effektgerät
    Heute fast ausnahmslos digital arbeitende Geräte, die ein Signal in verschiedenen Parametern gezielt verändern. Zur Grundausstattung guter Effektgeräte gehört ein Bypass-Schalter, der einen A/B-Vergleich ermöglicht und eine grosse Menge direkt anwählbarer Presets. Zu den gängigsten Effekten gehören Hall, Delay, Chorus, Phaser, Flanger, Exciter, Kompressor, Limiter, Noise-Gate, und De-Esser.



    Exciter
    Gerät oder Schaltung zur allgemeinen Klangverbesserung. Diese ersten psychoakustischen Geräte der Firma Aphex (Aural Exciter) konnten nur gemietet werden und hatten etwas Geheimnisvolles an sich, da die gesamte Schaltung in schwarzes Epoxyharz eingegossen und somit nicht nur patentrechtlich, sondern auch vor Nachbau geschützt war. Exciter errechnen aus dem Klangmaterial zusätzlich Obertöne und erzeugen Phasenverschiebungen und Verzerrungen oberhalb 3 kHz, was bewirkt, dass der Gesamtklang transparenter und frischer wirkt. Exciter können sich (beim Mehrspurverfahren) auch positiv auf einzelne Klänge auswirken: Matte Gesangsspuren wirken lebendiger.
    Wie bei allen Effekten gilt die Regel des Masshaltens auch beim Exciter, da unerwünschte Nebenwirkungen (z. B. erhöhtes Grundrauschen) auftreten können und/oder der Gesamtklang bei übermäßigem Einsatz unnatürlich spitz wirkt. Eine Variante des Exciters stellen Enhancer dar.



    Flanger
    Effektgerät oder -funktion aus der Gruppe der Delays. Durch die leicht zeitverzögerte Zweitwiedergabe des Signals entstehen Phasenverschiebungen und periodische Auslöschungen, die zu Klangverfärbungen führen. Flanging ist die extremste Form des Choruseffekts, allerdings mit sehr kurzer Verzögerungszeit und einer Feedbackschleife des Signals, hierdurch entsteht der typische ´röhrende´ Sound, ursprünglich wurde dieser Effekt erzeugt in dem man ein komplettes Musikstück zeitgleich auf zwei Bandmaschinen startete und bei einer Maschine durch Finger auflegen die Spule etwas abbremste, zu hören auf verschiedenen Hits der 60s und 70s, z.B. Wheels of Fire von Julie Driscoll oder dem Drum Solo auf In-a-gadda-da-vida von Iron Butterfly.
    Phasing verursacht weniger starke Veränderungen.



    Hall (Reverb)
    a) Der Nachhall, der durch die Schallreflexionen in einem Raum entsteht, löst in unserem Gehör den Eindruck der Raumgrösse und Beschaffenheit aus. Hall (engl. Reverb) wird in zwei Stufen, in die ersten Reflexionen (Early Reflections) und den diffuseren Nachhall unterteilt. Das Zeit- und Laustärkeverhältnis der ersten Reflexionen vermitteln den Eindruck der Distanz der Schallquelle, der Nachhall erzeugt den Raumeindruck. Pop- und Rockproduktionen werden oft so trocken wie möglich (in gedämpften Studios) aufgenommen; der Hall wird erst bei der Abmischung beigemischt. Somit ist es wesentlich einfacher, aus einer grossen Anzahl von Spuren ein einheitlich klingendes Ganzes zu schaffen.
    b) In einem Hallgerät: Die Bezeichnung für ein Reverb-Programm, das eine grosse Halle simuliert.



    Kompressor
    Verstärker, der automatisch und mit einer einstellbaren Kennlinie seinen Verstärkungsfaktor herunterfährt, wenn der Pegel am Eingang steigt. Der Dynamikbereich wird zwar reduziert, aber eine Übersteuerung nachfolgender Geräte und Lautstärkeschwankungen werden vermindert (siehe Dynamik). Der Kompressor fördert damit die Durchsetzungskraft einzelner Audiosignale oder den subjektiven Eindruck der Lautstärke eines ganzen Musikstückes.

  • Glossar der Fachbegriffe



    Latenz
    Bei der Echtzeitverarbeitung von Audio-Daten in einem Rechner entstehen stets Verzögerungen, sogenannte Latenzen. Sie äußern sich beispielsweise dadurch, dass zwischen dem Anschlag und dem Ertönen einer Note eine spürbare Verzögerung liegt, die die Tasten beim Spielen unangenehm an den Fingern kleben lässt. Abhängig von der Hardware und natürlich der Treiber-Konfiguration muss man oft mit Latenzen zwischen 10 und 100 ms rechnen. Wenn man dann bedenkt, dass eine 32stel-Note bei 120 BPM nur 62,5 ms dauert, sind das schon ganz deutliche Verzögerungen.


    Problematisch kann Latenz auch beim HD-Recording sein: Ein Monitorsignal, das verspätet auf den Kopfhörer kommt, kann für einen Sänger oder Instrumentalisten unbrauchbar sein. Diese Probleme gelten wohlbemerkt nur beim Einspielen oder Aufnehmen; beim Arrangieren und Mischen ist eine gewisse Latenz ohne Belang, da sie vom Sequencerprogramm vorausberechnet und automatisch ausgeglichen wird.


    Latenz entsteht durch das eventuell mehrmalige Zwischenspeichern von Daten in sogenannten Buffern. Das tun die Hersteller nicht freiwillig, das Betriebssystem zwingt es ihnen auf. Durch schnellere Rechner und verbesserte Treiber konnte die Latenz bereits erheblich gesenkt werden, wodurch ein guter Software-Synthesizer auf einem einigermaßen flotten Rechner ohne den Spielspaß allzu stark beeinträchtigende Latenz spielbar ist. Da auch die Betriebssystemhersteller ihre Produkte im Zuge von Internet und Multimedia zunehmend für Echtzeitanwendungen optimieren, ist mit weiterer Besserung zu rechnen.



    Limiter
    (dt. Begrenzer) Ein quasi automatischer Lautstärke-Regler: Abhängig von der Höhe des Eingangssignals wird der Verstärkungsfaktor selbsttätig so eingestellt, dass am Ausgang ein bestimmter Pegel nicht überschritten wird. Ein Begrenzer verhindert zuverlässig Übersteuern nachfolgender Geräte, fügt aber unter Umständen störende Effekte hinzu (Pumpen, Rauschen).
    Er verfügt über die selben Parameter wie ein Kompressor, allerdings erlaubt er wesentlich höhere Ratio-Einstellungen von 10:1 bis 20:1.



    Loop
    (engl. Endlos-Schleife), Endloswiedergabe eines Samples durch Loopen eines Sampleabschnitts.


    Bei den frühen Samplern und ROM-Player bediente man sich eines Tricks um mit wenig Speicher auch langgehaltene Töne wiederzugeben. Nach der Einschwingphase eines Tones (z.B. dem Anstrich bei einem Geigenton), reicht ein ganz kurzes Stück Aufnahme, welches wiederholt, also ´geloopt´ wird, um einen anhaltenden Ton zu erzeugen. Als in den letzten Jahren die Speicherkapazität bei Samplern und Delays immer größer wurde, konnten ganze Takte oder Abschnitte von Stücken ´gesampled´ und als Schleife wiederholt werden. Zwar wurden früher schon durch Kleben von Tonbändern Schleifen erzeugt, aber erst durch die digitale Sampletechnik wurde die ganze Hip-Hop/Dance/Drum&Bass Welle erst möglich gemacht.


    Auf diese Weise entstehen heutzutage viele Beats und sogar ganze Lieder, moderne Sampler bieten sogar Autoloop-Funktionen, die Samples automatisch korrigieren und loopen.



    Multi-I/O-Karte
    Audiokarte, die über mehrere Ein- und Ausgänge verfügt.



    Nativ
    Von der CPU eines Rechners durchgeführte Bearbeitung eines Audiosignals (offline oder in Echtzeit).



    Noisegate
    Ein Noisegate ist ein Regelverstärker, der das Eingangssignal 1:1 zum Ausgang passieren läßt, wenn es einen Schwellwert (Threshold) übersteigt; erreicht das Eingangssignals den Thresholdpegel nicht, bleibt der Ausgang stumm; statt einer vollen Stummschaltung kann auch blos eine Pegelreduzierung erfolgen.



    Phaser
    Effektgerät oder -funktion aus der Gruppe der Delays. Durch die leicht zeitverzögerte Zweitwiedergabe des Signals entstehen Phasenverschiebungen und periodische Auslöschungen, die zu Klangverfärbungen führen. Flanging ist die extremste Form des Choruseffekts, Phasing verursacht weniger starke Veränderungen.



    PlugIn
    Zusatzkomponente für Sofware; bezeichnet im Musikbereich z.B. Effektfilter oder zustätzliche - Codecs, welche die Software um Zusatzfunktionen erweitern. Plug-Ins folgen einem modularen Konzept, was bedeutet, daß sie kein fixer Bestandteil der Software sind, sondern je nach Bedarf ´ein-´ bzw. ´ausgeklinkt´ werden können



    Sample
    (engl.: Probe im Sinne von ´eine Probe nehmen´ oder Muster)
    Digitales Abbild eines Klanges oder Geräusches. Im Gegensatz zur Wave-Datei meist auf kurze Passagen begrenzt. Mit einem oder mehreren ´Samples´ eines Instrumentes kann man durch digitales transponieren und Loopen ein ganzes Instrument simulieren.



    Sampleplayer
    Auf Samples basierender Synthesizer; keine Möglichkeit, Klänge selbst aufzuzeichnen und zu bearbeiten, Samples vom Hersteller fest im ROM abgelegt, Klangformung sonst wie bei einem Analogsynthesizer (´ROM Sample-Player´).



    Subgruppe
    Ausgangsweg eines Mischpultes zum Weiterleiten von Signalen zu einem Tonbandgerät oder zum Zusammenfassen verschiedener Eingänge



    Synthesizer
    elektronisches Instrument, das die Erzeugung und Manipulation von Klängen erlaubt:
    1. Analog-Synthesizer
    Diese erste Form von Synthesizern basierte auf der Erzeugung von Schwingungen mittels Oszillatoren. Diese Oszillatoren boten meist die Erzeugung einer Sinus-, einer Rechteck- und einer Dreieck-Schwingung an. Aus diesen Schwingungen wurde dann der Klang mittels Filtern modeliert, indem Frequenzbereiche entfernt wurden (sogenannte ´subtraktive Synthese´). Nachgeschaltete Hüllkurven-Generatoren verhalfen dem Klang zu einem dynamischen Verlauf.
    2. Digital-Synthesizer
    Bei einem rein digitalen Syntesizer erzeugt ein Computer die entsprechenden Klänge, wobei aber wesentlich mehr Synthesearten als bei Analog-Synthesizern möglich sind (neben der softwaremäßigen Nachbildung analoger Oszillatoren z. B. die FM-Synthese, das Abspielen von Samples usw.). Auch hier kann der Klang meist durch (digitale) Filter und (digitale) Hüllkurven-Generatoren nachbearbeitet werden.
    3. Hybride Systeme
    Es gibt auch Systeme, bei denen der Klang digital erzeugt wird, die Nachbearbeitung hingegen über analoge Filter und/oder Hüllkurven-Generatoren erfolgt. Der Grund hierfür ist zum einen, daß Computer früher für die Filter-Berechnungen einfach noch nicht leistungsfähig genug waren, zum anderen wird analogen Filtern ein ´wärmerer´ und ´menschlicherer´ Klang zugesprochen.


    Früher wurde jede kleine Funktion durch eine Verschaltung von einzelnen elektronischen Bauteilen verwirklicht. Mehrere Funktionen wurden in Gruppen (Funktionsgruppen) zusammengefasst und auf einer Trägerplatte (Platine) aufgebaut (Baugruppe). Da manche Funktionsgruppen mehr als einmal in einem Synthesizer benötigt wurden (z.B. Oszillatoren), spendierte man diesen ein eigenes Gehäuse, das nennt man ein Modul. Ein Syntesizer, der nur aus Modulen zusammen gesetzt ist, heißt modularer Synthesizer oder Modular-Synthesizer-System. Die Verbindung der Module erfolgt dabei über sogenannte Patch-Kabel (englisch: patch-cords). Daher rührt auch der Name Patch den einige Hersteller für Klangprogramm verwenden. Heutige Synthesizer sind in der Regel in einem gemeinsamen Gehäuse untergebracht und die Zuordnung der einzelnen Bauteile zu Funktionsgruppen ist nicht mehr gegeben. Man spricht der besseren Übersicht halber trotzdem noch von Baugruppen, selbst Teile der Rechenvorschriften digitaler Synthesizer werden Module genannt.


    Man kann die Baugruppen der Synthesizer in zwei Kategorien (Funktionseinheiten) einteilen. Alle Module, die Audio-Signale erzeugen oder verändern, gehören zur Klangerzeugung, manchmal Audio-Abteilung genannt. Die anderen dienen der Steuerung und sind Bestandteil der Steuereinheit. Die Unterscheidung der Geräte-Typen ergibt sich hauptsächlich durch unterschiedliche Ausstattung der Steuereinheit.


    Zusammenfassend ist zu bemerken, daß es nicht ´den´ Synthesizer gibt, sondern daß verschiedenste Synthesizerformen nebeneinander bestehen. Die oben aufgeführte Kategorisierung nach analogen, digitalen und hybriden Synthesizern ist nur sehr grob.



    Total Recall
    Aufrufen aller Parameter eines Mischpults bzw. eines Effektgerätes auf Knopfdruck. Alle Parameter werden automatisch auf eine vorher gespeicherte Position eingestellt.



    Transponierung
    Die Transponierungs-Schalter oder -Regler (englisch: transpose) verschieben die gesendete Tonhöheninformation bzw. Tastennummer um einen in Halbtonschritten einstellbaren Wert gegenüber dem auf der Tastatur gespielten Wert. So kann z.B. ein Musikstück, das in der Tonart E-Dur erklingen soll, auf der Tastatur in C-Dur eingespielt werden. Oktav-Schalter (englisch: oktave shift) verschieben die Sendedaten gegenüber den eingespielten um eine oder mehrere Oktaven nach oben oder unten (oktave up/down). Das ist für Tastaturen mit kleinem Umfang nötig, um auch die Tonhöhendaten zu erzeugen, die außerhalb des eigentlichen Tastaturumfanges liegen.


    VST
    Von STEINBERG entwickelte Schnittstelle, die allen Softwareherstellern erlaubt, Ihre Software als PlugIn in ein Sequenzerprogramm (z.B. Steinberg Cubase-VST) zu integrieren.









    P. S.: Eine aktuelle Übersicht diverser VST PlugIns findet man hier