Bewegungssimulation von Synthese-Klängen auf Kleincomputern
'Klaus Buhlert
Klaus Buhlert
1. EINLEITUNG Es gehört zur täglichen Erfahrung beim Hören von Umweltgeräuschen oder auch Musik, die Schallquelle im uns umgebenden Raum lokalisieren zu können. Für musikalische oder auch rundfunktechnische Anwendungen ist es oft wünschenswert, diese Lokalisation von Quellen unterschiedlichen Charakters für den Hörer mehrkanalig zu simulieren, das heißt, es müssen Modelle angewendet werden, die sowohl Klangcharakteristik der Quelle als auch die sogenannte Volumenhüllkurve im Raum sowie die Frequenzverschiebung bei Annäherung oder Entfernung der Quelle vom Betrachter beschreiben.
Bei der Lokalisation realer Schallquellen im Raum benötigt ein Hörer zwei Arten von Informationen:
(1) Abstand der Quelle relativ zum Hörer; dabei sind die folgenden Parameter von Bedeutung: - Anteil der direkt einfallenden Energie zu indirekt einfallender Energie, wobei die Intensität des direkten Anteils schneller mit der Entfernung abfällt, als das beim reflektierten Anteil in umgrenzten Räumen der Fall ist.
- Verlust von Spektralanteilen geringer Energie einer Quelle mit steigendem Abstand zum Hörer (Klangfarbänderung).
(2) Richtung (Winkel) der Quelle relativ zum Hörer; Parameter von Bedeutung sind hier: - Laufzeitdifferenzen des Signals zwischen beiden Ohren, wenn sich die Quelle nicht direkt vor oder hinter dem Hörer befindet.
- Unterschiede im Energieanteil des hohen Frequenzbereiches zwischen beiden Ohren, bedingt durch Abschattungseffekte des Kopfes.
Mittels Analog- bzw. kombinierter Analog/Digital-Technik wurden in der Vergangenheit Versuche unternommen, Tonbandmaschinen und VCA-Einheiten zu steuern und so Bewegungen einer eigentlich stationären Quelle mehrkanalig zu simulieren.(3), (4)
Chowning (1) stellte ein Rechenmodell vor, bei dem ein Computersystem benutzt wurde, um die Parameter für eine Simulation synthetisierter Quellen zu ermitteln. Nachteil dieses Verfahrens waren lange Rechenzeiten zur Synthese der Quelle und zur Berechnung der Raumkurve.
In der vorliegenden Arbeit soll ein Modell zur Simulation von Quellen und der Bewegungen auf einem digitalen Synthesizer/Computersystem in Echtzeit vorgestellt werden.
Für den Anwender bedeutet solch ein Software-Modul sehr stark verkürzte Rechenzeiten und direkte Möglichkeiten zur Änderung von Parametern bis zum optimalen Ergebnis. Andererseits reduziert diese Technik aber auch die Möglichkeiten bei der Beschreibung komplexer Schallquellen und komplizierter Bewegungen.
Trotz eingeschränkter Anwendungsmöglichkeiten bezüglich Klangsynthese, Wahl der Raumkurve oder Berücksichtigung der Nachhallanteile gegenüber Chownings Modell wurden interessante Ergebnisse nach der Entwicklung entsprechender Software für das "SYNCLAVIER II" erzielt.
2. SYNTHESEMODELLE ZUR BESCHREIBUNG DER QUELLE Bei der auf Analyse basierenden Synthese wird versucht, die für die Charakteristik des Klanges entscheidenden Parameter zu analysieren und als Eingabewerte für das Synthese-Modell zu benutzen.
2.1. additive Synthese Die additive oder auch Fourier-Synthese beruht auf der Tatsache, daß sich selbst komplexe periodische Schwingungsvorgänge als Summen von Sinus- und Cosinus-Funktionen darstellen lassen (Bild 1). Fourier-Analysen von Klängen sind über Filterbänke oder Anwendung des Algorithmus der schnellen Fourier-Transformation (FFT) auf Computersystemen möglich.
Dadurch erhält man die beschreibenden Parameter für die Synthese: - Frequenzen von Grundton und Obertönen sowie deren Verhalten über der Zeit,
- Amplituden der einzelnen Sinus-Anteile und deren Verhalten über der Zeit (Bild 2, (6)).
Die additive Synthese-Technik ist ein wichtiges und vielfältig anwendbares Verfahren bei der digitalen Klangerzeugung. Eine Veränderung der Eingabe-Parameter führt oft zu neuen und ungewöhnlichen Klängen. Mit dieser Technik ist es auch möglich, zwei oder mehrere Klänge zu "interpolieren" und so beispielsweise einen Celloklang in den einer Trompete zu überführen und dabei interessante Zwischenstufen zu erhalten.
Nachteil dieser Technik sind sehr große anfallende Datenmengen. Bei Analyse oder Synthese eines Signals, dessen obere Frequenzgrenze bei 15 kHz liegen soll (Abtastfrequenz = 30 kHz) und dessen Amplituden-Auflösung mit 12 bit angenommen wird, ist die Menge der anfallenden Daten zum Beispiel 360.000 bit/s. Zwar ist es möglich, die Kurvenform durch Liniensegmente anzunähern und so Daten zu reduzieren, der Aufbau von komplexen Spektren in Echtzeit auf digitalen Systemen ist jedoch aufgrund der großen Menge notwendiger Oszillatoren zusätzlich begrenzt und kostenaufwendig.
Solche Überlegungen führten zur Entwicklung von Synthesemodellen im Audiobereich auf digitalen Systemen wie Frequenzmodulation, Amplitudenmodulation, Synthese mittels nichtlinearer Funktionen usw. Vorteil dieser Techniken ist es, daß trotz weniger zu kontrollierender Parameter komplexe Spektren geschaffen werden können. Aus diesem Grund sind solche Techniken auf kleinen Systemen anwendbar.
Nachteilig wirkt sich aus, daß es keine Analysetechnik gibt, um zum Beispiel Parameter für die Kopie eines natürlichen Klanges zu erhalten. Es existieren zwar verschiedene überzeugende Nachbildungen von Instrumenten; sie sind aber aus zahlreichen Versuchen über "trial und error" gefunden worden. Die Hardware-Organisation des "SYNCLAVIER II", das für die hier beschriebenen Versuche zur Verfügung stand, ermöglicht zwei Syntheseformen: - Eine stark eingeschränkte additive Synthese im sogenannten Real-time-Performance-Program. (Keine Frequenzhüllkurven und nur begrenzte Anzahl von Amplituden-Hüllkurven des ADSR-Typs für Obertonstrukturen, komplexe Zeitfunktionen für digitale Oszillatoren allerdings aus 24 gewichteten Obertönen berechenbar.)
- Eine komplexe Frequenzmodulation mit bis zu 24 Modulationspaaren pro Synthesizer-Kanal. (Bezüglich Hüllkurvenauswahl im Real-time-Performance-Programm gelten ähnliche Einschränkungen wie bei der additiven Synthese, die durch eigene Software erweitert wurden.)
2.2. Synthese mittels Frequenzmodulation Die mathematischen Zusammenhänge bei der Frequenzmodulation sind seit geraumer Zeit bekannt. Deshalb soll hier nur ein kurzer Überblick über diese Technik in einem relativ neuen Anwendungsgebiet, der Klangerzeugung, gegeben werden. Allgemein kann die FM-Methode über folgenden Ausdruck für sinusförmigen Träger und Modulator dargestellt werden:
y(n) = A(n) sin [2p nDt fT + l(n) sin(2p nDt fM)] (1) Es bedeuten:
y(n) – Ausgangswert des modulierten Signals, A(n) – Amplitudenwert, l(n) Modulationsindex, fT – Trägerfrequenz, fM – Modulationsfrequenz, Dt – Zeit zwischen zwei Abtastwerten. Durch Umformung kann der obige Ausdruck durch eine Summe von Bessel-Funktionen 1. Art und n-ter Ordnung Jn beschrieben werden.
Mit
a = 2p n Dt fT b = 2p n Dt fM cn = l(n), ergibt sich
y(n) = A(n) J0(cn)sin a + J1(cn)[sin (a + b) – sin (a – b)] + J2(cn)[sin (a + 2b) – sin (a – 2b)] + J3(cn)[sin (a + 3b) – sin (a – 3b)] + … Der Wert der Bessel-Funktion gewichtet jeweils die entsprechenden Frequenzanteile. Ist also der Modulationsindex cn = l(n) = 0, existiert eine reine Sinus-Funktion A(n)sina, da J0(0) = 1 und alle übrigen Bessel-Funktionen 1. Art am Koordinatenursprung Null sind. Wird cn größer, geht immer mehr Energie in die Seitenbänder (Bilder 3 und 4).
Die negativen Spektralanteile werden in den positiven Frequenzbereich mit einer Änderung des Vorzeichens (Phasendrehung um 180°) reflektiert und zu den übrigen Spektralanteilen addiert. Für die Klangsynthese können aus den gezeigten mathematischen Zusammenhängen folgende Schlußfolgerungen gezogen werden: - Harmonische Spektren (Merkmal der meisten Musikinstrumente) entstehen immer dann, wenn sich das Verhältnis von Trägerfrequenzen zu Modulationsfrequenzen fM/fT oder dessen reziproker Wert durch ganze Zahlen ausdrücken läßt.
Beispiel A: fM/fT = 1 Das Spektrum enthält alle harmonischen Obertöne der Trägerfrequenz.
Beispiel B: fM/fT = 2 Das Spektrum enthält nur ungeradzahlige harmonische Obertöne der Trägerfrequenz.
- Inharmonische Spektren (Schlaginstrumente, Glocken usw.) entstehen, wenn sich das Verhältnis von fM/fT oder dessen reziproker Wert durch irrationale Zahlen, zum Beispiel fT/fM = 1/Ö2, ausdrücken läßt.
- Dynamische Spektren (Nachbildung von Einschwingverhalten an Instrumenten) lassen sich durch Änderung des Modulationsindizes über der Zeit beschreiben. Dabei bestimmt der Modulationsindex die reale Bandbreite des Signals. Die Änderung der Energie der einzelnen Spektralanteile wird dagegen durch den Wert der entsprechenden Bessel-Funktion festgelegt (Bild 5).
2.3. Überblick über andere Verfahren Modulation der Amplitude eines Signals kann ebenfalls zu komplexen Spektren führen und ist eine weitverbreitete Synthesetechnik.
Eine ausführliche Darstellung dieser Methode scheint an dieser Stelle nach Einführung in die häufiger eingesetzte Frequenz-Frequenzmodulation als wenig sinnvoll. Ebenso sollen die nachfolgenden Verfahren nur aus Übersichtsgründen erwähnt werden: - Synthese mittels nichtlinearer Funktionen:
Im Normalfall wird eine Sinusschwingung, deren Amplitude über einen Hüllkurven-Generator gesteuert wird, als Eingangssignal in einen nichtlinearen Prozessor verwendet. Die Übertragungsfunktion dieses Prozessors bestimmt das Spektrum des Ausgangssignals. Zur Berechnung dieser zeitabhängigen Übertragungsfunktion aus dem gewünschten Spektrum kann man die Tschebyscheff-Polynome vorteilhaft anwenden.
- Granular-Synthese:
Innerhalb eines festen oder variablen Zeitfensterbereiches wird eine Funktion f(t) erzeugt (meist Gauß-Kurve oder sin2wt-Funktion), wobei Fensterbereich, Amplitude des Signals und Frequenz beeinflußbar sind. (5) Die Anregungsfunktion kann sich zwischen rein sinusförmig und bandbegrenzter Impulsfolge ändern.
3. BEWEGUNGSMODELL Bei der Beschreibung von bewegten punktförmigen Quellen ist es notwendig, die wichtigen der unter 1. bereits erwähnten Parameter zur Quellen-Lokalisation des Beobachters mit ausreichender Genauigkeit nachzubilden.
3.1. Intensitätsänderung durch Abstandsänderung Ein Beobachter nimmt bei Annäherung und Entfernung der Quelle eine Intensitätsänderung wahr. Aus Schalleistungsbetrachtungen der Quelle erhält man die Beziehung, daß der Schalldruck p am Beobachtungsort unter Freifeldbedingungen umgekehrt proportional zum Abstand r ist:
p » 1/r
(6 dB Verminderung des Schalldruckpegels bei Abstandsverdopplung).
Entsprechend dieser Beziehung ergibt sich eine Volumenhüllkurve am Beobachtungsort bei linearer Bewegung der Quelle (Bild 6) entsprechend Bild 7 (Abstand A gegen Null).
3.2. Mehrkanalige Bewegungsdarstellung Bei Stereo- oder Quadro-Wiedergabe ist die genaue Position des Hörers im Lautsprecherbereich oft nicht bekannt, deshalb soll auf die Berücksichtigung der Parameter: Laufzeitdifferenz oder Stellung des Kopfes verzichtet werden.
Die Winkelinformation erhält der Hörer durch Änderung der Energieverhältnisse zwischen den einzelnen Lautsprechern beziehungsweise Lautsprecherpaaren (Bild 8).
Dabei ist die Energieverteilung zwischen den jeweiligen Lautsprecherpaaren des betreffenden Quadranten, in dem sich die Quelle befindet, von einem Dämpfungsfaktor Kn abhängig, der sich aus folgendem Zusammenhang ergibt:
K1 = 1 – a/amax K2 = a/amax, wobei amax = 90°.
Entsprechendes gilt für die restlichen Lautsprecherpaare bei mehrkanaliger Darstellung.
3.3. Frequenzänderung durch Dopplereffekt Eine wichtige Information bei der Bewegungssimulation von Schallquellen ist der sogenannte Dopplershift, das heißt, die subjektiv empfundene Frequenzänderung der Quelle bei Annäherung und Entfernung relativ zum Beobachter.
Bei festem Beobachter und bewegter Quelle ergibt sich die wahrgenommene Frequenz fR in Abhängigkeit von der relativen Geschwindigkeit vR aus
fR = f0(1± vR/c),
wobei f0 die wirkliche Abstrahlfrequenz der Quelle darstellt und c die Schallgeschwindigkeit in Luft (340 m/s) ist. Das positive Vorzeichen gilt bei Annäherung, das negative Vorzeichen bei Entfernung der Quelle.
3.4. Klangfarbenänderung Eine Nachbildung der Klangfarbenänderung scheint aus der Vielzahl der beeinflussenden Parameter (Luftfeuchtigkeit, Lufttemperatur, Streuung und Brechung der Schallwellen am Boden usw.) nur unzureichend möglich und soll an dieser Stelle vernachlässigt werden, zumal die Anwendungsfälle begrenzt sein werden.
4.AUSFÜHRUNG Das beschriebene Modell zur Bewegungssimulation synthetischer Schallwellen wurde als Software-Modul für ein "SYNCLAVIER II" Computer Music System realisiert.
Programmiersprachen waren XPL/4, eine für dieses System entwickelte PASCAL-ähnliche Sprache, beziehungsweise MAX, ein Subset dieser Sprache. Unter Einbeziehung der MAX-Bibliothek können Synthese- und Kontrollprogramme zur Steuerung notwendiger Parameter auf einem hohen Sprachniveau beschrieben werden, d.h. bei solchen Echtzeit-Prozessen im Audio-Bereich ist keine Assembler-Sprache mehr notwendig.
Die drei Teile der MAX-Bibliothek beinhalten: - Unterprogramme zur Steuerung der Synthesizer-Karten (Eingabe von Frequenz, Wellenform, Amplituden-Hüllkurven usw.).
- Unterprogramme zur Steuerung der Ein- und Ausgabevorgänge an der Steuereinheit für den Nutzer – Keyboard (umfaßt u.a. 8´16 Bedienknöpfe, A/D-Wandler, D/A-Wandler, Display etc.).
- "Time Sharing Algorithmus" zur Steuerung quasi gleichzeitiger Synthese einzelner Synthesizer-Kanäle (komplexe oder polyphone Klänge).
Teil 1 der MAX-Unterprogramme wurde zur Beschreibung der Klangsynthese der entsprechenden Quelle verwendet, diente aber auch zur Realisation der Frequenzverschiebung unter Berücksichtigung des Doppler-Effekts.
Teil 2 wurde zur Eingabe von Kontroll-Parametern (für Klangsynthese, Wahl der Bewegungsfunktion usw.) und zur Ausgabe von Kontroll-Funktionen (mehrkanalige Hüllkurven zur Steuerung von VCA-Einheiten) genutzt.
Trotz bestehender Grenzen eines solchen Computer Music Systems (monophoner Audio-Ausgang, kleiner Arbeitsspeicher etc.) konnte ein Nutzer-Programm sowohl zur Synthese der Schallquelle als auch zur Berechnung der Bewegungsfunktion und des Dopplershiftes entwickelt werden.
Die berechneten Volumenhüllkurven für die einzelnen Lautsprecher (8-bit Auflösung) können über maximal 8 D/A-Wandler zur Steuerung von externen VCA-Einheiten ausgegeben werden. Der je nach Bewegungsfunktion und Geschwindigkeit berechnete Dopplershift wurde intern als Frequenzparameter bei der Synthese berücksichtigt. Für Anwender liegt der Vorteil in der kurzen Rechenzeit und dem sofortigen "feed back" auf vorgenommene Änderungen bei der Beschreibung der Quellencharakteristik beziehungsweise der Bewegungsparameter.
PUBLIKATIONEN:
(1) Chowning, J. M.: The Simulation of Moving Sound Sources. J. Audio Eng. Soc. Bd. 13 (1971), S. 2–6.zurück
(2) Chowning, J. M.: The Synthesis of Complex Audio Spectra by Means of Frequency Modulation. J. Audio Eng. Soc. Bd. 21 (1973), Nr. 7. [Fußnote nicht im Text]
(3) Schulz, W.: Steuereinrichtung für Magnetbandgeräte mit elektronischer Drehzahlregelung zur Simulation bewegter Schallquellen aus Aufzeichnungen stationärer Schallquellen. Diplomarbeit Institut für Hochfrequenztechnik der TU Berlin, 1976. zurück
(4) Haller, H. P.: Heinrich-Strobel-Stiftung des Südwestfunk e.V. Broschüre des Experimentalstudios Freiburg im Breisgau, 1981. zurück
(5) Buhlert, L Synthesemodelle auf Computersystemen. Script zur Lehrveranstaltung, TU Berlin, 1982. zurück
(6) Moorer, J. A.; Grey, J.; Strawn, L: Lexicon of Analyzed Tones. Computer Music Journal Bd. 1 (1977), Nr. 3. 152 zurück
|