Soundchip

Aus indiepedia.de
Wechseln zu: Navigation, Suche

Ein Soundchip ist eine integrierte Schaltung, also ein meistenfalls als Kunststoffkästchen gebautes Plättchen (Chip), in und mit dem zum Teil Informationsfluss zwischen einzelnen elektronischen Bauelementen – alles selbst kleinen Systemen – ermöglicht und zum Teil verhindert wird, diese Bautechnik wird daher Halbleiter genannt. Ein Chip ist dabei seit einigen Jahrzehnten auch besonders klein zu bauen, also Teil der Mikrosystemtechnik, die es erlauben soll, komplexe Systeme zum Beispiel in einem Kunststoffgehäuse miteinander zu verdrahten bzw. abhängig von einer jeweiligen Steuerspannung miteinander zu verbinden. Vor den Mikrochips gab es die größeren Transistoren und davor Elektronenröhren.

Schnittstelle und D/A Wandler

Ein Chip soll über einen Digital zu Analog (D/A) – Wandler und eine Schnittstelle zum System verfügen, damit er sich Soundchip nennen darf.

Eine Schnittstelle ist der Punkt, an dem ein Gesamtkommunikationssystem in zwei oder mehrere kommunizierende Teilsysteme zerschnitten wird, zum Beispiel der USB-Port eines Computers, der den Gesamtzusammenhang USB-Gerät und Computer in zwei diskrete, das heißt, zwei voneinander unabhängig arbeitende, Teilsysteme unterteilt. Die Kommunikation wird über die Oberflächen gesteuert, das Innere der Teilsysteme wird Black Box genannt. Mit dieser Bezeichnung wird vereinbart, dass die internen Prozesse unbekannt bleiben sollen bzw. nicht oder nicht weiter berücksichtigt werden, auch wenn entsprechendes Wissen vorliegt.[1][2] Die Oberflächen müssen im Design und dann auch bis zu einem bestimmten Punkt mit ihren jeweiligen Optionen zusammenpassen, wie das Sichtfeld eines PC-Screens mit dem eines Mobiltelefons. Schnittstellen kennen dabei nur die Informationen, die ankommen und wissen nichts davon, wie sie verarbeitet wurden. Die Übersetzungen passieren, indem die Informationen vorher in einer der Black Boxes konvertiert bzw. kodiert werden und in der anderen dann mit dem gleichen Code nur andersrum dekodiert. Das meiste funktioniert in den Black Boxes über immer weitere Komplexierung und Verkleinerung von Schaltungen unter einer Kunststoffhülle. Zuerst war ein Byte die einzige Adresse, die aktiv mit einem Strom angepeilt werden konnte.[3] Dann wurde das verteilt, entweder wurden gleichzeitig oder nacheinander Ströme gesteuert, um auf einmal 8 Schriftzeichen (Bytes) anzusprechen. Diese 8 Schriftzeichen wurden zusammen ein Bit genannt. Heutige Architekturen arbeiten mit 64bit. Das ermöglicht viele gegenseitige Beeinflussungen und Frequenzen, die zusammen am besten einen Ton ergeben. Soundchips befinden sich entweder auf der Hauptplatine und / oder werden über externe Soundkarten zum Beispiel per USB-Schnittstelle angedockt. Professionelle Musiker arbeiten oft mit Firewire-Schnittstellen, die zuverlässiger sein sollen.

D/A Wandler oder – Umsetzer heißen Schaltkreise, mit ihnen werden digitale, also zweiziffrige oder binäre Datensammlungen in analoge Verläufe umgewandelt. Da eine 1:1 Übersetzung nicht wirklich möglich ist, werden die Übergangsbereiche (der Stufen, Treppchen) verschliffen. Quantisierte, also in Quantitäten kodierte Datenmengen (oder Koordinaten) werden dadurch von analogen Geräten, zum Beispiel Mischpulten, lesbar.[4] Auf diese Weise besteht dann also erst die Möglichkeit, einen digitalen, mit seinen Rechenkapazitäten analogen Synthesizern in manchen Hinsichten überlegenen, Synthesizer in ein Mischpult oder einen Verstärker zu klinken.

Geschichte

Eine historische Entdeckung im Studio für Elektronische Musik in Köln in den 1950er Jahren stand am Anfang der Entwicklung:

„Experimente im elektronischen Studio mit Impulsgeneratoren hatten gezeigt, dass rhythmische Pulsationen in Klang umschlagen können, wenn man deren Abfolge beschleunigt. [...] Ab einer Impulsfrequenz von ca. 20 Hz schlägt die rhythmische Pulsation in einen Tonhöheneindruck um. Oder mit anderen Worten: Zwei aufeinanderfolgende Schallereignisse, deren zeitlicher Abstand kleiner als 1/20 Sekunde ist, verschmelzen zu einem einzigen Klang.“[5][6]

Die ersten Soundchips wurden in den 1980er Jahren für Arcade-Spiele verbaut, der bekannteste, der AY-3-8910 bzw. AY-3-8912 (General Instrument, später: Yamaha) befindet sich auch im Atari ST:

„Der Hauptteil des Chips war für die Ton- und Geräuscherzeugung gedacht. Dazu besaß der AY-3-8910 drei unabhängige Stimmen, deren Frequenz in 1024 Stufen einstellbar war. Die Lautstärke jeder Stimme war in jeweils 16 Stufen einstellbar, zusätzlich gab es einen gemeinsamen Hüllkurvengenerator für alle drei Stimmen. Für jede Stimme konnte eingestellt werden, ob die Hüllkurve Anwendung finden sollte. Weiterhin gab es einen Zufallsgenerator im Chip, der vom Prozessor abgefragt oder zu jeder Stimme als Rauschquelle dazugemischt werden konnte.“[7]

Ein Hüllkurvengenerator steuert den Ablauf der Lautstärke eines einzelnen Tons. Der Ton wird kurzerhand in vier Verläufe unterteilt: Attack, Decay, Sustain und Release. Wie laut die einzelnen Abteilungen sein sollen, wird von den jeweiligen Datenflüssen (bis zu „unendlich leise“, wo nichts mehr zu hören ist) bestimmt. Es wird nicht immer nur etwas erzeugt, es wird auch etwas verhindert (Halbleiter) und der Ton so geformt.

SID

Der bekannteste aller Soundchips ist wohl der SID-Chip des Commodore C64. Als einer der wichtigsten Soundchips aller Zeiten[8] ermöglichte er Polyphonie als maßgebliches Musikgeschehen bei der Klangsynthese. Einer der Komponisten, die aus dem Piep-Piep-Einerlei der Spielewelt Musik entwickelte, war der Musiker Rob Hubbard, der Chip selbst wurde von Bob Yannes entwickelt.[9] In der heutigen Micromusic verwendete 8-Bit-Soundchips finden sich im Nintendo Entertainment System (2A03), im Super NES (SPC700) und im Game Boy.

Frequenzmodulation

Seit 1967 gibt es die FM-Synthese, die zuerst von John Chowning in Musik umgesetzt wurde[10], virtuelle FM-Synthese seit Anfang der 1990er. FM- oder Frequenzmodulation ist selbstverständlich mit einem einzelnen Oszillator nicht zu machen, um das zu erreichen muss mit einem zweiten Oszillator, der ebenfalls einen Piepton kann, der erste angesprochen werden und dessen Ton auf diese Weise verändern. Es werden also immer mindestens zwei Einheiten gesteuert. Modernere Soundchips sind komplex und verfügen über eigene Speicher und eigene interne Prozessoren. Diese Soundchips mit eigenen Signalprozessoren werden APU (Audio processing unit) genannt.[11]

Siehe auch

Computermusik, Neuronale Netze, Molekulare Musik, Physikalische Modellierung, Algorithmische Komposition, Spektralmusik, Pure data, Musik im Internet, Serielle Musik, Postserielle Musik, Live-Elektronik, Circuit bending, Databending, Visuelle Musik, Elektronische Musik, Virtuelles Idol

Einzelnachweise

  1. Auch wenn bekannt ist, wie eines der Teilsysteme (zum Beispiel: Computer) unter der Oberfläche arbeitet, wird das Wissen ausgeblendet und ausschließlich mit den kompatiblen Oberflächen gearbeitet.
  2. DNC-Schnittstelle [1] GIF, TU Harburg
  3. Der Strom fungiert dabei als Trägermaterial, in der Terminologie der Systemtheorie heißt es mit Norbert Wiener: "Information is information, not matter or energy." (kurzes Videobeispiel einer Musikdurchleitung über einen Lichtbogen: ryoko700 – High Voltage Super Mario Bros 2 [2] bei Youtube) Wiener bezeichnet Information als Negentropie (Ordnungsmaß).
  4. Beispiel für digitale und analoge Koordinaten desselben Signals [3] JPG bei der de.wiki
  5. Karlheinz EsslWandlungen der elektroakustischen Musik (2007) [4] im Abstract bei Karlheinz Essl
  6. Sinustongenerator [5] bei Onlinetonegenerator, bitte daran denken, die Lautstärke vom Kopfhörer oder der Anlage vorher anzupassen.
  7. Artikel AY-3-8910 [6] bei der de.wiki
  8. Byte Magazin 1995
  9. SID-Tune Rob Hubbard – Crazy Comets [7] Youtube
  10. Artikel FM-Synthese [8] vgl. besonders auch die Diskussionsseite bei der de.wiki
  11. Bericht über den aktuellen Stand (2012) bei der Entwicklung von Audioprozessoreinheiten [9] Nvidia.

Weblinks

  • 8bit-Trash ("Chipstep") von ByzaniteThe Manhattan Transfer [10] bei Youtube
  • Profil Byzanite [11] bei Soundcloud
  • Nils Dittbrenner: Soundchip-Musik [12] (Osnabrück: epOs-Music 2007, Online-PDF)
  • Bild vom AY-3-8910 [13] JPG in der en.wiki
  • Schönes Bild einer komplexen virtuellen FM-Synthese [14] Max/MSP Patch (vgl. Pure data) bei Nagasm.org.: "This shows the sub-patch of the work for the "FM synthesis" part. This FM algorithm is designed by Suguru Goto and distributed by himself in DSPSS2000 in Japan. The multiband filters were also used in this work." Das Bild ist aus einer Präsentation von Bio-Sensing Systems and Bio-Feedback Systems for Interactive Media Arts [15] weitere Patches und Anwendungen für Max/MSP-Umgebungen

Links im Juli 2017.