Kommunikation ist ein Grundbedürfnis der Menschen und kann als Voraussetzung für Intelligenz gesehen werden. Zur Kommunikation werden verschiedene „Schnittstellen", Punkte des Kontaktes mit anderen und des Austauschs mit der Außenwelt, verwendet, die heute in zunehmendem Maße durch technische Geräte erweitert bzw. verändert werden. Jeder Mensch verfügt für seine Kommunikation mit anderen und der Außenwelt über Selektionsmechanismen, die in die Struktur der Information eingreifen, in dem sie Teile erfassen und ausselektieren, die in anderen Kontexten wie der zusammengesetzt werden können. Schon deshalb funktioniert der Informationsfluss nicht immer linear und ist meistens bidirektional.
Diese Situation habe ich meiner Komposition zugrunde gelegt und ihre grundlegende Struktur dementsprechend konzipiert: Der Zuhörer hört nicht dasselbe wie der Musiker und der Computer. Die Bande werden zerstört. Das für den Computer entwickelte System verfügt über Selektionsmechanismen, mit denen sich Klangquellen auswählen, erfasste Klänge kategorisieren und speichern lassen. Es erlaubt auf diese Weise eine ganz bestimmte Art von Kommunikation und zugleich die Gestaltung des Resultats dieser Kommunikation, der Musik.
Die Übertragung der Klänge erfolgt in der Konstruktion eines diesen Rahmenbedingungen genügenden Systems (s. Abb.). Dafür wurden dem Computer Selektionsmechanismen implementiert, mit denen sich Klangquellen auswählen, erfasste Klänge kategorisieren und speichern lassen. Elemente der gespeicherten Klänge erfahren Veränderungen durch zeitliche definierte Prozesse, z.B. kurzzeitige Ausblendungen und Frequenzfilter. In einem Speicher setzen sich die veränderten Klänge neu zusammen. In einem anderen Archiv werden die Daten so behandelt, dass sie sich nicht verändern und jederzeit aufgerufen und abgespielt werden können.
Die Projektion des im Computer befindlichen Klangraumes erfolgt über mehrere Lautsprechergruppen aus einem 4-Kanal-Signal. Die räumliche Verteilung wird zeitlich so gesteuert, dass die Entwicklungen auch für die Hörer wahrnehmbar sind. Kein Punkt im Raum erhält irgendeine Priorität, vielmehr soll der ganze Hörraum gleichmäßig bespielt werden. Durch die so entstehende Live-Verstärkung des Cellos verschmilzt gleichzeitig dessen Klangraum mit dem des Computers.
Die wichtigsten Komponenten des Systems sind ein Computermusiksystem (SGI-Workstation mit Max/fts), ein Stereomikrofon zur Aufnahme des Raumes, ein Cello mit einem Mikrofon für Realklang und einem Pickup zur Selektion ohne Raumklang. In der Mitte dieses Systems befindet sich der Hörraum.
Der Computer generierte zunächst zwölf jeweils mehrstimmige Instrumentenlinien, davon war die erste für Cello. Die Stimmen aller zwölf Instrumentengruppenberuhen auf einer musikalischen Zelle von zwölf Tönen, die immer in sich selbst abgebildet und variiert wird. Die so erhaltenen Events bedienen sich gespeicherter „Memories", um bestimmte Klänge zu erhalten. Auf diese Weise entsteht mit der Zeit ein orchestraler Satz (zwölf Instrumentengruppen mit bis zu je zwölf Stimmen).
Alle vom Computer gespielten Klänge werden live auf der Basis der Cello Stimme entwickelt. Das Cello spielt die erste Stimme der Komposition, der Computer analysiert sie und gliedert sie nach folgenden Kategorien: leise impulshaft, laut impulshaft, leise liegend, laut liegend. Mit diesem Material lassen sich im System neue Phrasen zusammenstellen. Diese Phrasen sind bis hin zur größten Verdichtung durch die restlichen Stimmen bestimmt.
Mit Hilfe von Experimenten mit dem Cellisten Michael Moser sowie dessen Analysen wurden Parameter für Kompositionsalgorithmen unter anderem aus Tonsatzregeln und aus den Spielmöglichkeiten am Cello abgeleitet. Direkt am Cello wurden Algorithmen zur Rhythmusauswahl und zur Klangauswahl der Spielarten entwickelt, die beide nach dem selben Prinzip funktionieren. Auf diese Weise wurde ein vom Computer benutzbarer Parameterraum errichtet und eine Stimme für das Cello ausnotiert.