Home / Wissen / AI-basierte Klangerkennung und Interaktion im Theaterkontext

AI-basierte Klangerkennung und Interaktion im Theaterkontext


In diesem Videotutorial fragen Jakob Lorenz und Thomas Meckel, wie Computer hören und was im Inneren eines neuronalen Netzwerks vor sich geht. Sie trainieren neuronale Netze, spezifische Klänge zu erkennen und steuern damit Theaterlicht.

Ausgangspunkt ist die graphische Programmierumgebung Max/MSP und die Fluid Corpus Manipulation Library, mit der sich neuronale Netze zur Audioklassifizierung aufsetzen und trainieren lassen. Vorkenntnisse in Max/MSP und Audiogestaltung und sind hilfreich – aber keine Voraussetzung für den Workshop.

Das Video-Tutorial entstand aufbauend auf einem Workshop, den wir in Kooperation mit der Akademie für Theater und Digitalität durchgeführt haben.

Weiterführendes

  • Ein Link
  • Ein weiterer Link
  • Ein weiterer Link

Abonniere unseren Newsletter