Heyho. Soweit ich weiß ist das Thema nicht nur bei mir ein großes Fragezeichen, sondern auch bei einigen Entwicklern. Es geht um das ganze Multimediazeugs, vorwiegend der Sound. Hier gibts ja ALSA, OSS, Pulseaudio, OpenAL, Phonon, GStreamer, XINE, FFMPEG, VLC. (und sicher noch so einiges) nur wie händen die zusammen, bzw wie ist der Weg des Tonsignals vom Programme bis hin zur Augabe?
Was ich bisher verstanden habe ist, dass bei KDE4 z.B. jedes Programm eigentlich 'Phonon' ist. Phonon wiederrum holt die codecs(?) aus Xine,gstreamer, vlc usw? oder werden die erst später geholt?
{gstreamer,xine,vlc}>Phonon>Pulse>ALSA>Pulse>Lautspreacher?
oder fällt ALSA komplett raus, weil es ja direkt zu pulse spricht? Wie ist das bei gnome?
gstreamer>Programm>ALSA>Pulse>Lautsprecher?
Wie bei OpenAL? OSS? Wie man merkt blicke ich da nicht durch, aber ich würde es gerne verstehen und hoffe da kann mir jemand behilflich sein ☺