Kategorie: Medien

heises Beitrag zur Entflechtung von Machteliten und Journalismus

Bei heise.de erschien heute ein Beitrag, dessen Grundtenor ich mich gern erst einmal anschließen möchte: Journalismus und Machteliten gehören weniger eng miteinander verbandelt, als sie es derzeit sind.

Eigentlich könnte man jetzt aufhören, weiter über das Thema nachzudenken. Ich habe allerdings der impliziten Aufforderung des veröffentlichenden Journalisten Marcus B. Klöckner, selbst nicht alles Vorgekaute hinzunehmen, einmal Folge geleistet und ein wenig eigene Recherche betrieben. Dabei sind mir dann doch ein paar Dinge aufgefallen, die ich hier zur Diskussion stellen möchte.

Klöckner sagt, große Leitmedien würden über die entscheidenden Konferenzen nicht berichten.

Seit einigen Jahren tauchen hier und da immer mal wieder Berichte über die Bilderberg-Gruppe auf, doch über viele Jahre gab es so gut wie keine Berichterstattung in den Medien.

Ich habe den einfachsten denkbaren Weg gewählt und bei den im Artikel aufgezählten Medien SPON, Zeit Online, der Süddeutschen und sogar bei der taz einfach mal die Suchfunktion der eigenen Seite mit dem Begriff „Bilderberg“ belästigt. („Bilderberg“ statt „Bilderberger“ habe ich gewählt, um auch die Nennung der Konferenz selbst und nicht nur deren Teilnehmer zu erwischen) Das Ergebnis fiel dabei überraschend aus.
Etwas aus dem Rahmen fiel die taz: „Suchergebnis 1-4 von 3“ bei vier tatsächlichen Treffern, na gut. Das erfordert zum Verständnis eine gewisse mathematische Flexibilität.
Bei Zeit Online erhält man derzeit 379 Ergebnisse für das Suchwort Bilderberg.
SPON liefert keine klare Zahl, aber mindestens zehn Seiten Suchergebnisse (und wahrscheinlich mehr). Nicht alle Ergegbnisse haben mit der Konferenz zu tun, respektive erfordert es eine noch größere inhaltliche Flexibilität als die bei der taz notwendige mathematische, um „Wassersport: Hai-Alarm“ in einen Kontext zu den Bilderbergern zu bringen.
Die eigene Suchfunktion der Süddeutschen Zeitung ist eine Katastrophe, daher habe ich über Google das Wort Bilderberg auf dem Portal gesucht. Das kränkelt natürlich, weil hier auch die Kommentare mitgezählt werden. Hier ist das Ergebnis völlig unüberschaubar vielzahlig.

Insgesamt zeigt sich an der schieren Gesamtzahl der Ergebnisse: Klöckners Aussage ist in der Form nicht richtig haltbar.

Auch Google Trends bestätigt Klöckners These nicht. Über die verfügbaren letzten neun Jahre zeigt sich kein wesentlicher Abfall oder Anstieg des Interesses am Thema. Die Spitzenwerte finden stets um den Zeitpunkt der Konferenz im Juni/Juli herum statt.

Klöckners Narrativ ist unfalsifizierbar.

Ich will gar nicht sagen, dass er Unrecht hat und dass nicht tatsächlich auf Veranstaltungen dieser Art weichenstellende Entscheidungen getroffen werden. Der Aufbau seines Artikels ist das Problem: Denn egal, was ein Besucher einer solcher Runde hinterher sagt, alles bestätigt Klöckners Narrativ. „Die Eliten des Planeten planen dort eine neue Weltordnung“ passt dort ebensogut hinein wie die Aussagen von Journalisten, die Zusammenkünfte seien harmlos. Dann hat derjenige nämlich schlicht seinen Beißreflex verloren, ist indoktriniert und/oder eben schon zu sehr verbandelt mit den Mächtigen.

Dieses Muster ist eines der Erkennungsmerkmale der einer jeden Verschwörungsideologie inhärenten Immunisierungsvorgänge:

Wer an den angebotenen Erklärungen zweifelt, gilt entweder als getäuscht, erpresst oder gar als Mitwisser der Verschwörung. Die Verschwörungsideologie kann dann nicht mehr widerlegt werden.

Wikipedia, Verschwörungsideologien

Um nicht falsch verstanden zu werden: Ich will Klöckner in diesem Zusammenhang nicht unterstellen, einer Verschwörungstheorie aufgesessen zu sein, er argumentiert aber auf zumindest problematische Art und Weise.

Woher wissen wir überhaupt von alledem? Aus der Presse.

Zugegeben, das mag auf den ersten Blick wie eine rein akademische Fragestellung erscheinen. Wenn wir uns aber schon damit auseinandersetzen, ob „die Medien“ ein Problem mit zu großer Elitennähe haben, dann sollten wir nicht außer Acht lassen, dass das wir darüber nicht etwa diskutieren, weil ein unabhängiger Blogger oder ein Whistleblower uns darauf gestoßen haben. Nein, es war das biedere ZDF, das den Stein des Anstoßes in der öffentlichen Wahrnehmung ins Rollen brachte. Wir erinnern uns: Das ist der Sender, dem immer wieder zu große Einflussnahme durch Eliten vorgehalten wird. Wenn das irgendwie ins Bild passen soll, muss wohl wieder einer ein Immunisierungsmechanismus herhalten.

Der Journalist, der seine Kollegen als mindestens ideologisch vorbelastet sieht, scheint selbst eine ziemlich klare Linie zu verfolgen.

Wer den Namen „Marcus Klöckner“ mal durch die Suchmaschine seines geringsten Misstrauens schickt, wird erstaunt (oder auch nicht) feststellen, dass das Betätigungsfeld dieses Mannes mit wenigen Worten ziemlich umfassend beschreiben kann: Klöckner schreibt fast ausschließlich über Systemversagen, Geheimdienste, Geheimarmeen, rezensiert Bücher zu diesem Thema, dies auch bisweilen durchaus wohlwollender als seine Mitkommentatoren. Auch als Buchautor gibt er eine Figur ab, die es nicht unbedingt leichter macht, ihm Verschwörungsgläubigkeit abzusprechen. Das kann man natürlich auch als Expertentum bewerten. Die schiere Intensität und Ausschließlichkeit, mit der sich Klöckner diesem Themenkomplex widmet und dass seine Veröffentlichungen stets zu dem Ergebnis kommen, etwas sei anders, als es die Öffentlichkeit zu wissen glaubt, machen den Eindruck nicht besser.

Noch einmal, das an sich ist alles kein Problem und eigentlich weigere ich mich auch, ad hominem zu argumentieren. Es wäre der Sache aber womöglich dienlich, wenn man mit der Berichterstattung zu diesem Thema Journalisten beauftragt, bei denen sich nicht so leicht ein Verdacht auf Voreingenommenheit konstruieren lässt – wenn es diese gibt, was ich als Nichtbranchenkenner einfach nicht weiß.

Denn das Thema verdient es, dass man es angemessen behandelt. Die von der Anstalt im ZDF einem Millionenpublikum zugänglich gemachten Verbandelungen zwischen journalistischer und politisch/wirtschaftlicher Elite sind ein Skandal und es wert, durchleuchtet zu werden. Ich habe die Lektüre des Ausgangsartikels nicht bereut, musste aber doch an einigen Stellen bisweilen die Stirn runzeln und mich sehr an das halten, was Herr Klöckner zurecht selbst fordert: Stets kritisch bleiben.

Advertisements

Die taz, veganes Fastfood und die Angst davor

In der Onlineausgabe der taz steht seit dem 3.4.2014 ein Artikel zu lesen, dessen Inhalt ich verkürzt wiedergeben möchte mit „auch, wenn man Tierprodukte aus Junkfood entfernt, kann man damit keinen Krebs heilen“.
Ja, ich war genauso überrascht wie Ihr. Pommes mit Ketchup und Chips sind ungesund? WIRKLICH?! Welch ein Glück, dass wir investigative Journalisten haben wie Esther Widmann, die da richtig im Dreck wühlen, um uns mal ordentlich aufzuklären. (Gut, eigentlich hat sie nur das, was die Hamburger Verbraucherzentrale öffentlich sagt, kommentiert) Irritierenderweise scheint sie ansonsten ihre Themen ganz annehmbar zu wählen, aber jeder hat mal Aussetzer und ich will das gar nicht unnötig boulevardesk personalisieren.
Ungeachtet der Tatsache, dass Veganer, die länger als ein paar Monate dabeibleiben, sich quasi zwangsläufig deutlich besser mit Ernährung auskennen als 99% aller Fleischesser: Jeder, der auch nur eine einzige Mahlzeit mit einem Veganer eingenommen hat, weiß einfach bereits, was die Verbraucherzentrale da „herausgefunden“ hat.
Fun Fact: Sowohl Verbraucherzentrale als auch taz bieten derzeit Fanware zum Thema an.
Inhaltlich ist der Artikel bereits recht abschließend u.a. vom Graslutscher besprochen worden. Mich irritiert bei der Sache auch etwas ganz anderes.

Am Veröffentlichungstag bereits wurde der Artikel nämlich bereits in einem Maße in meinem erweiterten Freundeskreis herumgereicht, das in krassem Missverhältnis zu seinem Nachrichtenwert steht. Twitter und Facebook waren meinem Eindruck nach regelrecht voll damit. Und siehe da, mein Eindruck war richtig: Das Portal rivva.de, das soziale Netzwerke durchforstet und die dort geteilten Links nach Popularität sortiert, führt heute Mittag genau einen Artikel der taz. Und in diesem ging es zufällig nicht um die AfD.
Zum aktuellen Zeitpunkt zählt die Statistik 34 Tweets, 642 Likes, 319 Shares und 13 G+1, und die Zahlen steigen minütlich weiter. Woher kommt das?

rivva
rivva ist für die Antwort auf diese Frage nur teilweise hilfreich. Die dort verlinkten Tweets zeigen ein gemischtes Reaktionsbild, von „No Shit, Sherlock!“ über „Guckt mal, wie man ohne Häme über Veganismus reden kann“. Wenn ich aber das Bild, das mein Freundeskreis ergibt, und rivva zusammenlege, dann sehe ich, dass die Mehrheit derer, die den Artikel teilen, zumindest keine Veganer sind. Warum aber teilen Nichtbetroffene derartig oft einen Artikel über den vermeintlich geringen Nutzen von etwas, das weniger als 0,5% der Bevölkerung betreiben? Warum?

Die Frage mag jeder für sich beantworten, ich habe dazu aber auch einen Ansatz.
Ich bin nämlich schon länger Anhänger der Theorie, dass die meisten Fleischesser eigentlich ganz gut wissen, dass sie einen weißen Fleck in ihrer ethischen Landkarte haben. Dazu hat die SZ schon vor längerem mal geschrieben. (Im Artikel steht ein Veröffentlichungsdatum von 2012, aber ich glaube, es gibt eine ältere Version.)
Zu der Theorie des Abwehrreflexes passt auch, dass man u.a. als Veggie vor allen möglichen Leuten immer wieder begründen muss, dass man kein Fleisch essen möchte, woraufhin Fleischesser plötzlich selbst auch „nur ganz wenig Fleisch essen“, und „dann auch nur Bio“, dass es beispielsweise im Fernsehen deutlich mehr Witze über Vegetarier gibt als über Fleischesser, und dass die meisten Fleischdiskussionen gar nicht von Vegetariern & Veganern gestartet werden. All das ergibt zumindest eine Linie, und die führt genau zu dem, was bei rivva derzeit zu bestaunen ist. Zusätzlich wird die Theorie dadurch bestätigt, dass die meisten, die den Artikel weiterleiten, irrigerweise von den getesteten Fertiggereichten auf die gesamte Ernährungsweise rückschließen. Zur Ehrenrettung: Die Titelzeile macht das sehr einfach.
Nichts davon würde Otto-Normal-Omnivore je zugeben. Ein jeder fühle sich zu daher zu dem Experiment eingeladen, den genannten SZ-Artikel einfach mal unkommentiert zu posten und nur die Reaktionen zu beobachten.
Um es mit Fefe zu sagen: Popcorn bereithalten.

Welche Conclusio ziehe ich also daraus?
Gute Frage. Ein weiterer Beweis für die Bequemlichkeit und Angst der Masse, irgendetwas ändern zu müssen? Das wäre auch nichts neues und vom Nachrichtengehalt in etwa vergleichbar mit dem Artikel selbst. Vielleicht lehrt uns diese Betrachtung, dass ausnahmslos jeder sich öfter an die eigene Nase fassen sollte; denn wer kennt nicht die Situation, in der jemand, der sich in einem beliebigen Thema X deutlich schlechter auskennt als man selbst, plötzlich triumphierend mit einer längst widerlegten These vor einem steht?

Eben.

 

Nachklapp: Auch andere Publikationen gehen auf den Test der Verbraucherzentrale ein. Die taz habe ich mir hier exemplarisch herausgegriffen, bis auf die Namen funktioniert das Gesagte auch mit SPON & Co.

Querpost: Hape Kerkeling Best Of Spezial

Ich habe gestern mal wieder ein kleines Video geschnitten. Heute stelle ich es ins Blog, damit es gut wiedergefunden werden kann.

 

Es ist etwas mehr als das, was der Titel verspricht. Guckt es bloß zuende, aber ich will euch die Überraschung nicht verderben. Viel Spaß. 😉

Lineare Programme in Zeiten von On Demand

Ausgehend von einem Tweet bat mich Faldrian, die darin anklingende These mit einem Blogbeitrag zu unterfüttern. Dies also nun als mein erster Artikel sozusagen „On demand“.

Selbst, wenn man die von Wirrköpfen postulierte digitale Demenz als das abtut was sie ist, nämlich ein Sammelsurium zukunftsfeindlicher und technologiepessimistischer Halbzusammenhänge, nimmt die Zahl derer, die sich an eine Zeit ohne Internet erinnern können, ab. Bevor sie aber null erreicht, möchte ich die Frage stellen: War alles, was es vor dem Internet gab, per se schlechter als all das, was neu dazu kam?
(Keine Bange, das wird keiner dieser „Früher war alles besser!“-Artikel.)

Das Fernsehgerät, das unsere Familie während meiner Kindheit besaß, gehörte schon im meinem Geburtsjahr ’85 zum alten Eisen. Das Gehäuse war aus Sperrholz, es gab keine Fernbedienung und der Tuner empfing nur drei Kanäle. Immerhin: Er hatte eine Farbröhre, einen Kabelanschluss und zum Betrieb benötigte er nur wenige Schaufeln Kohle pro Stunde.
Auf diesem Gerät lernte ich das kennen, was man heute, in Abgenzung zur Wahlfreiheit des Inhaltskonsumenten im Internet, ein „lineares Programm“ nennt: Die Dinge, die der Sender für richtig hält, werden zu einem ebensolchen Zeitpunkt in den Äther geblasen, und der „User“ hat bestenfalls über Beschwerdebriefe Einfluss auf die Programmgestaltung – ein, zum Glück, recht theoretisches Konstrukt. Die Einflussnahme via Beschwerde meine ich, nicht die Programmgestaltung.

Als Kind verbrachte ich gewiss so manchen grauen Tag, den ich auf die Sesamstraße warten musste, mit so äußerst gewinnbringenden Dingen wie Wettstarren mit einer Wand, unter dem Wohnzimmertisch liegen oder dem Gras beim Wachsen zusehen. Viele Jahre meines Lebens musste ich außerdem nach der Sesamstraße ins Bett. Hätte ich damals mein Programm selbst gestalten können, so wäre ich nicht selten schon eine halbe Stunde nach dem Frühstück, dem Kindergarten oder der Schule wieder in die Federn geschickt worden.
Nun, das ist gewiss nicht das Hauptargument für ein lineares Programm.

Um Missverständnissen vorzubeugen: Ich bin mit Sicherheit der Nostalgie unverdächtig. Ich fummele lieber zehn Minuten an meinem Frickelsmartphone herum als mir einen Zettel zu schreiben, bewerfe ebenso alle anderen Alltagsprobleme mit Hightech und automatisiere alles, was nicht bereits autonom genug ist, damit es sich dem von selbst entziehen kann.
Und genau wie viele meiner Altersgenossinnen und -genossen bin ich ein großer Fan zeitlich souverän zu konsumierender Formate. Ich kenne nicht viele, die soviele Podcasts hören wie ich und bei denen ein Raspberry Pi als Mediencenter am Fernseher hängt, die eine solche Kenntnis von digitalem Sinn und Blödsinn auf sich vereinen wie ich – ohne dies als Qualität darstellen zu wollen, es gilt allein meiner eigenen Glaubhaftigkeit im Folgenden.

Was ich nämlich nicht teile, ist das generelle Verdammen aller linearen Programme, bei denen also ein Sender die Inhalte und den Zeitpunkt aussucht, die er senden möchte. Speziell geht es natürlich: Ums Fernsehen.

Alles hat wie immer Vor- und Nachteile. Klar dürfte sein, dass auch mir die Geduld fehlt, mich durch ein kaugummihaftes Vorabendprogramm zu quälen, nur um die Tagesschau zu sehen. So gesehen bin ich nicht wenig froh, der Diktatur linearer Programme entkommen zu sein und (fast) jederzeit in Mediatheken und derlei alle möglichen Sendungen abrufen zu können. Auch war ich schon immer begeisterter Nutzer der von den Rundfunkanstalten nicht immer gern gesehenen Versuche, die Linearität von Funk & Fernsehen zu entschleunigen, in Gestalt von bandbasierten Aufzeichnungsgeräten für den Heimgebrauch. Selbst wenn deren Bildqualität sich für den heutigen Betrachter von einem reinen Bildrauschen im Wesentlichen durch das Vorhandensein von Ton unterscheidet, damals war’s geil.

Doch, und jetzt kommen wir zum wahren Kern des fernsehenden Pudels: Die Vergleichbarkeit ist eingeschränkt. Fernsehen und Internet sind einfach nicht das Gleiche, auch wenn das der Telekom nicht schmeckt.
Jeder, der das Wort „Buzzword“ kennt, kennt auch die Wörter „Lean-forward-“ und „Lean-back-Medium“. Bei der Klickerei durch Youtube, Mediatheken, beim regulären Konsum von Podcasts aller Art ist ein größeres Maß von Initiative und Zielstrebigkeit seitens des Nutzers vonnöten, als beim Einschalten von Radio oder Fernsehen. Wer sich vor den Rechner schwingt, um sich aktiv auf die Suche nach Unterhaltung zu machen, sucht etwas anderes als der, der sich das Angebot in Fernsehen, Radio & Co anschaut.
Aber wer kennt das nicht? Das Angebot von Videos, Musikstücken und weißnichtwas im Netz und auf der eigenen Festplatte ist so erdrückend groß, dass man sich kaum für eines entscheiden mag und lieber den Zufall aussuchen lässt. So wird das Vorwärtslehnen zum Zurücklehnen.
Eine so klare Linie zum Genuss eines Fernsehprogrammes möchte ich hier nicht ziehen.

Einen Sonderfall nehmen wohl die Serien ein, anhand derer sich etwas schön zeigen lässt.. Fernsehmacher kaufen sie ein oder produzieren sie, um ein Publikum über eine gewisse Zeit an ihren Sender zu binden, und Käufer kaufen bzw. Sauger saugen Serien, um sich genau davon zu befreien. Und doch: Ohne lineare Programme gäbe es die meisten davon nicht, da ein Sender eher über die derzeit aufgewendeten finanziellen Reserven verfügt als eine Produktionsfirma, die direkt auf DVD/BluRay veröffentlicht. Außerdem fehlt hier ganz klar der Multiplikator für Bekanntheit, nämlich das Auftauchen einer Serie in einem Programm, dessen Inhalt der Nutzer nicht bestimmen kann und er so gezwungen ist, sich auf Neues einzulassen.
Es ist in meinen Augen kein Zufall, dass fast all die hierzulande zurecht gefeierten Serien wie Sons of Anarchy, Homeland, Dr House, Scrubs, Game of Thrones und wie sie nicht alle heißen, samt und sonders durch Fernsehsender produziert und finanziert wurden und werden.
Soviel zur Relevanz von Rundfunkanstalten dieser Tage.

Als unbestritten darf dennoch gelten, dass das Fernsehprogramm im Zeitalter von Scripted Reality ein größeres Müllproblem hat als Neapel in seinen schlimmsten Tagen. Doch das trifft ebenso auf das Internet zu, und zwar in zunehmendem Maße. Unken darf man natürlich, dass daran das Fernsehen mit seinem Drängen zu eigenen Plattformen einen nicht unwesentlichen Anteil hat. Allen voran stehen auch hier die zerebralen Umweltverschmutzer vom Privatfernsehen, die außer Film- und Serieneinkäufen (s.o.) so gut wie keine Daseinsberechtigung haben.
Doch in einem linearen Programm läuft eben nicht nur mit zusammengenagelter Unrat: Wer schon einmal die heute-show gesehen hat oder Neues aus der Anstalt, der dürfte bei Mario Barth bestenfalls noch müde lächeln. Auch die meisten gut gemachten Dokumentationen und Reportagen sind fürs Fernsehen gemacht worden und werden auch dort erst- und seltenst für On Demand zweitverwertet. Nachrichten kann man zwar im Netz wunderbar abrufen, man kann sie aber auch genausogut umgehen – was aber insbesondere aufs Radio auf keinen Fall zutrifft.

Dass sich im Netz jeder sein Programm selbst zusammenstellen kann, ist also nicht für jeden ein Vorteil. Zumindest solange man als Ideal einen halbwegs mündigen Bürger voraussetzt, dem man nicht am liebsten das Wahlrecht entziehen würde, weil er Uli Hoeneß für den Häupting von Bayern hält.

Ebenso ist so eine Teilnahme an einem von anderen zusammengestellten Programm natürlich ein exzellenter Weg aus der eigenen Filterblase.
Viele exzellente Formate hätte ich nie entdeckt, hätte ich nicht spät abends noch einmal aus Verdacht ein paar Sender abgezappt. Und auch das letzte klassische Konzert hätte ich wohl kaum gesehen, hätte ich mir die Dokumentation via Youtube angetan anstatt auf 3sat, wo die Aufzeichnung direkt im Anschluss lief.
Mit anderen Worten: Die Gefahr, den eigenen Horizont zu verengen, ist im Internet wahrscheinlich größer als in den klassischen Telemedien.
Auch wird kaum jemand bestreiten können, dass im einem vorgegebenen Programm sperrige Inhalte viel eher auf Zuschauer stoßen, als wenn direkt neben dem Interview mit einem Afghanistankenner die großbrüstige Moderatorin eines Wasserrutschentests von einem animierten Button aus winkt.
Wer sich auf die Gestaltung eines Programmes durch andere einlässt, kann damit eben auch sehr viele Kleinodien finden. Und abschalten kann man schließlich immer.

Ich möchte hier gar nicht abschließend bewerten, ob die eine Programmform der anderen überlegen ist. Im Gegenteil, ich äußerte mich ja bereits eingangs dahingehend, dass ich beide für schwer vergleichbar halte. Ich glaube aber, man tut sich keinen Gefallen, z.B. das Fernsehen insbesondere öffentlich rechtlicher Natur mit dem Argument der Passivität als hohle Berieselung abzutun. Und ein Bedürfnis nach mehr oder weniger passiven Angeboten besteht offenbar auch in unseren On-Demand-Zeiten und im Netz: Spotify als bekanntestes Beispiel, für die Podcastfans www.reliveradio.de, sowie tausende von Internetradiosendern mit und ohne Bild sprechen da meiner Meinung nach eine recht eindeutige Sprache.

+++EIL+++ Frei.Wild reagieren auf Fehlverhalten eigener Fans

Hamburg. In einem heute im Internet veröffentlichten Video distanzieren sich Mitglieder der Deutschrockband Frei.Wild vom Verhalten ihrer Fans.
Nach einem Konzert in Hamburg hatte die Band Jennifer Rostock bei Facebook verkündet, in Zukunft auf ihren Konzerten Fans mit Merchandiseartikeln u.a.von Frei.Wild des Saales verweisen zu wollen, weil man von einer nationalistischen Gesinnung der Band und ihres Umfeldes ausgeht. Dies löste bei Fans der Geschmähten einen Sturm der Entrüstung aus, im Rahmen dessen nicht wenige eben dieses Urteil exakt bestätigten.

Sänger Philipp „Fips“ Burger sagte, man sei „beschämt“ über das Verhalten der eigenen Anhänger und wolle Solidarität zeigen mit der diffamierten Berliner Band. Als Konsequenz kündigten die Tiroler an, in Zukunft „ebenfalls keine Frei.Wild-Shirts mehr“ auf ihren Konzerten zu dulden.
Man sei „von der hässlichen Fratze“ der Fans schwer getroffen, sagte das ehemalige Mitglied der Partei Die Freiheitlichen.

-jl

Atomkraft macht frei (Ohren auf)

Es dürfte bekannt oder zumindest keine große Überraschung sein, dass ich kein großer Fan der Atomlobby bin. Gestern aber hörte ich einen Podcast, der zwar langsam anfing, mich dann aber neuerlich zum Kopfschütteln brachte und auf den ich eure Aufmerksamkeit lenken möchte: Es handelt sich um die Folge 3 der Elementarfragen von Nicolas Semak, in der er mit Sebastian Pflugbeil spricht. Ich will das gar nicht groß weiter kommentieren, außer zu sagen, dass hier endlich mal ein „Insider“ mit echtem Fachwissen(TM) über eine Sache spricht, so wie wir das bei den Kneipendiskussionen immer gerne hätten.
Es sei noch angemerkt, dass das Veröffentlichungsdatum, der 8.6.2010, lange vor dem Fukushimaunglück liegt, hier also noch in keinster Weise von Hysterie zu sprechen ist.

Man braucht kein Verschwörungstheoretiker sein um zu der Ansicht zu gelangen, dass da ganz offensichtlich etwas faul ist im Staate Dänemark, und besonders beunruhigend sind die Positionen des Herrn Plugbeil für jemanden, der wie ich in Hamburg wohnt und damit in direkter Nähe zum AKW Krümmel. Besondere Aufmerksamkeit verdient aber meiner Meinung nach der von Pflugbeil etwas anders interpretierte Leukämiecluster Elbmarsch.

Wem das noch nicht reicht, der höre danach Alternativlos mit der Folge 14. Hier sprechen in direkter Reaktion auf das Reaktorunglück in Fukushima Frank Rieger und Fefe mit Michael Sailer vom Öko-Institut und der Kommission für Reaktorsicherheit, und dieser kommt ebenfalls zu ziemlich ernüchternden Ergebnissen. Etwas technischer, dennoch hörenswert.

Sebastian Plugbeil tritt in bei den Elementarfragen kurz danach auch noch einmal auf, ebenfalls  nach Fukushima. Diese Folge habe ich noch nicht gehört, ich will sie euch aber nicht vorenthalten.

Man möchte zusammenfassen: Wer nach dem Genuss dieser Interviews noch der Meinung ist, die Atomenergie sei beherrschbar, dem unterstelle ich hiermit einen zehn Kilometer hohen Realitätsverlust.

Für unsere Enkel: Ein langer Satz über Verleger

Verleger, das waren zu Beginn des einundzwanzigsten Jahrhunderts Leute, die gern andere Leute verklagten wenn diese sagten, dass es vielleicht eine natürlichere Distributionsform geben könnte für die Symbole des Wandels in der Welt, die Nachrichten, als Geld dafür zu verlangen, dass man sie auf die abgehackten und weiterverarbeiteten Symbole der Beständigkeit, die Bäume, druckt.

Ein Audioguide für Podcaster

Einleitung

Ich mache selber (noch?) keine Podcasts, höre aber gern welche. Und da der nicht zu verachtender Teil aller aktiven Podcaster eher aus der Hörer- als aus der Produzenten-Ecke kommt, was ja auch gleichzeitig eine der Stärken dieses Mediums ist, entdecke ich immer wieder, dass gerade am Anfang einer neuen Reihe oft technische Fehler gemacht werden, die mit ein bisschen Hintergrundwissen vielleicht nicht gemacht worden wären.
Da ich aktiver Vertreter der „IrgendwasmitMedien“-Generation bin und mich auch seit mehreren Jahren mit Tonaufnahmen im privaten Rahmen beschäftige, glaube ich zumindest im Allgemeinen zu wissen, worauf es ankommt. Ich will also mal unter Zuhilfenahme meines beruflichen und privaten Wissens versuchen, einmal das Gröbste zu erklären, so dass man euer Endprodukt hinterher auch auf guten Kopfhörern genießen kann, ohne dass es einen schüttelt. 😉
Dabei werde ich, sobald mich neue Erkenntnisse ereilen, diesen Text ergänzen oder abändern.

Eines dabei gleich vorweg: Mangels eigener Erfahrung werde ich den Bereich der Veröffentlichung eines Podcasts auslassen. Ich empfehle nur, sich bei mal bitlove.org umzuschauen: Das ist ein Portal für die torrentbasierte Verbreitung von Podcasts. Wenn ihr da richtig geschickt vorgeht, kommt ihr vielleicht sogar um den Betrieb eines eigenen Servers herum bzw. spart euch 99% des Traffics, und legt euch am besten ein Flattr-Konto zu, um wenigstens die Chance zu haben, ein paar Einnahmen zu generieren.

Meine Gliederung ist dabei ganz einfach, ich gehe nämlich sozusagen „chronologisch“ vor. Wer bereits an einem gewissen Punkt angekommen ist, kann einfach die vorangegangenen überspringen, wenn ihr aber noch nie mit Audioproduktionen zu tun hattet und ganz am Anfang steht, könnt ihr hieraus vielleicht doch das eine oder andere nützliche Detail ziehen.
Wenn es um Anschaffungen geht, verlinke ich hier übrigens auf das Musikhaus Thomann, was ein bisschen den Ideal-Standard der Versandhäuser für Audioequipment darstellt, es steht aber natürlich jedermann frei, woanders shoppen zu gehen. Wenn jemand irgendwoanders günstigere Preise findet, schreibe er das gern in einen Kommentar.

1. Equipment

Falls ihr euch noch mit der Frage beschäftigt, was ihr euch an Hardware zum Podcasten anschaffen sollt, fangen wir damit doch mal an.

1.1) Mikrofone

Wenn ihr mit mehr als einer Person podcasten wollt, solltet ihr euch von dem Gedanken verabschieden, gemeinsam in ein Mikrofon zu sprechen. Ihr könnt jetzt entweder ein paar gute Gaming-Headsets kaufen, oder gleich zu meiner Lieblingsvariante greifen und ein paar Kondensator-Großmembranmikrofone kaufen. Viel teurer als die Headsetlösung müssen die auch nicht sein.
Schaut mal, wo die Dinger heutzutage bereits anfangen.

Diese Mikrofone sind schon relativ vernünftig. Ich habe ein einigermaßen geschultes Gehör und behaupte jetzt mal, dass außer im absoluten High-End Bereich die Unterschiede zwischen Mikrofonen ab ca. 100-200 Euro eher esotherischer Natur sind – insbesondere bei einer Veröffentlichung im Netz, wo die Kompression hinterher die ganz kleinen Feinheiten ohnehin frisst.
Günstig wäre es allerdings, wenn alle Teilnehmer die gleichen oder zumindest ähnliche Mikrofone benutzen, das unterschiedliche Klangverhalten mehrerer Mikros erschwert die Nachbearbeitung hin zu einem gleichenmäßigen Klangbild ziemlich, da ist irgendwann auch mit Equalizern schluss.

Hilfreich sind außerdem Popschutz, Kabel in vernünftiger Länge (immer etwas länger kaufen als man denkt dass man sie braucht) und irgendwie geartete Halterungen, man will die Dinger ja nicht in der Hand halten. Am besten geeignet sind wohl Schwenkarme, es gehen aber auch einfache Tischstative, wenn man nicht permanent auf die Platte haut.

Wer richtig Geld ausgeben will, kann sich auch professionelle Hör-Sprech-Garnituren kaufen. Den Bewertungen durch die Käufer kann allerdings entnommen werden, dass auch hier die Meinungen über die Tonqualität auseinander gehen. Zum DT-290 von beyerdynamic sei außerdem erwähnt, dass das Mikrofon für Intercomverbindungen ausgelegt ist und an einem gewöhnlichen Mikrofoneingang sofort verzerrt – ob das auch bei anderen Systemen der Fall ist, kann ich akut nicht sagen.

1.2) Audio-Interface

Hier stellt sich erstmals die Frage, mit welcher Software ihr arbeiten wollt, nicht jedes Interface läuft nämlich mit jedem Betriebssystem. Ich als Linuxer habe lange dieses hier benutzt.
Das Gerät kostet fast nichts, verglichen mit anderen Geräten dieser Klasse, bietet bis zu vier Kanäle mit Vorverstärkern und (achtung, ein echter Knüller!) funktioniert völlig out of the box ohne jede Installation von Treibern mit jedem mir bekannten Betriebssystem. Außerdem ist es, abgesehen von der zwingend erforderlichen Stromversorgung, hinreichend mobil und bietet Phantomspeisung für Kondensatormikrofone.
Ich habe lediglich gewechselt, weil ich mehr Kanäle brauchte für ein Schlagzeug und bei meinem Gerät der Lautstärkeregler einen Wackler bekam, was bei euch aber nicht passieren sollte.

1.3) Software

Jeder hat da so seine Vorlieben. Wer aber findet, dass er bereits genug Geld für die Hardware ausgegeben hat, dem sei zumindest für den Anfang das freie Audacity ans Herz gelegt. Die einzige echte Schwäche des Programmes ist meines Ermessens nach das Fehlen von Echtzeiteffekten, man muss also immer ein bisschen rechnen lassen, bevor man hört, was man getan hat.
Dafür ist die Effektpalette z.T. beachtlich und die Rauscheleminierung gehört zu den besten die ich kenne – ein nicht zu unterschätzender Vorteil, gerade für Audioanfänger.
Audacity ist vielleicht gerade für Apple-Jünger am Anfang etwas überladen und es gibt keine „Panic“-Buttons, also Automatiken, die einem alle Probleme lösen, aber sich darauf zu verlassen erzeugt ebenfalls oft Probleme. Später dazu mehr.
Jedenfalls könnt ihr mit Audacity ohne größere Vorkenntnisse Mehrkanalaufnahmen erstellen, es läuft auf allen großen Betriebssystemen und man spart sich den Aufwand, eine kommerzielle Software zu kaufen bzw. sie zu knacken.

2. Aufnahme

2.1) Juhu, es geht los! Alles angeschlossen und der Ton kommt im Rechner an? Gut.
Jetzt schön nah ans Mikrofon rangehen! Vielleicht nicht direkt auf den Korb draufsprechen, dann ploppt und knallt wenn ihr ein P sprecht als ob ein aufgeblasener Frosch platzt, aber alles unter 20 cm Abstand ist (je nach Raum mehr oder weniger) super! Dadurch ist eure Stimme besonders laut im Verhältnis zu den Umgebungsgeräuschen wie dem Rascheln eurer Notizen, dem Klackern der Tastatur oder dem manischen Geschrei eurer Nachbarn, und das ist wünschenswert.
Headsetuser haben das Problem natürlich nicht, müssen sich dafür aber mit einem etwas weniger voluminösen Ton zufrieden geben.

2.2) Pegelt eure Mikrofone möglichst hoch ein. Ihr müsst immer noch aufpassen, dass auch bei großen Sprüngen in der Lautstärke die Clipping-Lampe nicht anspringt, also keine Übersteuerung auftritt. Das klingt hinterher wirklich furchtbar und ist in der Medienwelt der häufigste Grund, warum eine Tonaufnahme wiederholt werden muss.
Geht dennoch so nah wie möglich an diese Grenze heran, denn jedes Verstärken nach der Aufnahme verstärkt die Störgeräusche (v.a. Rauschen) mit.
Gut ist es, wenn eure Aufnahme eine Wellenform erzeugt, deren höchste Auslenkung kurz vor dem Maximum liegt, dieses aber nie berührt.

2.3) Nehmt bei Aufnahmen mit mehreren Mikrofonen alle Tonsquellen separat auf!
Jedes Mikrofon kommt also auf eine eigene Spur, mischt die nicht gleich in der Aufnahme! Diese Vorgehensweise erzeugt zwar größere Projektdateien, hat aber den unschätzbaren Vorteil, dass man die Kanäle hinterher einzeln bearbeiten kann. Wenn z.B. nur ein Mikrofon rauscht oder ihr unterschiedlich laut sprecht habt ihr dann leichteres Spiel, daraus etwas Sendefähiges zu bauen als wenn ihr am Ende einer Aufzeichnung in einer Spur feststellt, dass einer von euch subwooferrelevante Bassanteile in der Stimme und der andere permanent ins Mikrofon ausgeatmet hat.

2.4) Wenn ihr irgendwo Einfluss auf die Samplerate nehmen könnt (Bei Audacity links unten unter „Project Rate (Hz):“), wählt dort nichts unter 44100 Hz bzw. 44,1 KHz. Dies ist nötig, um alle für das menschliche Ohr wahrnehmbaren Frequenzen sauber abzubilden, wer den Wert hier zu niedrig wählt, erzeugt das von schlechten Mp3s bekannte „Knistern“ in den höheren Frequenzen.
Unnötig hohe Werte jedoch treiben die Prozessorlast und Dateigröße ziemlich schnell nach oben, mehr als 48 KHz braucht bei Podcastaufnahmen kein Mensch.
Update: Die Samplingtiefe hat ebenfalls einen nicht geringen Einfluss auf die Qualität. Bleibt am besten einfach bei 16 Bit, auch Audio-CDs haben nicht mehr. In großen Tonstudios wird bei aufwändigen Aufnahmen mit vielen vielen Spuren zu höheren Raten gegriffen, ihr braucht das allerdings nicht tun.

2.5) Ein Mikrofon ist eine Mono-Schallquelle.
Es repräsentiert sozuagen ein einzelnes Ohr. (Außer ihr habt ein dezidiert als solches ausgewiesenes Stereomikrofon gekauft)
Welche Konsequenz das hat? Ihr braucht die Spuren für die Aufnahme auch nur in Mono anzulegen. Das erspart Speicherplatz, Bearbeitungszeit (weil Rechenvorgänge nur auf einen statt auf zwei Kanäle angewandt werden müssen) und Nerven, weil man so man nicht gezwungen wird feststzustellen, dass das Aufnahmeprogramm nur auf einem Ohr die Stimme und auf dem anderen ein indifferentes Brummen/Rauschen/Nichts wiedergibt.

2.6) Wenn ihr im Nachgang Soundschnipsel in eure Aufnahme hineinschneiden wollt, dann lasst am besten eine kleine Ruhepause an dieser Stelle. So findet ihr auch bei längeren Aufnahmen schon durch bloßes Ansehen der Waveform, wo ihr mit der Bearbeitung ansetzen müsst.

2.7) Solltet ihr irgendwelche Jingles oder andere Einspieler benutzen wollen empfehle ich euch, dafür einen weiteren Rechner abzustellen, dessen Audio-Ausgang ihr einfach in euer Audiointerface stöpselt. Irgendwelche Abspielvorgänge auf dem Rechner, der aufzeichnet, bergen immer das Risiko, dass die Aufnahme Macken bekommt.
Wenn ihr also einen Rechner dafür hinstellt, müsst ihr natürlich auch alle hören, was dadrauf passiert, und für diese Abhöre empfehle ich einen separaten Kopfhörerverstärker, den es ebenfalls für wenig Geld zu kaufen gibt.
Wenn ihr euch während der Aufnahme selbst auf den Kopfhörern hören wollt (was zwecks Kontrolle eigentlich immer mindestens eine Person tun sollte), schlage ich vor, ihr sagt eurem Aufzeichnungsprogramm, dass es das, was es aufzeichnet, auch gleichzeitig wiedergeben soll, und steckt einen Ausgang aus dem Audiointerface auf den Input des Verstärkers, in den ihr eure Kopfhörer steckt.
Wenn ihr das nicht möchtet und sicher seid, dass bei der Aufnahme schon nichts schief geht und es euch irritiert, eure eigenen Stimmen zu hören, dann steckt den Ausgang eures Zuspieler-Rechners in den Input des Kopfhörerverstärkers, steckt eure Kopfhörer hier auf und leitet einen weiteren seiner Ausgänge an euer Audiointerface zur Aufzeichnung weiter.
Lest den Satz nochmal, er ist logisch. 🙂

3. Nachbearbeitung

3.1) Das Erste, was man auch eigentlich immer machen kann und sollte ist das Abschneiden aller Frequenzen unterhalb von 100 Hz bei Sprachaufnahmen.
Hier findet nichts für die Sprachverständlichkeit relevantes statt, stattdessen finden sich hier viele Störgeräusche.
Der Effekt heißt entweder „Low Cut“, „High Pass“, „High Shelf“ oder auf Deutsch auch „Trittschallfilter“.
Audacity hat dafür kein Preset, was man aber ändern kann: Effects => Equalization, dann einen Punkt auf der 0dB-Linie bei 100 Hz setzen und einen zweiten ganz weit unten knapp links vom ersten Punkt, das Ergebnis sollte etwa so aussehen. Diese Kurve kann man dann abspeichern, so dass sie später erneut zur Verfügung steht.
Manche Mikrofone bieten übrigens bereits einen eingebauten Filter dieser Art an, den man am Gerät einfach einschalten kann.
(Amüsantes Detail am Rande: Wer die Google-Bildersuche nach „Low Cut“ befragt, erhält vor allem Abbildungen von Frauen in tief ausgeschnittenen Oberteilen.)

3.2) Sollte sich trotz aller Mühen ein wahrnehmbares Rauschen in eure Aufnahme geschlichen haben, dann könnt ihr das mit Audacity relativ gut beseitigen. Dafür markiert man eine Passage, an der das Rauschen möglichst isoliert auftritt, wählt unter den Effekten „Noise Removal“, dort dann „Get Noise Profile“. Danach schließt man das Fenster, markiert seine gesamte Aufnahme und wählt wieder in der Effektsektion „Noise Removal“ und klickt auf „OK“.
Da hierbei einfach eine gewisse Frequenz aus der Aufnahme abgesenkt wird, sollte dieser Vorgang allerdings nur die letzte Wahl sein.

3.3) Wenn ihr wollt, dass eure Aufnahme gehört werden kann ohne dass man feststellt, dass ihr das noch nie gemacht habt, kommt ihr um einen Kompressor kaum herum. Echte Wahnsinnige Audiofetischisten sprechen zwar oft davon, dass gerade heute vieles „totkomprimiert und jeglicher Dynamik beraubt“ wird, aber ihr wollt ja gehört und verstanden werden und ihr seid wahrscheinlich keine ausgebildeten Rundfunksprecher. Daher empfehle ich folgende Vorgehensweise:
– Alle Spuren normalisieren (auf 0dB, das klingt für Außenstehende zwar komisch, ist aber so)
– Auf alle Sprachspuren einen Kompressor anwenden: typische, ungefähr funktionierende Einstellungen: Threshold -30 dB, Ratio 4:1 bis 8:1, Attack so kurz wie möglich. Dabei muss man ein bisschen herumspielen, ansonsten kann es sein, dass die Stimme „pumpt“, Schmatz- und Atem- sowie schlimmstenfalls Umgebungsgeräusche unangenehm mitverstärkt werden und generell ein total unnatürlicher Höreindruck entsteht.
– hinterher wieder auf 0dB normalisieren
Wenn ihr alles richtig gemacht habt solltet ihr einen rundfunkhaften Höreindruck haben und es fühlt sich so an, als stünde der Sprecher direkt vor einem. Die richtige Benutzung eines Kompressors ist eine Kunst für sich, man kann aber schon mit relativ wenig Aufwand viel rausholen. Bei Wikipedia findet man dazu noch einmal die wichtigsten Begriffe kurz erklärt.
Update: Es empfielht sich übrigens, einen solchen Vorgang an zwei verschiedenen Stellen vorzunehmen; einmal jede Sprachspur für sich und zum Schluss einmal alle Spuren zusammen, also einen Masterkompressor zu benzutzen. Wenn ihr das tut, wählt nicht ganz so extreme Werte bei Ratio. (Statt 8:1 vielleicht lieber zweimal 4:1) Das regelt das Verhältnis zwischen den Stimmen ganz gut, wenn ihr gleichzeitig sprecht, bricht also die Lautstärke nicht plötzlich durchs Dach.

Warum überhaupt einen Kompressor benutzen?
Das menschliche Ohr nimmt keine absoluten Lautstärkespitzen wahr, sondern die Durchschnittswerte der letzten 300 Millisekunden. Hier spricht man von „Lautheit“, so laut hört sich eine Aufnahme hinterher wirklich an. Man kann sagen, Lautheit ist Lautstärke mit Zeitkomponente, und genau das macht ein Kompressor: Laute und leise Stellen werden angeglichen, so dass mehr laute Stellen auftreten.

3.4) Wer es richtig sauber mag, der kann auch ein sogenanntes Noisegate verwenden. Das ist ein Filter, der einen Kanal komplett stumm schaltet, solange nicht eine gewisse Lautstärke überschritten wird. Leise Störgeräusche, geringfügiges Rauschen und die Stimme anderer Personen als derer, die in das Mikrofon sprechen soll, können dadurch in den Sprechpausen eliminiert werden und man kann die Kanäle  besser trennen.
Die Verwendung ist allerdings ziemlich abhängig vom verwendete Programm und Audacity hat in der Standardinstallation unter Windows und Mac keine Presets dazu, daher gehe ich darauf jetzt nicht weiter ein, außer zu sagen, dass es sich lohnt, sich das mal anzuschauen.

3.5) Effekte immer erst am Ende anwenden!
Manche Aufnahmeprogramme bieten die Möglichkeit, einen Klangeffekt auf ein einkommendes Signal zu legen, bevor dieses aufgezeichnet wird – auf der Festplatte landet dann nur das bereits manipulierte Signal.
Das erspart einem zwar das Hinzufügen des Effektes im Nachhinein, man ist aber auf Gedeih und Verderb auf diesen festgelegt. Wenn man also im Nachhinein feststellt, dass der gewählte Halleffekt auf der Stimme nur ca. fünf Minuten lang lustig ist, hat man hinterher keine Chance mehr, diesen für den Rest der dreistündigen Session wieder zu entfernen.
Ähnlich verhält es sich natürlich auch mit sinnvollen Effekten wie dem Kompressor, man muss da schon ziemlich genau wissen was man tut.
Also: Erst „roh“ aufnehmen, dann bearbeiten.

4. Export

4.1) Man sollte sich einmal zu Anfang überlegen, in welchem Format man sein Produkt anbietet. Dabei herrscht zwischen den Verfechtern der einzelnen Audiocodecs seit Jahren durchaus etwas, das man einen Glaubenskrieg nennen darf, wobei ich mich da nicht abschließend positionieren möchte. Vor allem würde ich mir überlegen, ob ich Mp3 anbiete, weil das auf so ziemlich jedem Mobilgerät läuft.
Mp3 überlegen im Verhältnis Audioqualität<=>Dateigröße ist allerdings Ogg Vorbis, auch wenn das viele als absolutes Nischen- und Nerdformat abtun. Andererseits ist das freie Software und kann auf so ziemlich jedem Rechner der Welt schon unter alleiniger Zuhilfenahme z.B. von Firefox, Google Chrome oder dem VLC-Player abgespielt werden.
Der Vorzug der patentbehafteten mpegbasierten Formate wie m4a bzw. aac ist mir nicht klar, zumindest wenn man nicht gerade zu faul ist, das Exportformat von Garageband zu verändern oder unbedingt für Apple missionieren muss.
Keine wirkliche Bedeutung für Podcasts sehe ich außer für Zwischenschritte bei den verlustfreien Formaten Wav, FLAC oder AIFF, die Datenmenge ist hier einfach zu groß.
Wer sich entscheidet, mehrere Formate anzubieten, sollte allerdings vielleicht einmal in ein verlustfreies Format exportieren und dann von diesem ausgehend die Wandlung ins Zielformat vornehmen anstatt ein Mp3 erst in Ogg, dann in m4a usw umzuwandeln, da hierbei die Verluste des einen Formats dem des anderen noch hinzugefügt werden.

4.2) Wenn keine Soundschnipsel, Jingles oder Musik in Stereo verwendet werden und ihr auch nicht damit arbeiten wollt, eure Mikrofone im Stereobild zu verteilen, könnt ihr beim abschließenden Exportieren tatsächlich auf Stereo verzichten.
In der Tat ist meiner Auffassung nach bei Podcasts recht wenig damit gewonnen wenn der eine Sprecher von links und der andere von rechts kommt. Daher würde ich davon abraten. Denn:
In Mono spart ihr euch den kompletten zweiten Kanal! Das heißt, euere Ergebnisdatei ist deutlich kleiner, was für einen Podcast extrem wünschenswert ist. Damit kann man im Falle von Mp3 mit konstanter Bitrate dann im getrost eine Qualität von 96 oder sogar nur 64 kBit/s verwenden. (Die bezieht sich nämlich jetzt nur noch auf einen einzelnen Kanal, was ihr von der Musik kennt bezieht sich immer auf zwei.) Eine variable Bitrate ist ebenfalls nicht vekehrt, die genannten Werte können da ebenfalls als Durchschnitt angegeben werden. Die Samplerate hingegen sollte dringend auf 44,1 KHz bleiben. Dies alles tut der Klanqualität extrem gut.
Wenn Stereo zwingend erforderlich ist, setzt euch mal mit der Mp3-Bibliothek LAME und deren Möglichkeit zu Joint-Stereo auseinander. Dabei wird der zweite Kanal lediglich als Abweichung zum ersten kodiert, so dass bei großen Übereinstimmungen auch nur wenig an Extra-Information anfällt.
Wie man LAME installiert ist allerdings extrem abhängig vom Betriebssystem und teilweise auf verschiedenen Varianten des selben OS sogar unterschiedlich, weshalb ich das nicht im Detail erläutern möchte.
Man kann außerdem bei der Stereobildung auch viele Fehler machen bzw. machen lassen, z.B. gibt es einen Haufen Podcasts, bei denen man immer wieder hört, wie die Sprecher hin- und herwandern, was ich einfach mal auf zu geringe Datenrate für die Stereofonie zurückführe. (Muss aber nicht stimmen.)
In jedem Falle ist Stereo, solange man es nicht drigend benötigt, eher eine Fehlerquelle als ein Gewinn.

4.3) Zusammenfassung:
Super ist als Ergebnis eurer Mühen z.B. ein Mp3 mit ca. 64 – 96 KBit/s mono, 44,1 KHz, 16 Bit.

Schlusswort

Man kann einen ganzen Haufen dieser Schritte auch von z.B. Garageband oder was weiß ich was erledigen lassen. Das hat Vorzüge, aber auch ganz erhebliche Nachteile: Oft hört man von den bereits beschriebenen Fehlern abgesehen z.B. viel zu leise abgemischte Stücke, bei der die Automatik die Pegelspitzen (also die lautesten Stellen) zwar korrekt erkannt aber keine Kompression vorgenommen hat, und auch Verzerrungen hört man häufig.
Wer nämlich weiß, worauf er bei der Aufnahme achten muss und selbst in der Lage ist, eine grundlegende Bearbeitung seiner Aufnahmen durchzuführen, wird zumindest beim heutigen Stand der Technik immer ein besseres Ergebnis abliefern als die Maschine.
Beim Hören ist es nämlich auch nicht viel anders als bei allen Kunstformen – Computer erkennen keine Ästhetik.

Und zum Abschluss noch ein rechtlicher Hinweis!
Achtet bei der Verwendung von Musik unbedingt auf das geltende Urheberrecht. Auch wenn die Gefahr erwischt zu werden gerade bei einem Podcast nicht gerade erschreckend hoch ist, so sind manche Rechteinhaber dennoch hinreichend humorlos.
Wenn ihr Musik braucht, versucht es mal auf einem Creative Commons-Portal wie jamendo, und sucht dort nach Musik unter der „Attribution“-Lizenz, die ist am wenigsten restriktiv. Ihr müsst die Künstler und ihre Stücke dann lediglich namentlich nennen, ob schriftlich oder mündlich.
Wenn ihr Sounds braucht, versucht euer Glück mal bei freesound.org. Die Registrierung ist kostenlos, das Angebot umfangreich.
Zuguterletzt: Viel Spaß beim Podcasten, und lasst hören, wenn euch dieser Text geholfen hat. Und flattrn dürft ihr hier auch, sobald ihr dort ein Konto habt. 😉

Ein kurzer Gedanke zum Leistungsschutzrecht, oder: Privatisierung von Herrschaftswissen?

Wenn ich mir die schlimmste aller Ausprägungen des Leistungsschutzrechtes vorstelle, in der auch der schöne Usus der legalen und geduldeten Zitate keinen Fortbestand findet – darf ich dann überhaupt Gesetzestexte zitieren, um Laien klarzumachen was sie dürfen und was nicht und um mit Experten zu diskutieren?

Naja. So schlimm wird es ja ohnehin wohl nicht kommen. *Sich selbst die Daumen drück*