Kategorie: How to

Jabber als WhatsApp-Ersatz, Teil III: Xabber

Demnächst (Stand: 3.2.2014) läuft mein WhatsApp Abo aus.  Und ich habe derzeit nicht vor, das verlängern.

Nach eingehender Testphase habe ich nämlich nochmal den Jabber-Client gewechselt. Jetzt bin ich doch bei Xabber gelandet, ein Client, den offenbar auch mehrere Kommentatoren meines letzten Artikels u.a. bei Twitter schon damals benutzten. (Und hier Teil I der Geschichte.) Leider gibt es ihn allerdings offenbar nicht für iOS.

Xabber hat gegenüber ChatSecure ein paar entscheidende Vorteile. Bei letztgenanntem kam es bisweilen vor, dass einzelne Nachrichten nicht zugestellt wurden, was mir seit dem Wechsel nicht mehr passiert ist. Darüber hinaus ist Xabbers Interface deutlich intuitiver, weil es ein relativ prominentes Hauptmenü gibt, das bekannten Messengern sehr ähnlich ist. Die allgemeinen Vorteile von Jabber gegenüber WhatsApp bleiben darüber hinaus bestehen:

  • Clients für Mobil- und Desktopgeräte vorhanden
  • Jabber-IDs sind einfacher zu merken als eine Telefonnummer und unabhängig von ihr (Beim Wechsel der Telefonnummer verliert man nicht alle Kontakte)
  • Vertrauenswürdige, weil dank freiem Quellcode überprüfbare Implementation von Verschlüsselung (anders als Threema & Co.)
  • Kein zentralisiertes Unternehmen (Wenn WhatsApp pleite geht, müssen wir uns alle neue Messenger suchen, und es gibt bei Jabber auch kein zentrales Abgreifen von Nutzerdaten)
  • Nutzung über mehrere Geräte hinweg (z.B. gleicher Account auf Telefon, Tablet und PC)
  • Dateiversand ohne die Limits von WhatsApp
  • Geräteunabhängige Kontaktlisten
  • Transports („Übersetzungen“) in andere Netzwerke, wie z.B. ICQ, MSN & Co, je nach Server

Wenn ich möchte, kann ich also Bianca, die ein wenig paranoid ist, eine sinnvoll mit OTR verschüsselte Nachricht schicken, und später ein Foto von der Kneipe, in der ich sitze, an mehrere Kollegen schicken, die da noch nie waren. Zurück daheim fällt mir die JID des neulich von Arbeitskollegen mitgebrachten Jens wieder ein, der mir seine Geschäftsidee unterbreiten wollte, der mir aber irgendwie zu windig erschien, um ihm meine Telefonnummer zu geben. Beim Hinzufügen erkenne ich ihn, weil er in seinem Jabberprofil seinen bürgerlichen Namen hinterlegt hat. Und meinem alten Kumpel, der noch nie in meiner neuen Wohnung war, beschreibe ich den Weg zu mir ganz komfortabel von der Desktoptastatur aus, was er in der Bahn auf seinem Telefon liest.

Speziell Xabber einzurichten ist überdies hochgradig einfach: Man lädt die App auf sein Telefon, und wird nach dem Starten gebeten, ein Konto einzutragen. Dies ist das einzige Hindernis: Man muss seinen Webbrowser öffnen und darin eine Webseite aufrufen, auf der man sich einen Benutzernamen und ein Passwort ausdenkt. (Nein! Doch! Oh!) Sich bei Facebook o.ä. zu registrieren, ist deutlich umständlicher. Wer außerdem z.B. bereits eine Google-Mailadresse hat, hat dort auch bereits einen Jabber- oder XMPP-Account und kann diese einfach benutzen. (Über Sinn und Unsinn, seine Kommunikation über Google abzuwickeln, um von WhatsApp wegzukommen, darf jeder selbst nachdenken)
Eine Liste von Jabberservern, ohne Anspruch auf Vollständigkeit, gibt es u.a. hier.
Hat man diesen Prozess hinter sich, trägt man das erdachte nur noch in Xabber ein und los gehts. Ein neuer Account hat natürlich noch genau null Kontakte – wer will, der füge mich hinzu, am besten mit einem Hinweis auf diesen Artikel:
Aarkon@jabber.org

So, dann mal fröhliches Instantmessaging vom mobilen Endgerät aus! Endlich mit freier Software. 🙂

Update am 20.2.2014
Die Geschichte, dass Facebook WhatsApp kauft, spült mir ganz schön Traffic rein. Sowas! 🙂

Advertisements

Ein Audioguide für Podcaster

Einleitung

Ich mache selber (noch?) keine Podcasts, höre aber gern welche. Und da der nicht zu verachtender Teil aller aktiven Podcaster eher aus der Hörer- als aus der Produzenten-Ecke kommt, was ja auch gleichzeitig eine der Stärken dieses Mediums ist, entdecke ich immer wieder, dass gerade am Anfang einer neuen Reihe oft technische Fehler gemacht werden, die mit ein bisschen Hintergrundwissen vielleicht nicht gemacht worden wären.
Da ich aktiver Vertreter der „IrgendwasmitMedien“-Generation bin und mich auch seit mehreren Jahren mit Tonaufnahmen im privaten Rahmen beschäftige, glaube ich zumindest im Allgemeinen zu wissen, worauf es ankommt. Ich will also mal unter Zuhilfenahme meines beruflichen und privaten Wissens versuchen, einmal das Gröbste zu erklären, so dass man euer Endprodukt hinterher auch auf guten Kopfhörern genießen kann, ohne dass es einen schüttelt. 😉
Dabei werde ich, sobald mich neue Erkenntnisse ereilen, diesen Text ergänzen oder abändern.

Eines dabei gleich vorweg: Mangels eigener Erfahrung werde ich den Bereich der Veröffentlichung eines Podcasts auslassen. Ich empfehle nur, sich bei mal bitlove.org umzuschauen: Das ist ein Portal für die torrentbasierte Verbreitung von Podcasts. Wenn ihr da richtig geschickt vorgeht, kommt ihr vielleicht sogar um den Betrieb eines eigenen Servers herum bzw. spart euch 99% des Traffics, und legt euch am besten ein Flattr-Konto zu, um wenigstens die Chance zu haben, ein paar Einnahmen zu generieren.

Meine Gliederung ist dabei ganz einfach, ich gehe nämlich sozusagen „chronologisch“ vor. Wer bereits an einem gewissen Punkt angekommen ist, kann einfach die vorangegangenen überspringen, wenn ihr aber noch nie mit Audioproduktionen zu tun hattet und ganz am Anfang steht, könnt ihr hieraus vielleicht doch das eine oder andere nützliche Detail ziehen.
Wenn es um Anschaffungen geht, verlinke ich hier übrigens auf das Musikhaus Thomann, was ein bisschen den Ideal-Standard der Versandhäuser für Audioequipment darstellt, es steht aber natürlich jedermann frei, woanders shoppen zu gehen. Wenn jemand irgendwoanders günstigere Preise findet, schreibe er das gern in einen Kommentar.

1. Equipment

Falls ihr euch noch mit der Frage beschäftigt, was ihr euch an Hardware zum Podcasten anschaffen sollt, fangen wir damit doch mal an.

1.1) Mikrofone

Wenn ihr mit mehr als einer Person podcasten wollt, solltet ihr euch von dem Gedanken verabschieden, gemeinsam in ein Mikrofon zu sprechen. Ihr könnt jetzt entweder ein paar gute Gaming-Headsets kaufen, oder gleich zu meiner Lieblingsvariante greifen und ein paar Kondensator-Großmembranmikrofone kaufen. Viel teurer als die Headsetlösung müssen die auch nicht sein.
Schaut mal, wo die Dinger heutzutage bereits anfangen.

Diese Mikrofone sind schon relativ vernünftig. Ich habe ein einigermaßen geschultes Gehör und behaupte jetzt mal, dass außer im absoluten High-End Bereich die Unterschiede zwischen Mikrofonen ab ca. 100-200 Euro eher esotherischer Natur sind – insbesondere bei einer Veröffentlichung im Netz, wo die Kompression hinterher die ganz kleinen Feinheiten ohnehin frisst.
Günstig wäre es allerdings, wenn alle Teilnehmer die gleichen oder zumindest ähnliche Mikrofone benutzen, das unterschiedliche Klangverhalten mehrerer Mikros erschwert die Nachbearbeitung hin zu einem gleichenmäßigen Klangbild ziemlich, da ist irgendwann auch mit Equalizern schluss.

Hilfreich sind außerdem Popschutz, Kabel in vernünftiger Länge (immer etwas länger kaufen als man denkt dass man sie braucht) und irgendwie geartete Halterungen, man will die Dinger ja nicht in der Hand halten. Am besten geeignet sind wohl Schwenkarme, es gehen aber auch einfache Tischstative, wenn man nicht permanent auf die Platte haut.

Wer richtig Geld ausgeben will, kann sich auch professionelle Hör-Sprech-Garnituren kaufen. Den Bewertungen durch die Käufer kann allerdings entnommen werden, dass auch hier die Meinungen über die Tonqualität auseinander gehen. Zum DT-290 von beyerdynamic sei außerdem erwähnt, dass das Mikrofon für Intercomverbindungen ausgelegt ist und an einem gewöhnlichen Mikrofoneingang sofort verzerrt – ob das auch bei anderen Systemen der Fall ist, kann ich akut nicht sagen.

1.2) Audio-Interface

Hier stellt sich erstmals die Frage, mit welcher Software ihr arbeiten wollt, nicht jedes Interface läuft nämlich mit jedem Betriebssystem. Ich als Linuxer habe lange dieses hier benutzt.
Das Gerät kostet fast nichts, verglichen mit anderen Geräten dieser Klasse, bietet bis zu vier Kanäle mit Vorverstärkern und (achtung, ein echter Knüller!) funktioniert völlig out of the box ohne jede Installation von Treibern mit jedem mir bekannten Betriebssystem. Außerdem ist es, abgesehen von der zwingend erforderlichen Stromversorgung, hinreichend mobil und bietet Phantomspeisung für Kondensatormikrofone.
Ich habe lediglich gewechselt, weil ich mehr Kanäle brauchte für ein Schlagzeug und bei meinem Gerät der Lautstärkeregler einen Wackler bekam, was bei euch aber nicht passieren sollte.

1.3) Software

Jeder hat da so seine Vorlieben. Wer aber findet, dass er bereits genug Geld für die Hardware ausgegeben hat, dem sei zumindest für den Anfang das freie Audacity ans Herz gelegt. Die einzige echte Schwäche des Programmes ist meines Ermessens nach das Fehlen von Echtzeiteffekten, man muss also immer ein bisschen rechnen lassen, bevor man hört, was man getan hat.
Dafür ist die Effektpalette z.T. beachtlich und die Rauscheleminierung gehört zu den besten die ich kenne – ein nicht zu unterschätzender Vorteil, gerade für Audioanfänger.
Audacity ist vielleicht gerade für Apple-Jünger am Anfang etwas überladen und es gibt keine „Panic“-Buttons, also Automatiken, die einem alle Probleme lösen, aber sich darauf zu verlassen erzeugt ebenfalls oft Probleme. Später dazu mehr.
Jedenfalls könnt ihr mit Audacity ohne größere Vorkenntnisse Mehrkanalaufnahmen erstellen, es läuft auf allen großen Betriebssystemen und man spart sich den Aufwand, eine kommerzielle Software zu kaufen bzw. sie zu knacken.

2. Aufnahme

2.1) Juhu, es geht los! Alles angeschlossen und der Ton kommt im Rechner an? Gut.
Jetzt schön nah ans Mikrofon rangehen! Vielleicht nicht direkt auf den Korb draufsprechen, dann ploppt und knallt wenn ihr ein P sprecht als ob ein aufgeblasener Frosch platzt, aber alles unter 20 cm Abstand ist (je nach Raum mehr oder weniger) super! Dadurch ist eure Stimme besonders laut im Verhältnis zu den Umgebungsgeräuschen wie dem Rascheln eurer Notizen, dem Klackern der Tastatur oder dem manischen Geschrei eurer Nachbarn, und das ist wünschenswert.
Headsetuser haben das Problem natürlich nicht, müssen sich dafür aber mit einem etwas weniger voluminösen Ton zufrieden geben.

2.2) Pegelt eure Mikrofone möglichst hoch ein. Ihr müsst immer noch aufpassen, dass auch bei großen Sprüngen in der Lautstärke die Clipping-Lampe nicht anspringt, also keine Übersteuerung auftritt. Das klingt hinterher wirklich furchtbar und ist in der Medienwelt der häufigste Grund, warum eine Tonaufnahme wiederholt werden muss.
Geht dennoch so nah wie möglich an diese Grenze heran, denn jedes Verstärken nach der Aufnahme verstärkt die Störgeräusche (v.a. Rauschen) mit.
Gut ist es, wenn eure Aufnahme eine Wellenform erzeugt, deren höchste Auslenkung kurz vor dem Maximum liegt, dieses aber nie berührt.

2.3) Nehmt bei Aufnahmen mit mehreren Mikrofonen alle Tonsquellen separat auf!
Jedes Mikrofon kommt also auf eine eigene Spur, mischt die nicht gleich in der Aufnahme! Diese Vorgehensweise erzeugt zwar größere Projektdateien, hat aber den unschätzbaren Vorteil, dass man die Kanäle hinterher einzeln bearbeiten kann. Wenn z.B. nur ein Mikrofon rauscht oder ihr unterschiedlich laut sprecht habt ihr dann leichteres Spiel, daraus etwas Sendefähiges zu bauen als wenn ihr am Ende einer Aufzeichnung in einer Spur feststellt, dass einer von euch subwooferrelevante Bassanteile in der Stimme und der andere permanent ins Mikrofon ausgeatmet hat.

2.4) Wenn ihr irgendwo Einfluss auf die Samplerate nehmen könnt (Bei Audacity links unten unter „Project Rate (Hz):“), wählt dort nichts unter 44100 Hz bzw. 44,1 KHz. Dies ist nötig, um alle für das menschliche Ohr wahrnehmbaren Frequenzen sauber abzubilden, wer den Wert hier zu niedrig wählt, erzeugt das von schlechten Mp3s bekannte „Knistern“ in den höheren Frequenzen.
Unnötig hohe Werte jedoch treiben die Prozessorlast und Dateigröße ziemlich schnell nach oben, mehr als 48 KHz braucht bei Podcastaufnahmen kein Mensch.
Update: Die Samplingtiefe hat ebenfalls einen nicht geringen Einfluss auf die Qualität. Bleibt am besten einfach bei 16 Bit, auch Audio-CDs haben nicht mehr. In großen Tonstudios wird bei aufwändigen Aufnahmen mit vielen vielen Spuren zu höheren Raten gegriffen, ihr braucht das allerdings nicht tun.

2.5) Ein Mikrofon ist eine Mono-Schallquelle.
Es repräsentiert sozuagen ein einzelnes Ohr. (Außer ihr habt ein dezidiert als solches ausgewiesenes Stereomikrofon gekauft)
Welche Konsequenz das hat? Ihr braucht die Spuren für die Aufnahme auch nur in Mono anzulegen. Das erspart Speicherplatz, Bearbeitungszeit (weil Rechenvorgänge nur auf einen statt auf zwei Kanäle angewandt werden müssen) und Nerven, weil man so man nicht gezwungen wird feststzustellen, dass das Aufnahmeprogramm nur auf einem Ohr die Stimme und auf dem anderen ein indifferentes Brummen/Rauschen/Nichts wiedergibt.

2.6) Wenn ihr im Nachgang Soundschnipsel in eure Aufnahme hineinschneiden wollt, dann lasst am besten eine kleine Ruhepause an dieser Stelle. So findet ihr auch bei längeren Aufnahmen schon durch bloßes Ansehen der Waveform, wo ihr mit der Bearbeitung ansetzen müsst.

2.7) Solltet ihr irgendwelche Jingles oder andere Einspieler benutzen wollen empfehle ich euch, dafür einen weiteren Rechner abzustellen, dessen Audio-Ausgang ihr einfach in euer Audiointerface stöpselt. Irgendwelche Abspielvorgänge auf dem Rechner, der aufzeichnet, bergen immer das Risiko, dass die Aufnahme Macken bekommt.
Wenn ihr also einen Rechner dafür hinstellt, müsst ihr natürlich auch alle hören, was dadrauf passiert, und für diese Abhöre empfehle ich einen separaten Kopfhörerverstärker, den es ebenfalls für wenig Geld zu kaufen gibt.
Wenn ihr euch während der Aufnahme selbst auf den Kopfhörern hören wollt (was zwecks Kontrolle eigentlich immer mindestens eine Person tun sollte), schlage ich vor, ihr sagt eurem Aufzeichnungsprogramm, dass es das, was es aufzeichnet, auch gleichzeitig wiedergeben soll, und steckt einen Ausgang aus dem Audiointerface auf den Input des Verstärkers, in den ihr eure Kopfhörer steckt.
Wenn ihr das nicht möchtet und sicher seid, dass bei der Aufnahme schon nichts schief geht und es euch irritiert, eure eigenen Stimmen zu hören, dann steckt den Ausgang eures Zuspieler-Rechners in den Input des Kopfhörerverstärkers, steckt eure Kopfhörer hier auf und leitet einen weiteren seiner Ausgänge an euer Audiointerface zur Aufzeichnung weiter.
Lest den Satz nochmal, er ist logisch. 🙂

3. Nachbearbeitung

3.1) Das Erste, was man auch eigentlich immer machen kann und sollte ist das Abschneiden aller Frequenzen unterhalb von 100 Hz bei Sprachaufnahmen.
Hier findet nichts für die Sprachverständlichkeit relevantes statt, stattdessen finden sich hier viele Störgeräusche.
Der Effekt heißt entweder „Low Cut“, „High Pass“, „High Shelf“ oder auf Deutsch auch „Trittschallfilter“.
Audacity hat dafür kein Preset, was man aber ändern kann: Effects => Equalization, dann einen Punkt auf der 0dB-Linie bei 100 Hz setzen und einen zweiten ganz weit unten knapp links vom ersten Punkt, das Ergebnis sollte etwa so aussehen. Diese Kurve kann man dann abspeichern, so dass sie später erneut zur Verfügung steht.
Manche Mikrofone bieten übrigens bereits einen eingebauten Filter dieser Art an, den man am Gerät einfach einschalten kann.
(Amüsantes Detail am Rande: Wer die Google-Bildersuche nach „Low Cut“ befragt, erhält vor allem Abbildungen von Frauen in tief ausgeschnittenen Oberteilen.)

3.2) Sollte sich trotz aller Mühen ein wahrnehmbares Rauschen in eure Aufnahme geschlichen haben, dann könnt ihr das mit Audacity relativ gut beseitigen. Dafür markiert man eine Passage, an der das Rauschen möglichst isoliert auftritt, wählt unter den Effekten „Noise Removal“, dort dann „Get Noise Profile“. Danach schließt man das Fenster, markiert seine gesamte Aufnahme und wählt wieder in der Effektsektion „Noise Removal“ und klickt auf „OK“.
Da hierbei einfach eine gewisse Frequenz aus der Aufnahme abgesenkt wird, sollte dieser Vorgang allerdings nur die letzte Wahl sein.

3.3) Wenn ihr wollt, dass eure Aufnahme gehört werden kann ohne dass man feststellt, dass ihr das noch nie gemacht habt, kommt ihr um einen Kompressor kaum herum. Echte Wahnsinnige Audiofetischisten sprechen zwar oft davon, dass gerade heute vieles „totkomprimiert und jeglicher Dynamik beraubt“ wird, aber ihr wollt ja gehört und verstanden werden und ihr seid wahrscheinlich keine ausgebildeten Rundfunksprecher. Daher empfehle ich folgende Vorgehensweise:
– Alle Spuren normalisieren (auf 0dB, das klingt für Außenstehende zwar komisch, ist aber so)
– Auf alle Sprachspuren einen Kompressor anwenden: typische, ungefähr funktionierende Einstellungen: Threshold -30 dB, Ratio 4:1 bis 8:1, Attack so kurz wie möglich. Dabei muss man ein bisschen herumspielen, ansonsten kann es sein, dass die Stimme „pumpt“, Schmatz- und Atem- sowie schlimmstenfalls Umgebungsgeräusche unangenehm mitverstärkt werden und generell ein total unnatürlicher Höreindruck entsteht.
– hinterher wieder auf 0dB normalisieren
Wenn ihr alles richtig gemacht habt solltet ihr einen rundfunkhaften Höreindruck haben und es fühlt sich so an, als stünde der Sprecher direkt vor einem. Die richtige Benutzung eines Kompressors ist eine Kunst für sich, man kann aber schon mit relativ wenig Aufwand viel rausholen. Bei Wikipedia findet man dazu noch einmal die wichtigsten Begriffe kurz erklärt.
Update: Es empfielht sich übrigens, einen solchen Vorgang an zwei verschiedenen Stellen vorzunehmen; einmal jede Sprachspur für sich und zum Schluss einmal alle Spuren zusammen, also einen Masterkompressor zu benzutzen. Wenn ihr das tut, wählt nicht ganz so extreme Werte bei Ratio. (Statt 8:1 vielleicht lieber zweimal 4:1) Das regelt das Verhältnis zwischen den Stimmen ganz gut, wenn ihr gleichzeitig sprecht, bricht also die Lautstärke nicht plötzlich durchs Dach.

Warum überhaupt einen Kompressor benutzen?
Das menschliche Ohr nimmt keine absoluten Lautstärkespitzen wahr, sondern die Durchschnittswerte der letzten 300 Millisekunden. Hier spricht man von „Lautheit“, so laut hört sich eine Aufnahme hinterher wirklich an. Man kann sagen, Lautheit ist Lautstärke mit Zeitkomponente, und genau das macht ein Kompressor: Laute und leise Stellen werden angeglichen, so dass mehr laute Stellen auftreten.

3.4) Wer es richtig sauber mag, der kann auch ein sogenanntes Noisegate verwenden. Das ist ein Filter, der einen Kanal komplett stumm schaltet, solange nicht eine gewisse Lautstärke überschritten wird. Leise Störgeräusche, geringfügiges Rauschen und die Stimme anderer Personen als derer, die in das Mikrofon sprechen soll, können dadurch in den Sprechpausen eliminiert werden und man kann die Kanäle  besser trennen.
Die Verwendung ist allerdings ziemlich abhängig vom verwendete Programm und Audacity hat in der Standardinstallation unter Windows und Mac keine Presets dazu, daher gehe ich darauf jetzt nicht weiter ein, außer zu sagen, dass es sich lohnt, sich das mal anzuschauen.

3.5) Effekte immer erst am Ende anwenden!
Manche Aufnahmeprogramme bieten die Möglichkeit, einen Klangeffekt auf ein einkommendes Signal zu legen, bevor dieses aufgezeichnet wird – auf der Festplatte landet dann nur das bereits manipulierte Signal.
Das erspart einem zwar das Hinzufügen des Effektes im Nachhinein, man ist aber auf Gedeih und Verderb auf diesen festgelegt. Wenn man also im Nachhinein feststellt, dass der gewählte Halleffekt auf der Stimme nur ca. fünf Minuten lang lustig ist, hat man hinterher keine Chance mehr, diesen für den Rest der dreistündigen Session wieder zu entfernen.
Ähnlich verhält es sich natürlich auch mit sinnvollen Effekten wie dem Kompressor, man muss da schon ziemlich genau wissen was man tut.
Also: Erst „roh“ aufnehmen, dann bearbeiten.

4. Export

4.1) Man sollte sich einmal zu Anfang überlegen, in welchem Format man sein Produkt anbietet. Dabei herrscht zwischen den Verfechtern der einzelnen Audiocodecs seit Jahren durchaus etwas, das man einen Glaubenskrieg nennen darf, wobei ich mich da nicht abschließend positionieren möchte. Vor allem würde ich mir überlegen, ob ich Mp3 anbiete, weil das auf so ziemlich jedem Mobilgerät läuft.
Mp3 überlegen im Verhältnis Audioqualität<=>Dateigröße ist allerdings Ogg Vorbis, auch wenn das viele als absolutes Nischen- und Nerdformat abtun. Andererseits ist das freie Software und kann auf so ziemlich jedem Rechner der Welt schon unter alleiniger Zuhilfenahme z.B. von Firefox, Google Chrome oder dem VLC-Player abgespielt werden.
Der Vorzug der patentbehafteten mpegbasierten Formate wie m4a bzw. aac ist mir nicht klar, zumindest wenn man nicht gerade zu faul ist, das Exportformat von Garageband zu verändern oder unbedingt für Apple missionieren muss.
Keine wirkliche Bedeutung für Podcasts sehe ich außer für Zwischenschritte bei den verlustfreien Formaten Wav, FLAC oder AIFF, die Datenmenge ist hier einfach zu groß.
Wer sich entscheidet, mehrere Formate anzubieten, sollte allerdings vielleicht einmal in ein verlustfreies Format exportieren und dann von diesem ausgehend die Wandlung ins Zielformat vornehmen anstatt ein Mp3 erst in Ogg, dann in m4a usw umzuwandeln, da hierbei die Verluste des einen Formats dem des anderen noch hinzugefügt werden.

4.2) Wenn keine Soundschnipsel, Jingles oder Musik in Stereo verwendet werden und ihr auch nicht damit arbeiten wollt, eure Mikrofone im Stereobild zu verteilen, könnt ihr beim abschließenden Exportieren tatsächlich auf Stereo verzichten.
In der Tat ist meiner Auffassung nach bei Podcasts recht wenig damit gewonnen wenn der eine Sprecher von links und der andere von rechts kommt. Daher würde ich davon abraten. Denn:
In Mono spart ihr euch den kompletten zweiten Kanal! Das heißt, euere Ergebnisdatei ist deutlich kleiner, was für einen Podcast extrem wünschenswert ist. Damit kann man im Falle von Mp3 mit konstanter Bitrate dann im getrost eine Qualität von 96 oder sogar nur 64 kBit/s verwenden. (Die bezieht sich nämlich jetzt nur noch auf einen einzelnen Kanal, was ihr von der Musik kennt bezieht sich immer auf zwei.) Eine variable Bitrate ist ebenfalls nicht vekehrt, die genannten Werte können da ebenfalls als Durchschnitt angegeben werden. Die Samplerate hingegen sollte dringend auf 44,1 KHz bleiben. Dies alles tut der Klanqualität extrem gut.
Wenn Stereo zwingend erforderlich ist, setzt euch mal mit der Mp3-Bibliothek LAME und deren Möglichkeit zu Joint-Stereo auseinander. Dabei wird der zweite Kanal lediglich als Abweichung zum ersten kodiert, so dass bei großen Übereinstimmungen auch nur wenig an Extra-Information anfällt.
Wie man LAME installiert ist allerdings extrem abhängig vom Betriebssystem und teilweise auf verschiedenen Varianten des selben OS sogar unterschiedlich, weshalb ich das nicht im Detail erläutern möchte.
Man kann außerdem bei der Stereobildung auch viele Fehler machen bzw. machen lassen, z.B. gibt es einen Haufen Podcasts, bei denen man immer wieder hört, wie die Sprecher hin- und herwandern, was ich einfach mal auf zu geringe Datenrate für die Stereofonie zurückführe. (Muss aber nicht stimmen.)
In jedem Falle ist Stereo, solange man es nicht drigend benötigt, eher eine Fehlerquelle als ein Gewinn.

4.3) Zusammenfassung:
Super ist als Ergebnis eurer Mühen z.B. ein Mp3 mit ca. 64 – 96 KBit/s mono, 44,1 KHz, 16 Bit.

Schlusswort

Man kann einen ganzen Haufen dieser Schritte auch von z.B. Garageband oder was weiß ich was erledigen lassen. Das hat Vorzüge, aber auch ganz erhebliche Nachteile: Oft hört man von den bereits beschriebenen Fehlern abgesehen z.B. viel zu leise abgemischte Stücke, bei der die Automatik die Pegelspitzen (also die lautesten Stellen) zwar korrekt erkannt aber keine Kompression vorgenommen hat, und auch Verzerrungen hört man häufig.
Wer nämlich weiß, worauf er bei der Aufnahme achten muss und selbst in der Lage ist, eine grundlegende Bearbeitung seiner Aufnahmen durchzuführen, wird zumindest beim heutigen Stand der Technik immer ein besseres Ergebnis abliefern als die Maschine.
Beim Hören ist es nämlich auch nicht viel anders als bei allen Kunstformen – Computer erkennen keine Ästhetik.

Und zum Abschluss noch ein rechtlicher Hinweis!
Achtet bei der Verwendung von Musik unbedingt auf das geltende Urheberrecht. Auch wenn die Gefahr erwischt zu werden gerade bei einem Podcast nicht gerade erschreckend hoch ist, so sind manche Rechteinhaber dennoch hinreichend humorlos.
Wenn ihr Musik braucht, versucht es mal auf einem Creative Commons-Portal wie jamendo, und sucht dort nach Musik unter der „Attribution“-Lizenz, die ist am wenigsten restriktiv. Ihr müsst die Künstler und ihre Stücke dann lediglich namentlich nennen, ob schriftlich oder mündlich.
Wenn ihr Sounds braucht, versucht euer Glück mal bei freesound.org. Die Registrierung ist kostenlos, das Angebot umfangreich.
Zuguterletzt: Viel Spaß beim Podcasten, und lasst hören, wenn euch dieser Text geholfen hat. Und flattrn dürft ihr hier auch, sobald ihr dort ein Konto habt. 😉