Der Podcast übers Podcasten – für Podcaster*innen und die, die es werden wollen

Der Podcast übers Podcasten – für Podcaster*innen und die, die es werden wollen

Transkript

Zurück zur Episode

00:00:00: Das beste Format gibt es natürlich in dem Sinn nicht, aber es sollte nicht zu komprimiert sein.

00:00:06: Also entweder ein unkomprimiertes Format, also FLAC oder WAV.

00:00:11: FLAC hat den Vorteil, dass es kleiner ist von der Größe her und trotzdem die gleiche Qualität hat.

00:00:16: Oder eben ein komprimiertes Format wie MP3, Opus, AAC.

00:00:22: Dann ist vielleicht gut, wenn man nicht die kleinste Bitrate verwendet,

00:00:26: weil dann wird das das Material natürlich vorher schon schlechter gemacht und

00:00:30: das will man natürlich vermeiden.

00:00:32: Music.

00:00:38: Hallo und herzlich willkommen beim Podcast übers Podcasten.

00:00:44: Mein Name ist Brigitte Hagedorn, ich bin Autorin und Podcast-Trainerin.

00:00:50: Heute spreche ich mit Georg Holzmann, dem Gründer von Auphonic, über Auphonic.

00:00:57: Auphonic ist ein Webdienst für die Audio-Postproduktion und wirklich einfach anzuwenden.

00:01:04: Also Audio hochladen, sagen was man möchte und Audio in verbesserter Qualität wieder herunterladen.

00:01:14: Ich bin wirklich Fan von Auphonic und freue mich, dass Georg Holzmann aus Graz

00:01:18: sich heute die Zeit für ein Gespräch mit mir nimmt.

00:01:23: Hallo Georg. Hallo Brigitte, danke für die Einladung.

00:01:27: Sehr gerne. Wir haben vor einigen Jahren schon mal über Auphonic gesprochen

00:01:33: und mittlerweile hat sich da eine ganze Menge geändert und viele neue Parameter

00:01:39: sind dazugekommen und ich nehme an,

00:01:42: dass ihr da noch weitere Dinge plant.

00:01:46: Vielleicht, um das nochmal deutlich zu machen,

00:01:49: ihr, also Auphonic, entwickelt Algorithmen und diese werden auf die Audios,

00:01:58: die man bei euch hochladen kann, quasi losgelassen.

00:02:03: Ist das richtig? Ja.

00:02:05: Ja, genau. Also wie man da schon im Hintergrund hört, zum Beispiel so Katzen,

00:02:12: die dann reinfunken, das wollte ich gerade raus.

00:02:14: Also wie man zum Beispiel da im Hintergrund vorher gehört hat,

00:02:17: so Katzenschreie kann man, wenn man will, ganz einfach mit unserem System rausrechnen lassen.

00:02:24: Aber jetzt mal kurz zum Überblick, was wir überhaupt so tun.

00:02:27: Also gestartet hat es eben, um die Audiobearbeitung leichter zu machen,

00:02:34: vor allem für Podcaster und ähnliche Audioaufnahmen.

00:02:38: Also wir versuchen im Lautstärkenamt zugleich zwischen verschiedenen Sprechern

00:02:42: Hintergrundgeräusche rauszurechnen oder Hall und Reverb oder eben auch so nicht

00:02:49: statische Geräusche wie Katzen und so weiter.

00:02:53: Und da kann man alles Mögliche spezifizieren, wie genau man sein Audio haben will.

00:02:59: Weil manchmal will man ja solche Soundeffekte auch drinnen haben,

00:03:02: manchmal will man sie herausnehmen.

00:03:03: Das ist immer unterschiedlich natürlich.

00:03:06: Dann haben wir auch noch so andere Dienste, alles was zur Automatisierung von

00:03:11: Aufnahme- und Nachbearbeitungsworkflow dazugehört.

00:03:14: Also Metadaten richtig reinschreiben in verschiedene Audioformate oder gewisse

00:03:20: Sachen rausschneiden, schneiden, so wie viel Wörter oder so viel Stille, wenn man das will.

00:03:26: Und dann auch so das Publizieren der Produktionen auf verschiedenen Servern,

00:03:31: sei es YouTube, Soundcloud, einen eigenen Server, was es da alles halt gibt.

00:03:38: Und zusätzlich machen wir auch noch so Spracherkennung, also Transkription von

00:03:43: einem Gespräch oder von einer Aufnahme.

00:03:46: Und daraus leiten wir dann auch noch so automatische Shownotes,

00:03:52: also Notizen ab und Kapitelmarken, wo was passiert, damit dann alles möglichst automatisch passiert.

00:04:00: Das ist ein großes Überview einmal über unser System.

00:04:05: Dankeschön für den Überblick. Und dann würde ich direkt mal zu dem Dienst oder

00:04:11: zu dem Service oder ich weiß mal nicht, wie ich das nennen soll,

00:04:15: der Spracherkennung kommen.

00:04:19: Ja. Ich weiß, dass ihr das nicht selbst gemacht habt, sondern man musste sich

00:04:27: mit einem anderen Service verbinden.

00:04:30: Macht ihr das jetzt selber?

00:04:33: Ja, beides. Früher haben wir eben externe Spracherkennungsdienstleister angebunden.

00:04:39: Das haben wir noch immer, das geht ja noch immer. Da haben wir Speechmatics,

00:04:43: das ist eine englische Firma, die ganz viel in dem Bereich machen.

00:04:46: Und ansonsten auch die üblichen Größen wie Google, Cloud Speech API oder Amazon

00:04:52: hat auch so eine Spracherkennungs-API.

00:04:55: Dann BTI, das ist von Facebook eigentlich oder von Meta.

00:04:59: Und mittlerweile haben wir aber ein eigenes Service, was auf WISPA aufbaut,

00:05:04: das ist das Modell von OpenAI, wie wir es ja Open Source gestellt haben,

00:05:09: und das verwenden wir als Basis und darauf haben wir eben noch einige Vor- und

00:05:15: Nachbearbeitungsalgorithmen die das dann mit mehreren Sprechern.

00:05:21: Ansteuern und alle möglichen Nach- und Vorbereitungen, damit das dann besser

00:05:26: dass es funktioniert oder einigermaßen gut funktioniert.

00:05:29: Euer Service ist bis zwei Stunden im Monat kostenfrei,

00:05:36: aber für diese Spracherkennung zum Beispiel braucht man einen kostenpflichtigen

00:05:42: Account nicht, aber muss man zahlender Nutzer sein.

00:05:47: Da würde mich interessieren, ob ich da so ein Abo für haben muss oder ob ich

00:05:53: auch einen zeitbegrenzten Credit kaufen kann und dann auch die Spracherkennung nutzen kann.

00:06:03: Das stimmt. Die Spracherkennung ist eines der wenigen Sachen,

00:06:06: die nicht für freie Accounts sind, weil wir einfach irgendwie eine Einschränkung

00:06:10: brauchen bei der Spracherkennung.

00:06:12: Also bei den Audi-Algorithmen, das ist ja wirklich unsere eigene Entwicklung.

00:06:16: Spracherkennung verwenden wir hauptsächlich zu diesem Open-Air-Whisper-Model. Genau.

00:06:22: Das kann man auch bei anderen Dienstleistern oder selbst halt probieren.

00:06:25: Insofern geht es uns natürlich hauptsächlich um die Audio-Verarbeitung,

00:06:30: weil das unser Hauptsteckenpferd ist.

00:06:32: Die kann man mit einem freien Account auch probieren, bis zu zwei Stunden pro Monat.

00:06:37: Dann kann man eben so eine Subscription kaufen, also monatliche Zahlung oder

00:06:41: auch One-Time-Credits nennen wir das. Also einfach einmal Käufe.

00:06:46: Und egal was du jetzt hast, ob du eine Subscription hast oder One-Time-Credits,

00:06:50: Also sobald man irgendwie gekaufte Credits hat, dann kann man auch die Spracherkennung

00:06:55: verwenden und alle anderen Features.

00:06:58: Wunderbar. Dann gehen wir doch mal auf eure Plattform, auf aphonic.com.

00:07:06: Alles startet quasi mit dem Upload des eigenen Audios.

00:07:11: Was wäre denn hier immer das beste Format, was man hochladen sollte?

00:07:17: Das beste Format gibt es natürlich in dem Sinn nicht, aber es sollte nicht zu komprimiert sein.

00:07:23: Also entweder ein unkomprimiertes Format, also Flak oder Waff.

00:07:27: Flak hat den Vorteil, dass es kleiner ist von der Größe her und trotzdem die gleiche Qualität hat.

00:07:33: Oder eben ein komprimiertes Format wie MP3, Opus, AC.

00:07:39: Dann ist es vielleicht gut, wenn man nicht die kleinste Bitrate verwendet,

00:07:43: weil dann wird das Material natürlich vorher schon schlechter gemacht und das

00:07:47: will man natürlich vermeiden.

00:07:49: Dann kann man auch das Outro und das Intro hinzufügen, das Podcast-Cover und Metadaten.

00:07:59: Beim Podcasten werden die beim Hosten ja in der Regel eingetragen,

00:08:03: aber wenn man ein Audio eben nicht als Podcast veröffentlicht,

00:08:07: kann ich bei Metadaten Infos zum Audio hinzufügen.

00:08:12: Werden diese in allen Audioformaten angezeigt? Ja.

00:08:19: Genau, wir mappen die eben auf verschiedene Audio-Formate. Es gibt verschiedene

00:08:23: Metadatensysteme, eben für MP3 oder Videos oder Opus-Files,

00:08:29: also in einem OQ-Container oder AT-Files, was meistens in einem MP4-Container ist.

00:08:35: Und dann mappen wir die eben so hin, dass das überall passt.

00:08:38: Was du zum Hostel gesagt hast, die meisten Hoster schreiben keine Metadaten

00:08:44: in die Audio-Dateien. Das ist aber überall unterschiedlich.

00:08:48: Die Hoster schreiben halt meistens oder auf alle Fälle die Metadaten in den Feed,

00:08:54: aber zusätzlich sind dann in der Audiodatei meistens zusätzliche Metadaten,

00:08:59: wie zum Beispiel die Chapters die sind dann oft nicht im Feed und nur in der

00:09:02: Audiodatei deswegen muss man das dann meistens in der Audiodatei hinterlegen weil sonst kannst du,

00:09:08: Podcast-Player meistens nicht anzeigen aber das ist von Hoster zu Hoster und

00:09:12: von Player zu Player natürlich unterschiedlich Aber das ist sehr interessant, das wusste ich nicht.

00:09:17: Ich dachte, die würden dann quasi auch immer wie die Metadaten in der Datei sein.

00:09:23: Nein, nein, das sind zusätzliche Metadaten. Also in einem Feed stehen ja Metadaten,

00:09:27: die der Podcast-Client herunterladert und im Feed ist ja dann nur der Link zur

00:09:32: Audit-Datei drinnen und dann wird die Audit-Datei heruntergeladen und dort sind

00:09:36: nochmal extra Metadaten drin.

00:09:38: Und das wäre auch gut, die da drinnen zu haben? Oder ist das dann überflüssig? Genau.

00:09:43: Also Chapters werden zum Beispiel sonst, glaube ich, gar nicht angezeigt. Ah.

00:09:47: Zum Beispiel bei den anderen. Das kommt dann wiederum auf den Player natürlich

00:09:51: drauf an, welche Metadaten er nimmt.

00:09:53: Ob er jetzt die Metadaten vom Feed nimmt oder direkt von der Audiodatei,

00:09:56: das ist sehr kompliziert. Ja.

00:09:59: Aber wie so oft, denke ich dann auch immer, doppelt gemoppelt hält besser. Ja, genau.

00:10:06: Genau, Kapitelmarken kann man eben auch bei euch eintragen, die werden aber

00:10:12: eben nicht von jedem Player angezeigt.

00:10:14: Ich kann auch Bilder zu den einzelnen Kapiteln hochladen und da würde mich mal

00:10:22: interessieren, ich habe das noch nie ausprobiert,

00:10:25: aber könnte ich dann theoretisch ein Video,

00:10:30: also eine Diashow mithilfe eures Dienstes erstellen?

00:10:36: Ja genau, das machen ja einige, dass ich quasi so wie Slides zu den Chapters

00:10:42: einfach hinzufüge und dann werden diese Bilder eben in der zeitlichen Reihenfolge, wie man es will,

00:10:49: eingestellt, abgespielt zum Audio. Großartig.

00:10:54: Aber, ich meine, es gibt sicher einfachere Tools, um das zu machen, sage ich mal.

00:10:59: Ja gut, aber wenn man jetzt sowieso schon bei euch ist?

00:11:04: Ja, sicher. Es wird halt sicher schwierig, wenn du 200 Chapters hast oder 300.

00:11:09: Dann wird das Editieren ein bisschen müde.

00:11:12: Ich dachte jetzt vielleicht auch nur, wenn man so ein kleines Video macht, vielleicht von,

00:11:17: einem O-Ton, ja, und Und wenn man da dann nochmal so ein bisschen was wie ein

00:11:23: bewegtes Bild hat, sich Bilder wechseln, ist das doch ganz schön.

00:11:27: Ja, das stimmt. Dann wähle ich auf eurem Interface das Output-Format.

00:11:34: Also das Format, als das das Audio dann am Ende ausgeworfen wird.

00:11:40: Und hier bin ich immer etwas irritiert, weil ihr bei MP3 112 Kbit pro Sekunde

00:11:48: als Voreinstellung habt.

00:11:50: Und ich denke immer, ist das nicht ein bisschen niedrig oder schätze ich das vollkommen falsch ein?

00:11:58: Wenn du Sprachcontent hast, dann sollte das eigentlich reichen.

00:12:02: Und wenn ich noch Musik dazwischen habe, also Jingle und so,

00:12:06: dann? Das ist kein Problem.

00:12:08: Die Frage ist, ob du jetzt wirklich High-Quality-Musik-Content ausspielen willst.

00:12:15: Wahrscheinlich nicht. Oder ob du eben eher podcastmäßig Sprache bist.

00:12:22: Also ich persönlich finde 112 ein guter Kompromiss.

00:12:27: Du kannst natürlich gerne höher oder niedriger nehmen. Viele nehmen ja noch viel niedriger.

00:12:32: Noch niedriger. Weil wenn du lange Dateien hast, ist es natürlich von Vorteil,

00:12:37: wenn du niedrige Bitrate hast, wenn es eh nicht schlechter klingt,

00:12:42: weil dann die Dateien natürlich viel kleiner werden.

00:12:47: Und was ist der Vorteil, wenn ich eine variable Bitrate einstelle?

00:12:55: Ja, das ist auch eine lange Diskussion. Also prinzipiell gibt es ja bei mp3

00:13:00: auch variable bitrate, das heißt, dass je nachdem was gerade für ein Audio ist,

00:13:06: werden teilweise mehr Bits verwendet, um das zu enkodieren und teilweise weniger.

00:13:10: Das heißt, wenn zum Beispiel nur Stille ist, braucht man ja natürlich schon

00:13:13: weniger Bits, weil da nicht viel passiert.

00:13:15: Aber wenn jetzt ganz viel passiert, also verschiedene Instrumente oder verschiedene

00:13:19: Hintergrundgeräusche und Sprecher, bräuchte man theoretisch mehr Bits.

00:13:25: Also mehr daten um das zu modellieren und es gibt es auch schon ewig lang bei

00:13:31: mp3 konstante und variable bitrate und es ist auch eigentlich von allen unterstützt

00:13:36: insofern wäre theoretisch eigentlich variable bitrate besser.

00:13:40: Aber variable bitrate hat leider ein paar andere

00:13:43: probleme dass vor allem das

00:13:46: seeking in den files dann nicht mehr so gut funktioniert das

00:13:50: heißt wenn man jetzt zum beispiel im web player eine

00:13:53: mp3 datei spielt dann wird

00:13:56: er nicht zuerst die gesamte datei heruntergeladen sondern das

00:13:59: wird gleich mal angespielt und in chunks heruntergeladen und

00:14:03: wenn man dann irgendwo anders hinspringt zum beispiel zwei stunden später dann

00:14:07: funktioniert es mit variable bitrate mp3 files oft nicht weil dann die die falsche

00:14:13: stelle angesprungen wird und dann hat man wieder so ein versatz und das passt

00:14:17: dann wieder nicht so ganz zusammen und so weiter.

00:14:21: Deswegen ist bei Podcast eigentlich fast überall Constant Bitrate im Einsatz,

00:14:26: weil das einfach das Handling ein bisschen leichter macht beim Streamen.

00:14:31: Ah, sehr interessant. Bei Variabler Bitrate kann man eigentlich so eine Art

00:14:37: Qualität einstellen, die man haben will und der Encoder nimmt dann automatisch

00:14:42: die Datenmenge, die notwendig ist, um diese Qualität zu erreichen.

00:14:46: Und bei Constant Bitrate ist das ein bisschen anders. Also da sagt man halt

00:14:49: einfach nur ein Bitrate und gewisse Sachen kann man nur mit dieser Bitrate einfach

00:14:53: abbilden, so wie zum Beispiel Sprache ist natürlich einfacher als irgendein

00:14:56: komplexes Musikstück, wo alles mögliche passiert.

00:14:59: Genau, dann könnte ich eben über Auphonic auch ein Transkript erstellen und

00:15:06: Shownotes erstellen und sowas.

00:15:08: Und ich habe die Möglichkeit, sozusagen aus Auphonic mein Audio oder mein Video

00:15:16: direkt zu meinem Hoster oder auf einer anderen Plattform zu veröffentlichen.

00:15:21: Genau. Das finde ich auch total praktisch.

00:15:25: Plant ihr dann noch andere Plattformen, also YouTube ist dabei, Facebook?

00:15:30: Wir haben natürlich, keine Ahnung, ich glaube 20, 30 Services und da kann man

00:15:37: natürlich auch services dazu. zu mir.

00:15:40: So, und wenn man das jetzt alles ausgewählt hat, angeklickt hat.

00:15:45: Dann kommen diese Algorithmen, von denen du auch schon am Anfang gesprochen hast.

00:15:52: Was können die und wo sind die Grenzen?

00:15:56: Zum Beispiel hattest du vorhin einmal den Begriff Reverb genannt.

00:16:03: Ich versuche das jetzt mal sinnvoll ins Deutsche zu übersetzen,

00:16:06: also die Störgeräuschentfernung.

00:16:09: Und jetzt gibt es natürlich verschiedene Arten von Störgeräuschen.

00:16:13: Das kann jetzt natürlich ein konstanter Hintergrundrauschen sein.

00:16:18: Irgendwie so ein konstantes Rauschen von einer Aufnahme oder ein Lüfter,

00:16:22: der jetzt konstant hinten rauscht.

00:16:27: Dann können es natürlich so nicht stationäre Geräusche sein.

00:16:31: Zumindest nennen wir das so. Also zum Beispiel Klatschen oder wenn ich jetzt

00:16:34: auf den Tisch klopfe oder am Keyboard herumklopfe.

00:16:39: Also die nicht konstant über die Zeit ziehen.

00:16:43: Dann gibt es natürlich mit Reverb, also nach Hall am Aude, wenn man im Raum

00:16:51: aufnimmt, da hat man ja den Raum dann mit, das Hallige vom Raum oder in einer Kirche zum Beispiel.

00:16:59: Und dementsprechend gibt es verschiedene Möglichkeiten, die man jetzt im Moment

00:17:03: bei uns spezifizieren kann, was man eben genau raushaben will.

00:17:07: Also wir haben zum Beispiel diesen Static Denoiser, nennen wir das.

00:17:10: Der nimmt eben nur die statischen Geräusche raus, also alles was jetzt konstant ist, rauschend ist.

00:17:16: Dabei bleiben diese nicht stationären Geräusche, wie eben Klatschen oder sonst irgendwas über.

00:17:21: Oder wenn man eben so Soundeffekte einspielt, den mag man ja manchmal auch drinnen haben natürlich.

00:17:27: Dann die nächste Stufe wäre bei uns eben der Dynamic Denoiser, heißt der.

00:17:33: Der lässt jetzt Musik drinnen und Sprache drinnen, löscht aber alles andere raus.

00:17:39: Also der erkennt dann zuerst, wo Musikpassagen sind, weil Musik kann ja natürlich

00:17:44: auch nicht stationäre Geräusche beinhalten, wenn man irgendeinen Rhythmus klopft und so weiter.

00:17:49: Ich lasse das sozusagen drinnen, aber im Sprachbereich, wo jetzt kein Hintergrundmusik

00:17:54: ist und nur Sprache ist, da werden diese rausgenommen, also stationäre und nicht stationäre Geräusche.

00:18:01: Und er nimmt jetzt auch den Reverb natürlich raus bei der Sprache.

00:18:06: Und die letzte Stufe, die aggressivste Stufe, wäre dann sozusagen das Speech

00:18:12: Isolation, also Sprachisolation. In dem Fall nehmen wir alles bis auf Sprache raus.

00:18:18: Also auch wenn da jetzt Musik ist oder Hintergrundmusik oder irgendein Katzengejammer

00:18:22: oder was auch immer, dann wird das alles rausgelöscht und es bleibt nur mehr die Sprache übrig.

00:18:28: Und bei welchem Algorithmus würde ich das auswählen? Man muss zuerst das Noise

00:18:33: Reduction auswählen und dann sieht man die ganzen Parameter dafür.

00:18:37: Also man kann eben diese Methode auswählen und dann kann man auch auswählen,

00:18:41: wieviel entfernt werden soll, also ob wir jetzt alles Neues,

00:18:45: das ganze Rauschen rausnehmen sollen oder eben nur einen gewissen Teil.

00:18:50: Das werden wir in näherer Zukunft auch so machen, dass man das ein bisschen besser,

00:18:55: spezifizieren kann, also dass man sagen kann, okay ich will zum Beispiel den

00:18:58: Reverb komplett rausnehmen oder ein bisschen weniger rausnehmen und den Noise

00:19:03: komplett, dass man ein bisschen unterscheiden kann zwischen den Klassen.

00:19:07: Dann haben wir noch so eine Funktion Remove Breathings, also das Atmen in der

00:19:12: Aufnahme, was ja bei Podcaster oft da ist.

00:19:16: Wenn ich inzwischen immer einatme, das wollen viele leiser haben oder entfernen.

00:19:20: Das ist jetzt im Moment auch so ein Spezialfeature, das kann man eben fragen,

00:19:23: ob man das drinnen lassen will oder rausnehmen will.

00:19:26: Und so Sachen wie Mouse Noises, als ein Mäuse am Mund, Geroge.

00:19:32: Sowas wird dann auch rausgefiltert. Und Hall, sagst du, kann man auch rausfiltern?

00:19:39: Lange hieß es immer, Hall kriegt man nicht mehr weg aus so einer Aufnahme.

00:19:44: Ja. Ist das besonders schwierig?

00:19:48: Besonders schwierig. Vor zwei Jahren hätte man es sicher noch hier angesagt.

00:19:53: Aber im Moment ist es relativ ähnlich.

00:19:56: Bei dem automatischen Schneiden, Automatic Cutting,

00:20:02: Da fällt mir in letzter Zeit leider immer auf, dass ich Podcasts höre und da

00:20:08: sind irgendwie zu viele Pausen rausgeschnitten.

00:20:13: Das heißt, ich finde immer, bevor der Gast antwortet, kann man ihm ruhig eine

00:20:19: Sekunde Bedenkzeit lassen.

00:20:21: Könnte ich sowas nochmal überprüfen oder sage ich halt jetzt diesen Algorithmus,

00:20:28: also Cutten und dann wird halt rausgeschnitten, wo rausgeschnitten wird oder kann ich sagen,

00:20:35: nur Pausen, die länger als zwei Sekunden sind oder sowas? Wie funktioniert das?

00:20:42: Prinzipiell bin ich auch Fan von Pausen, aber viele wollen das halt einfach

00:20:47: nicht haben oder wenn du vor allem so einen Radiobeitrag hast,

00:20:50: wo es gedaktet sein muss.

00:20:53: Ja, du kannst bei uns auch so machen, dass du eben diese automatischen Schnitte

00:20:57: nicht anwendest, sondern dir die Schnittlisten exportieren lässt und dann in

00:21:02: deinem Audioeditor das noch einmal anschaust und nachbearbeitest,

00:21:06: beziehungsweise werden wir jetzt in näherer Zukunft auch bei uns dann direkt

00:21:11: online die Nachbearbeitungsmöglichkeit haben, dass du halt einfach sagen kannst, okay,

00:21:14: diesen Cut will ich nicht haben und diesen schon und so weiter. Toll.

00:21:20: Und bei Filmwörtern ist es natürlich ähnlich. Also da erkennen wir halt,

00:21:24: wo bestimmte Filmwörter sind.

00:21:27: Und dann werden die eben rausgeschnitten oder du kannst es eben als Schnittlisten

00:21:33: exportieren lassen oder in Zukunft dann auch direkt bei uns im Webinterface

00:21:37: dann einfach noch bearbeiten.

00:21:40: Großartig, das ist also wirklich eine wahnsinnige Zeitersparnis.

00:21:46: Noch eine Frage habe ich zu den, Moment, was war das? Bei dem Filtering kann

00:21:55: ich einen Adaptive High Pass Filter auswählen.

00:22:00: Das heißt, dass tiefe Frequenzen unterdrückt werden, ist das richtig? Genau.

00:22:09: Dieser Adaptive Hi-Pass Filter schaut einfach, wo ist die tiefste Sprachfrequenz, zum Beispiel.

00:22:16: Also bei Frauen ist die Grundfrequenz oft höher als bei Männern und dann schneidet

00:22:22: man einfach darunter ab und bei Musik natürlich nicht, weil sonst würde man

00:22:25: die ganzen Bässe der Musik entfernen.

00:22:29: Und dann gibt es eben noch die andere Variante vom Filtering,

00:22:32: das das ist der Voice Auto EQ.

00:22:34: Also der macht jetzt wirklich einen Auto EQ, also der macht einen EQ auf die

00:22:40: gesamte Bandbreite der Sprache.

00:22:42: Genau, ein EQ ist ein Equalizer. Ein Filter, ja, genau.

00:22:47: Also wenn jetzt die Sprache zum Beispiel sehr dumpf klingt, dann wird er eben

00:22:50: automatisch oben die Höhen hochziehen, damit es wieder heller klingt.

00:22:54: Oder vor allem, der macht auch De-Essing, also wenn so scharfe S's drinnen sind,

00:22:59: werden die runtergezogen. und der funktioniert auch komplett dynamisch.

00:23:03: Also wenn zwei Sprecher sich total schnell abwechseln und ein total anderes

00:23:08: Profil haben, dann wechselt der mit den Sprechern ganz einfach mit.

00:23:12: Für mich ist das echt Magie. Nur ein bisschen.

00:23:17: Hört ihr noch Audios an, die hochgeladen werden?

00:23:23: Also irgendwie ist das ja auch Audiobearbeitung auch ein bisschen subjektiv, oder?

00:23:31: Das stimmt, aber zu deiner Frage, ob wir noch Audios anhören,

00:23:36: wir tun den ganzen Tag nichts anderes im Endeffekt.

00:23:39: Also es wird halt natürlich immer geschaut, wo Probleme sind und wie man sie noch bessern kann.

00:23:45: Und ja, klar, gewisse Sachen sind natürlich sehr subjektiv, vor allem auch beim Filtering.

00:23:52: Da kann man oft eh nichts machen, Aber gewisse Sachen sind schon auch einfach

00:23:58: entscheidbar, also wenn gewisse Sachen nicht so gut funktionieren,

00:24:01: wie sie funktionieren könnten.

00:24:03: Also wir versuchen generell technische Entscheidungen zu machen und nicht jetzt

00:24:08: irgendwie künstlerische oder subjektive Entscheidungen.

00:24:14: Aber da ist die Grenze natürlich irgendwie fließend, sogar in gewissem Bereich.

00:24:19: Ich habe mal so ein kleines Coaching gemacht und wollte eben besser lernen,

00:24:27: wie man so einen Equalizer bedient mit der Audioschnittsoftware.

00:24:34: Und ich habe ganz schnell festgestellt, dass mein Gehör dafür gar nicht reicht.

00:24:39: Also wir haben eine Einstellung vorgenommen und dann hieß es so besser oder

00:24:43: so besser und ich habe es gar nicht mehr gehört. Das ist ja ganz normal.

00:24:48: Also wenn du so herumspielst und dann dauerbar ein paar dB runter und rauf,

00:24:51: dann hörst du das natürlich irgendwann oder ziemlich schnell nicht mehr.

00:24:55: Also du musst halt, wenn du jetzt wirklich Probe hörst, auch immer ein guter

00:24:59: Trick ist, quasi gegen einstellen und mit bisschen extremeren Einstellungen

00:25:04: und dann schauen, ob du den Unterschied hören kannst.

00:25:09: Also wenn du zum Beispiel eine Störfrequenz hast und du weißt nicht,

00:25:12: wo das ist, versuch die Die Frequenz einfach zu erhöhen irgendwo,

00:25:16: anstatt sie abzusenken und dann irgendwann hörst du, dass sie viel mehr wird.

00:25:21: Also wenn du jetzt mit dem Filter weiter aufziehst.

00:25:24: Und genau bei dieser Frequenz kannst du dann absenken, aber nur ein bisschen

00:25:29: natürlich. So, dass du es wahrscheinlich vorher gar nicht gehört hättest.

00:25:33: Ja, wir Podcaster sind ja in der Regel auch keine Toningenieure.

00:25:39: Ja, manche schon. Ja, stimmt, manche schon. Ich bin jedenfalls total begeistert von Auphonic.

00:25:46: Es spart nicht nur Zeit bei der Bearbeitung von Audios, sondern für viele Effekte,

00:25:51: die ich in den Schnittprogrammen nutzen kann, fehlt mir einfach auch oft das

00:25:56: Know-how und das geschulte Gehör, wie ich eben schon gesagt habe.

00:26:01: Ich danke dir also, Georg, sehr herzlich für Auphonic und natürlich für das Interview.

00:26:08: Ja, dann vielen Dank für das Interview. Und bei Ihnen bedanke ich mich fürs

00:26:14: Zuhören und freue mich, wenn Sie nächstes Mal wieder dabei sind.

00:26:17: Dann spreche ich mit der Expertin für Ferienimmobilien Annik Rau über ihren

00:26:24: Podcast, den Fevo Angels Podcast, über spitze Zielgruppen, Funnels und mehr.

00:26:32: Ich habe Annik Rau gerade auf dem Podcamp in Essen kennengelernt und freue mich

00:26:37: schon sehr auf das Gespräch.

00:26:39: Also, am besten abonnieren Sie meinen Podcast, denn der kommt nur einmal im

00:26:43: Monat und Sie könnten ihn sonst schnell aus den Augen verlieren.

00:26:48: Eine gute Zeit bis dahin wünscht Ihnen Brigitte Hagedorn.

00:26:53: Mehr über mich und meine Arbeit finden Sie auf www.audiobeiträge.de.

00:27:01: Music.

Über diesen Podcast

Im Podcast über Podcasten bekommen Sie Tipps und Anregungen rund ums Podcasten. Sie lernen erfolgreiche Podcaster*innen sowie interessante Audioprojekte und ihre Macher*innen kennen. Ich, Brigitte Hagedorn, spreche außerdem mit Expert*innen zu fürs Podcasten relevanten Themen. Außerdem geht es darum, wie Sie einen Podcast erfolgreich als Marketinginstrument einsetzen können. Mehr über mich und meine Arbeit auf www.audiobeitraege.de 🚀

von und mit Brigitte Hagedorn - audiobeiträge

Abonnieren

Follow us