Samstag, 2. November 2024, 11:45 – 13:15 Uhr
Präsentation
Referent: Aljoscha Hartmann – Koordinator der tagesaktuellen Redaktion bei Radio Corax
Das Panel kann auf Deutsch und/oder Englisch gehalten werden, die Sprache richtet sich nach den Bedürfnissen der Teilnehmenden.
The panel can be held in German o/and English, depending on the requirements of the participants.
In our daily radio lives, at some point, someone painstakingly has transcribed statements, printed them out and developed a script for a composed program or feature on paper, cutting out parts and rearranging them as the story gets developed. This process of paper cut editing is often the only way to develop complex stories – and has always been time-consuming. Thanks to what the Tech hype is calling „AI“, it is now possible to apply the same principle, but without the painstaking transcription process and the tiring search for the right part of an audio in a wealth of material. This panel will explore where Large Language Models can be utilized to speed up workflows and how they can be combined with computer assisted editing to quickly create composed programs and features. This allows us to cut, arrange and script in text form – so as fast as we can read and write, instead of listening to all the audio material – with the computer automatically producing the audios we need from the uncut material.
I will show you how this work flow works, and how different technologies come together for quick and easy digital paper cut editing (thereby showing the necessary tools for the computer savvy) and give an introduction to descript (https://www.descript.com/), a program that combines the relevant tools and is easy to use (for those who, don’t want to learn too much about the IT aspect of this workflow). The session will conclude with a look how the most recent Audacity (https://www.audacity.de/) releases have incorporated LLMs and how we can use this great open source editor for such a workflow.
//
In unserem Radioalltag haben wir alle schon erlebt wie jemand in mühsamer Kleinarbeit Aussagen transkribiert, ausdruckt und ein Skript für einen gebauten Beitrag oder ein Feature auf Papier entwickelt, wobei Teile herausgeschnitten und neu angeordnet werden, während das Skript entwickelt wird. Dieser Prozess des Text-basierten Schneidens ist oft die einzige Möglichkeit, komplexe Geschichten zu entwickeln – und ist immer sehr zeitaufwändig. Dank dem, was der Tech-Hype „KI“ nennt, ist es nun möglich, dasselbe Prinzip anzuwenden, allerdings ohne den mühsamen Transkriptionsprozess und die ermüdende Suche nach dem richtigen Teil eines Audios in einer Fülle von Material. In diesem Panel wird untersucht, wo Large Language Models eingesetzt werden können, um Arbeitsabläufe zu beschleunigen, und wie sie mit computergestützter Bearbeitung kombiniert werden können, um schneller gebaute Beiträge und Features zu erstellen. Auf diese Weise können wir in Textform schneiden, arrangieren und Skripten – also so schnell, wie wir lesen und schreiben können, anstatt uns das gesamte Audiomaterial anzuhören – wobei der Computer automatisch die benötigten Audios aus dem ungeschnittenen Material produziert.
Ich werde euch zeigen, wie dieser Arbeitsablauf funktioniert und wie verschiedene Technologien für einen schnellen und einfachen digitalen Papierschnitt zusammenkommen (und dabei die notwendigen Werkzeuge für die Computerkenner aufzeigen) und eine Einführung in descript (https://www.descript.com/) geben, ein Programm, das die relevanten Werkzeuge kombiniert und einfach zu bedienen ist (für diejenigen, die nicht zu viel über den IT-Aspekt dieses Arbeitsablaufs lernen wollen). Das Panel wird mit einem Blick darauf enden, wie die neuesten Versionen von Audacity (https://www.audacity.de/) LLMs integriert haben und wie wir diesen großartigen Open- Source-Editor für einen solchen Workflow nutzen können.