Text to Speech in der Fernlehre

Das Lernen im Kurs ist vielfach mit der Verarbeitung visueller Informationen verbunden. Viele Tätigkeiten beanspruchen den visuellen Informationskanal zumindest so sehr, dass nebenher keine Texte gelesen werden können. Auditive Lernangebote finden sich dem gegenüber bislang nur selten im Fernstudium. Audio stellt jedoch eine alternative Repräsentation der Lernmaterialien dar und eröffnet neue Lernsituation, wenn man beispielsweise beim Joggen, bei der Hausarbeit oder in der Badewanne die aktuelle Kurseinheit anhören kann. Die Popularität von Podcasts unterstreicht das Potential von Audiobeiträgen für das Lernen.

Für die Produktion und Aktualisierung von professionellen Podcasts fehlt im Lehrbetrieb jedoch die Zeit. Weitaus weniger zeitaufwendig sind Text-to-Speech-Systeme. Aus einem mit Phonemen angereicherten Kurstext im SSML-Format entsteht innerhalb von wenigen Minuten eine passable Vertonungen.

Im Folgenden stelle ich eine erste Kostprobe einer vertonten Kurseinheit zur Verfügung. Auf Grundlage dieser Audioquellen arbeiten wir gerade an einer Hyperaudio-Lernumgebung, die Abbildungen, Tabellen und Formeln als Bilddateien durch akustische Signale ankündigt und die gruppenbezogene Diskussion der Lerninhalten ermöglicht. Im Jahr 2018 hatte ich zu diesem Thema bereits zwei vielversprechende Abschlussarbeiten vergeben, deren Ergebnisse wir jetzt nutzen und in ein Produktivsystem überführen.

36C3 Talk: Aufbau eines Sensornetzes für die Messung von Stickstoffdioxid

Beim diesjährigen Chaos Communication Congress (36C3) wird Patrick Römer den Aufbau eines Sensornetzes für die Messung von Stickstoffdioxid vorstellen. Im Rahmen seiner durch mich betreuten Bachelorarbeit hat Patrick eine Open Source Messstation konzipiert, gebaut und getestet sowie einen Webservice für ein Sensornetzwerk entwickelt. Als studierter Chemietechniker ist er bei einer offiziellen Messstelle für Luftschadstoffe für die Wartung und Prüfung der Messtechnik verantwortlich. Ich freue mich auf seinen Talk in Leipzig!

Aufbau eines Sensornetzes für die Messung von
Stickstoffdioxid

Spätestens seit dem Abgasskandal (Dieselgate) und den daraus resultierenden Fahrverboten für
Dieselfahrzeuge ist eine öffentliche Debatte um Stickoxide (insbesondere Stickstoffdioxid (NO 2 )) als Luftschadstoff entstanden. Die Stickstoffdioxidbelastung in Städten und Gemeinden verunsichert viele Bürgerinnen und Bürger, denn einerseits ist der Schadstoff nicht wahrnehmbar und andererseits kann Stickstoffdioxid eine erhebliche Gefahr für die Gesundheit darstellen. In Deutschland existieren derzeit nur ca. 350 offizielle Messstationen für Stickstoffdioxid, so dass ortsspezifische oder sogar flächendeckende Angaben zur Luftschadstoffbelastung nicht möglich sind. Ein flächendeckendes Messnetz ist laut Gesetz auch nicht vorgesehen. Folglich können politische oder gerichtlich durchgesetzte Maßnahmen zur Verbesserung der Luftqualität auch nur dort stattfinden, wo Messwerte existieren. Da es gegenwärtig keine Bestrebungen gibt das öffentliche Netz an Messstationen auszuweiten, möchten wir mit diesem Vortrag einen Vorstoß unternehmen, die technischen Grundlagen zur Errichtung eines bürgerschaftlichen Messnetzes zu eruieren und für diesen Zweck konkrete Bauanleitungen und Informationsdienste vorstellen. Im Gegensatz zu den mehrere tausend Euro teuren und eignungsgeprüften Messstationen zeigen wir eine hinreichend akkurate und preisgünstige (<50 Euro) Alternative auf.

In dem Vortrag erklären wir euch zunächst wie Stickstoffdioxid durch offizielle Stellen gemessen wird und wie die Grenzwerte definiert sind. Anhand des Status Quo der Datenerhebung erläutern wir bestehende Defizite und Potentiale für eine genauere und flächendeckendere Messung von Luftschadstoffen wie Stickstoffdioxid.

Im zweiten Teil des Vortrags beschreiben wir den Aufbau einer preisgünstigen Open Source
Messstation für Stickstoffdioxid. Dabei werden Kriterien für die Auswahl von Komponenten und die Durchführung einer Vergleichsuntersuchung mit einem eignungsgeprüften Messgerät vorgestellt. Außerdem werden Kalibrierungsmethoden und die Behandlung von störenden Einflüssen durch Luftfeuchtigkeit und Temperaturschwankungen thematisiert.
Im dritten Teil des Vortrags wird eine Web-Anwendung vorgestellt, die Daten aus einem Messnetz der NO 2 -Messstationen sammelt, auf Karten visualisiert und somit dem Citizen Science Ansatz Rechnung trägt. Dabei diskutieren wir auch Vor- und Nachteile unterschiedlicher kartenbasierten Darstellungsformen von Luftschadstoffmesswerten.

Vortrag bei der DeLFI 2019: Semantic Textual Similarity textueller Lernmaterialien

In der von Agathe Merceron geleiteten Session zum Thema Textanalyse präsentieren Moritz Rieger und ich bei der diesjährigen DeLFI einen Langbeitrag über die Ermittlung der semantischen Ähnlichkeit von textuellen Lernmaterialien. Wir haben dazu einen Korpus aus 572 Studienbriefen bzw. 94 Kursen der Fakultät Mathematik und Informatik an der FernUniversität in Hagen erstellt und mit Hilfe von Document Embeddings die semantische Ähnlichkeit zweier Dokumente anhand der Kosinusähnlichkeit bestimmt. Das Verfahren haben wir mit Hilfe eines Goldstandards weiteren Tests evaluiert. In naher Zukunft werden wir Anwendungen wie Empfehlungssysteme für die Auswahl und Exploration Kursen vorstellen, welche die semantische Ähnlichkeit der Studienbriefe berücksichtigen.

Die sich an den Vortrag anschließende Diskussion brachte Read More

Scientists for Future – Open Topic Call

Neulich auf einer Demo der Fridays for Future Aktivistinnen in Bonn schallte mir die Kritik entgegen, Wissenschaftlerinnen würden nur Bücher und Paper schreiben, anstatt für das Klima zu kämpfen. Das stimmt auch und dennoch kann sich jede Wissenschaftlerin fragen, welchen Beitrag ihre Disziplin in Forschung und Lehre leisten kann. In der Informatik gibt es mit Franz-Josef Radermacher seit langem einen kritischen Denker zum Klimawandel, Technologie und öko-soziale Marktwirtschaft. Auch in den LIMITS-Workshops wird die Rolle der eigenen Disziplin seit nunmehr vier Jahren hinterfragt. Meine Antwort auf die Kritik der Demonstranten in Bonn ist nun ein Open Topic Call für Abschlussarbeitsthemen, die sich mit den Herausforderungen der Klimakrise und ihren Folgen aus informatischer Sicht beschäftigen:

Im Pariser Klimaschutzabkommen von 2015 haben sich 195 Staaten völker­rechtlich verbindlich dazu verpflichtet, die globale Erwärmung deutlich unter 2 °C zu halten. Die Klimakrise stellt uns alle vor große Herausforderungen, die eine weltweite und Zusammenarbeit für den Klima-, Arten-, Wald-, Meeres- und Bodenschutz erfordert. Die Informatik als Disziplin ist dabei Teil des Problems und Lösung zugleich. Während wir beispielsweise für die Produktion von Rechentechnik enorme Ressourcen verbrauchen und Rechenzentren einen hohen (fossilen) Energieverbrauch aufweisen, lassen sich die Schäden und Konsequenzen der Klimakrise überhaupt erst durch informatische Methoden ermitteln, prognostizieren und kommunizieren.

Mit dieser Ausschreibung sind Studierende aufgerufen, sich in ihrer Abschlussarbeit mit der Klimakrise und ihren Folgen aus Sicht der Informatik auseinanderzusetzen und dabei Methoden ihres Faches interdisziplinär anzuwenden, zu entwickeln und zu untersuchen. Wir unterstützen dabei Kooperationen mit Forschungseinrichtungen, Unternehmen sowie staatlichen und nicht-staatlichen Organisationen und vermitteln Kontakte zu Forschenden beim Intergovernmental Panel on Climate Change, dem InternationaCentre for Water Resources and Global Change (UNESCO) und der LIMITS Community.

Ich hoffe damit nicht nur Studierende ansprechen zu können, sondern Nachahmer unter anderen Wissenschaftlerinnen zu finden.

Unterstützung beim Schreiben

Auf der Konferenz digitale_kultur hatte ich am Montag das Vergnügen einen Vortrag von Kathrin Passig über die Zukunft und Gegenwart des Schreibens zu hören. Eine ihrer Thesen war es, das wir inhaltliche Unterstützung beim Schreiben bekommen, aber vielleicht nicht unbedingt ersehnen werden.

Textverarbeitung und Editoren unterstützen uns dabei, Rechtschreib- und Interpunktionsfehler zu vermeiden. Auch grammatikalische Fehler und Synonyme identifizieren Tools wie Gramerly oder Aspell. Metriken zur Berechnung der Lesbarkeit für das Formulieren »leichter« oder »einfacher« Sprache warten auf ihren Einsatz im Texteditor. Übersetzungen erledigt DeepL oder Google Translate. Für Drehbuch- und Romanautoren gibt es Schreibwerkzeuge wie Scrivener, die es erlauben inhaltliche Beziehungen von Orten und Personen zu visualisieren und einen kreativen Umgang mit Notizen und Annotation zu finden. Mit Scrivener hatte ich vor etwa 10 Jahren schon begonnen meine Diplomarbeit zu schreiben, um nach der Hälfte der Zeit die Ergebnisse in LaTeX weiterzuentwickeln. In einigen medizinischen Dokumentationswerkzeugen finden sich hingegen Tools, welche die Eingabe und von Diagnosen durch Angebote von Textbausteinen vereinfachen. An einer schweizer Fachhochschule hatte man mir vor einiger Zeit auch den Thesis Writer als ein Werkzeug nahegelegt, um die Schreibprozess von Abschlussarbeiten durch festgelegte inhaltliche Einheiten und Textbausteine zu normieren.

In der Informatik kennen wir Unterstützungsfunktionen schon sehr lange aus den Entwicklungsumgebungen und Code-Editoren, die auf Kommando Eingabeoptionen für Methodenaufrufe, initialisierte Variablen und Rümpfe für Datenstrukturen anbieten und auf Wunsch einfügen.

Eine relative neue Variante der Textproduktion stellen für mich Werkzeuge wie Python Notebook und R Markdown dar. Sie ermöglichen es, anders wie LaTeX, Programmcode für Berechnungen und Datengrafiken direkt in den Textfluss einzufügen und per Knopfdruck zu rendern. Man könnte auch sagen, dass sie das Prinzip der Code-Kommentare umkehren. In einem Notebook programmiert man etwas zum Geschriebenen dazu, während man im Code etwas zum Programmierten in natürlicher Sprache schreibt.

Den aufgezählten Beispielen ist gemein, die kognitiven Fähigkeiten des Menschen zu unterstützen. Dort, wo uns die Aufmerksamkeit, Ordnung oder Kreativität fehlt, erhalten wir korrekte Hilfestellungen und Hinweise. Routineeingaben werden durch Empfehlungen ersetzt. Das was, der Mensch nicht zeichnen oder berechnen kann, wird durch Code vom Computer umgesetzt. Friedrich Hesse hat dafür den Begriff der Cognitive Interfaces geprägt. Es handelt sich dabei um eine Schnittstelle zwischen dem Menschen als Anwender und dem Computer als Mediator von Anwendungen und Diensten im WWW. Rechenkapazität, Speicher, Sensorik und Ausgabe eines Rechners werden dazu eingesetzt, die begrenzten kognitiven Kapazitäten des Anwenders auf individuelle Weise zu erweitern. Diese Systeme unterstützen die menschliche Kognition zum einen durch die Selegierung relevanter Informationen, die in geeigneter Weise dargestellt werden. Zum anderen übernehmen mobile Systeme als virtuelle Kollaborateure kognitive Aufgaben, die dem Anwender zu viel Zeit oder Anstrengungen kosten oder ihn von den aktuell wichtigen Aufgaben abhalten.

Hochschuldidaktik Zertifikate

Nachdem ich über fünf Jahre selbst mediendidaktische Weiterbildungen in Sachsen entwickelt und durchgeführt hatte, hielt ich nicht viel davon selbst an den Programmen zur hochschuldidaktischen Qualifizierung teilzunehmen. Die Kenntnis über die internen Strukturen, Prozesse und Auswahl Dozentinnen lassen gewissen Zweifel über die Sinnhaftigkeit und den tatsächlichen Nutzen bestimmter Weiterbildungsangeboten aufkommen.

Die Perspektive eines Außenstehenden konnte ich nun an der FernUniversität in Hagen als Teilnehmer am Qualifizierungsprogramms »Professionelle Lehrkompetenz für die Hochschule« erlangen. Ich wollte meine eigene Lehrtätigkeit reflektieren und dabei natürlich die Qualität verbessern. Insbesondere die veränderten Bedingungen der Fernlehre haben mich dazu bewogen, neues auf dem Gebiet lernen zu wollen. Das Zertifikat galt zudem als formaler Nachweis für die pädagogische Eignung in der Erwachsenenbildung an Hochschulen, welche in manchen Berufungsverfahren gefordert ist.

In einem Zeitraum von sieben Jahren hatte ich insgesamt an neun Weiterbildungen teilgenommen und in Summe 200 Stunden bzw. Arbeitseinheiten absolviert. Der lange Zeitraum hat sich daraus ergeben, dass ich mir einige Kurse aus dem am IHI Zittau absolvierten Doktorandenstudium anrechnen lassen konnte.

Als Fazit möchte ich festhalten, dass die Veranstaltungen wesentlich dazu beitragen, dass Lehrende und damit auch Forschende an einer Hochschule miteinander ins Gespräch kommen. Dabei ist es ganz gleich wie gut oder schlecht die Weiterbildung personell oder inhaltlich aufgestellt ist, um sich anhand eines gesetzten Themenimpulses auszutauschen. Das Angebot von informellen Gelegenheiten zur Reflexion und Diskussion von Lehrpraxis halte ich deshalb für sehr bedeutsam. Für die Weiterbildung von Wissenschaftlern wäre es jedoch wünschenswert, wenn sich die formalen Qualifizierungsmaßnahmen an wissenschaftlichen Maßstäben orientieren würden. Es ist schlicht nicht hinnehmbar, wenn Weiterbildende lediglich ihr persönliches Erfahrungswissen weitergeben und es nicht für nötig erachten einschlägige und aktuelle Quellen der wissenschaftlichen Literatur in die Veranstaltung und in die Lernmaterialien einfließen zu lassen. Eine Verzahnung von Forschung und Lehre wäre im Rahmen dieser Qualifizierungen darüber hinaus ein erstrebenswertes Ziel, um die Wirkung des hochschuldidaktischen Handelns anhand von Evidenzen untersuchen und verstehen zu können. Wenngleich das Wort Zertifikat auf das lateinische certus (sicher, bestimmt) und facere (machen) zurückgeht, fehlt es den hochschuldidaktischen Zertifizierungen manchmal noch an Spezifik und gesicherten Grundlagen, wie gute Lehre gelingen kann. 

»Video Analytics in MOOCs« beim openHPI-forum

Irgendwo zwischen Griebnitzsee und Kiefernwald war ich heute zum openHPI-Forum (siehe Vortragsaufzeichnungen) auf dem Campus des Hasso-Plattner-Instituts in Potsdam eingeladen, um über Möglichkeiten der Erhebung, Auswertung und Visualisierung von Videodaten zu referieren. Viel Unterstützung kam dabei Jan Renz und Tobias Rohloff, die die Plattform openHPI, openSAP und openWMO betreuen und das Thema Video Analytics künftig verstärkt angehen möchten.

Im Folgenden möchte ich nicht nur die versprochenen Folien bereitstellen, sondern auch die vielfältigen Ideen für Datenvisualisierungen teilen, welche die Teilnehmenden im Workshop erarbeitet haben. Read More