Studienfahrt nach Theresienstadt

Im Rahmen des Projektes Theresienstadt explained haben wir zusammen mit Forschenden und Studierenden mit einer Reihe von spannenden Anwendungen entwickelt, die nun im Feld evaluiert werden sollen. Eine weiter Gelegenheit dazu bietet uns dazu die Studienfahrt nach Theresienstadt. Zusammen mit Armin Pietsch werden wir den Theresienstadter NS-Propagandafilm vorstellen und mit den Teilnehmenden analysieren.

Termin: 13. bis 15. März, Terezin, CZ

Organisiert wird die Studienfahrt von Beatrice Pätzold (Brücke|Most-Stiftung) und Stefanie Stange (Ev. Luth. Landesjugendpfarramt Sachsen) in Kooperation mit dem Freundeskreis Theresienstadt e.V.

Weitere Information finden sich auch dem Veranstaltungsflyer.

Vortragsankündigung: Verarbeitung kontinuierlicher und periodischer Datenströme in adaptiven Lernumgebungen, CampusSource 2020, TU Dortmund

CampusSource e.V. ist ein Zusammenschluss von Hochschulen in NRW, der die Entwicklung und den Einsatz von Open Source Produkten im Bildungsbereich zum Ziel hat. Die beteiligten Hochschulen arbeiten gemeinsam an Anwendungen und stellen Quellcode sowie ihre Erfahrungen der Allgemeinheit zur freien Verfügung.

Einmal jährlich treffen sich die an der Initiative beteiligten Menschen zu einer Tagung. In diesem Jahr findet die CampusSource Tagung an der TU Dortmund statt. Ich werde dort etwas über unsere Projekte APLE und auch LA-Diva berichten:

Verarbeitung kontinuierlicher und periodischer Datenströme in adaptiven Lernumgebungen
– Niels Seidel, FernUniversität in Hagen –

In einer Lernplattform wie Moodle lässt sich das Verhalten der Lernenden in Form von detaillierten Logdaten erfassen. Adaptive Lernumgebung können anhand dieser kontinuierlichen Datenströme und den daraus berechneten Kennzahlen, Clustern und erkannten Mustern regelbasierte Entscheidungen treffen, um die Lernenden durch Empfehlungen und Interventionen in ihrem individuellen Lernprozess zu unterstützen. Neben den Logdaten können auch weniger veränderliche und periodisch anfallende Daten wie etwa Prüfungsleistungen oder Kursbelegungen in den Adaptionsregeln Berücksichtigung finden.

Die Herausforderung besteht jedoch darin, die kontinuierlichen und periodischen Datenströme auch für große Studierendenkohorten mit geringer Latenz zu verarbeiten und dabei auch umfangreichere Berechnungen durchzuführen. In dem Vortrag stellen wir unseren Lösungsansatz vor und berichten von unseren Erfahrungen im Projekt Adaptive Personalized Learning Environment (APLE) an der FernUniversität in Hagen.

Neue Fotos vom KZ-Außenlager Görlitz und einigen Überlebenden

Auf einen älteren Beitrag hier im Blog erreichte mich im Juni 2017 ein Kommentar und vor wenigen Tagen dann ein Anruf von einem Nachfahren eines Überlebenden des KZ-Außenlagers Görlitz. Von persönlichen Andenken, die über die Zeit in den KZs hinweg gerettet wurden, und von Fotos, die nach der Befreiung entstanden sind, war die Rede. Heute nun erreicht mich ein dicker Brief mit Leihgaben von Bilder, Schreiben und beeindruckenden Erinnerungsstücken.

Die Herkunft einiger Bilder bzw. der Ort der Aufnahme muss in einigen Fällen noch ermittelt werden. Zwei Bilder wurden im KZ Dachau aufgenommen (siehe [1]). Die Namen der abgebildeten Personen bzw. Überlebenden ist teilweise auch nicht bekannt.

Ich bin sehr dankbar für diese außergewöhnliche Leihgabe.

Text to Speech in der Fernlehre

Das Lernen im Kurs ist vielfach mit der Verarbeitung visueller Informationen verbunden. Viele Tätigkeiten beanspruchen den visuellen Informationskanal zumindest so sehr, dass nebenher keine Texte gelesen werden können. Auditive Lernangebote finden sich dem gegenüber bislang nur selten im Fernstudium. Audio stellt jedoch eine alternative Repräsentation der Lernmaterialien dar und eröffnet neue Lernsituation, wenn man beispielsweise beim Joggen, bei der Hausarbeit oder in der Badewanne die aktuelle Kurseinheit anhören kann. Die Popularität von Podcasts unterstreicht das Potential von Audiobeiträgen für das Lernen.

Für die Produktion und Aktualisierung von professionellen Podcasts fehlt im Lehrbetrieb jedoch die Zeit. Weitaus weniger zeitaufwendig sind Text-to-Speech-Systeme. Aus einem mit Phonemen angereicherten Kurstext im SSML-Format entsteht innerhalb von wenigen Minuten eine passable Vertonungen.

Im Folgenden stelle ich eine erste Kostprobe einer vertonten Kurseinheit zur Verfügung. Auf Grundlage dieser Audioquellen arbeiten wir gerade an einer Hyperaudio-Lernumgebung, die Abbildungen, Tabellen und Formeln als Bilddateien durch akustische Signale ankündigt und die gruppenbezogene Diskussion der Lerninhalten ermöglicht. Im Jahr 2018 hatte ich zu diesem Thema bereits zwei vielversprechende Abschlussarbeiten vergeben, deren Ergebnisse wir jetzt nutzen und in ein Produktivsystem überführen.

36C3 Talk: Aufbau eines Sensornetzes für die Messung von Stickstoffdioxid

Beim diesjährigen Chaos Communication Congress (36C3) wird Patrick Römer den Aufbau eines Sensornetzes für die Messung von Stickstoffdioxid vorstellen. Im Rahmen seiner durch mich betreuten Bachelorarbeit hat Patrick eine Open Source Messstation konzipiert, gebaut und getestet sowie einen Webservice für ein Sensornetzwerk entwickelt. Als studierter Chemietechniker ist er bei einer offiziellen Messstelle für Luftschadstoffe für die Wartung und Prüfung der Messtechnik verantwortlich. Ich freue mich auf seinen Talk in Leipzig!

Aufbau eines Sensornetzes für die Messung von
Stickstoffdioxid

Spätestens seit dem Abgasskandal (Dieselgate) und den daraus resultierenden Fahrverboten für
Dieselfahrzeuge ist eine öffentliche Debatte um Stickoxide (insbesondere Stickstoffdioxid (NO 2 )) als Luftschadstoff entstanden. Die Stickstoffdioxidbelastung in Städten und Gemeinden verunsichert viele Bürgerinnen und Bürger, denn einerseits ist der Schadstoff nicht wahrnehmbar und andererseits kann Stickstoffdioxid eine erhebliche Gefahr für die Gesundheit darstellen. In Deutschland existieren derzeit nur ca. 350 offizielle Messstationen für Stickstoffdioxid, so dass ortsspezifische oder sogar flächendeckende Angaben zur Luftschadstoffbelastung nicht möglich sind. Ein flächendeckendes Messnetz ist laut Gesetz auch nicht vorgesehen. Folglich können politische oder gerichtlich durchgesetzte Maßnahmen zur Verbesserung der Luftqualität auch nur dort stattfinden, wo Messwerte existieren. Da es gegenwärtig keine Bestrebungen gibt das öffentliche Netz an Messstationen auszuweiten, möchten wir mit diesem Vortrag einen Vorstoß unternehmen, die technischen Grundlagen zur Errichtung eines bürgerschaftlichen Messnetzes zu eruieren und für diesen Zweck konkrete Bauanleitungen und Informationsdienste vorstellen. Im Gegensatz zu den mehrere tausend Euro teuren und eignungsgeprüften Messstationen zeigen wir eine hinreichend akkurate und preisgünstige (<50 Euro) Alternative auf.

In dem Vortrag erklären wir euch zunächst wie Stickstoffdioxid durch offizielle Stellen gemessen wird und wie die Grenzwerte definiert sind. Anhand des Status Quo der Datenerhebung erläutern wir bestehende Defizite und Potentiale für eine genauere und flächendeckendere Messung von Luftschadstoffen wie Stickstoffdioxid.

Im zweiten Teil des Vortrags beschreiben wir den Aufbau einer preisgünstigen Open Source
Messstation für Stickstoffdioxid. Dabei werden Kriterien für die Auswahl von Komponenten und die Durchführung einer Vergleichsuntersuchung mit einem eignungsgeprüften Messgerät vorgestellt. Außerdem werden Kalibrierungsmethoden und die Behandlung von störenden Einflüssen durch Luftfeuchtigkeit und Temperaturschwankungen thematisiert.
Im dritten Teil des Vortrags wird eine Web-Anwendung vorgestellt, die Daten aus einem Messnetz der NO 2 -Messstationen sammelt, auf Karten visualisiert und somit dem Citizen Science Ansatz Rechnung trägt. Dabei diskutieren wir auch Vor- und Nachteile unterschiedlicher kartenbasierten Darstellungsformen von Luftschadstoffmesswerten.

Vortrag bei der DeLFI 2019: Semantic Textual Similarity textueller Lernmaterialien

In der von Agathe Merceron geleiteten Session zum Thema Textanalyse präsentieren Moritz Rieger und ich bei der diesjährigen DeLFI einen Langbeitrag über die Ermittlung der semantischen Ähnlichkeit von textuellen Lernmaterialien. Wir haben dazu einen Korpus aus 572 Studienbriefen bzw. 94 Kursen der Fakultät Mathematik und Informatik an der FernUniversität in Hagen erstellt und mit Hilfe von Document Embeddings die semantische Ähnlichkeit zweier Dokumente anhand der Kosinusähnlichkeit bestimmt. Das Verfahren haben wir mit Hilfe eines Goldstandards weiteren Tests evaluiert. In naher Zukunft werden wir Anwendungen wie Empfehlungssysteme für die Auswahl und Exploration Kursen vorstellen, welche die semantische Ähnlichkeit der Studienbriefe berücksichtigen.

Die sich an den Vortrag anschließende Diskussion brachte (more…)