36C3 Talk: Aufbau eines Sensornetzes für die Messung von Stickstoffdioxid

Beim diesjährigen Chaos Communication Congress (36C3) wird Patrick Römer den Aufbau eines Sensornetzes für die Messung von Stickstoffdioxid vorstellen. Im Rahmen seiner durch mich betreuten Bachelorarbeit hat Patrick eine Open Source Messstation konzipiert, gebaut und getestet sowie einen Webservice für ein Sensornetzwerk entwickelt. Als studierter Chemietechniker ist er bei einer offiziellen Messstelle für Luftschadstoffe für die Wartung und Prüfung der Messtechnik verantwortlich. Ich freue mich auf seinen Talk in Leipzig!

Aufbau eines Sensornetzes für die Messung von
Stickstoffdioxid

Spätestens seit dem Abgasskandal (Dieselgate) und den daraus resultierenden Fahrverboten für
Dieselfahrzeuge ist eine öffentliche Debatte um Stickoxide (insbesondere Stickstoffdioxid (NO 2 )) als Luftschadstoff entstanden. Die Stickstoffdioxidbelastung in Städten und Gemeinden verunsichert viele Bürgerinnen und Bürger, denn einerseits ist der Schadstoff nicht wahrnehmbar und andererseits kann Stickstoffdioxid eine erhebliche Gefahr für die Gesundheit darstellen. In Deutschland existieren derzeit nur ca. 350 offizielle Messstationen für Stickstoffdioxid, so dass ortsspezifische oder sogar flächendeckende Angaben zur Luftschadstoffbelastung nicht möglich sind. Ein flächendeckendes Messnetz ist laut Gesetz auch nicht vorgesehen. Folglich können politische oder gerichtlich durchgesetzte Maßnahmen zur Verbesserung der Luftqualität auch nur dort stattfinden, wo Messwerte existieren. Da es gegenwärtig keine Bestrebungen gibt das öffentliche Netz an Messstationen auszuweiten, möchten wir mit diesem Vortrag einen Vorstoß unternehmen, die technischen Grundlagen zur Errichtung eines bürgerschaftlichen Messnetzes zu eruieren und für diesen Zweck konkrete Bauanleitungen und Informationsdienste vorstellen. Im Gegensatz zu den mehrere tausend Euro teuren und eignungsgeprüften Messstationen zeigen wir eine hinreichend akkurate und preisgünstige (<50 Euro) Alternative auf.

In dem Vortrag erklären wir euch zunächst wie Stickstoffdioxid durch offizielle Stellen gemessen wird und wie die Grenzwerte definiert sind. Anhand des Status Quo der Datenerhebung erläutern wir bestehende Defizite und Potentiale für eine genauere und flächendeckendere Messung von Luftschadstoffen wie Stickstoffdioxid.

Im zweiten Teil des Vortrags beschreiben wir den Aufbau einer preisgünstigen Open Source
Messstation für Stickstoffdioxid. Dabei werden Kriterien für die Auswahl von Komponenten und die Durchführung einer Vergleichsuntersuchung mit einem eignungsgeprüften Messgerät vorgestellt. Außerdem werden Kalibrierungsmethoden und die Behandlung von störenden Einflüssen durch Luftfeuchtigkeit und Temperaturschwankungen thematisiert.
Im dritten Teil des Vortrags wird eine Web-Anwendung vorgestellt, die Daten aus einem Messnetz der NO 2 -Messstationen sammelt, auf Karten visualisiert und somit dem Citizen Science Ansatz Rechnung trägt. Dabei diskutieren wir auch Vor- und Nachteile unterschiedlicher kartenbasierten Darstellungsformen von Luftschadstoffmesswerten.

Vortrag bei der DeLFI 2019: Semantic Textual Similarity textueller Lernmaterialien

In der von Agathe Merceron geleiteten Session zum Thema Textanalyse präsentieren Moritz Rieger und ich bei der diesjährigen DeLFI einen Langbeitrag über die Ermittlung der semantischen Ähnlichkeit von textuellen Lernmaterialien. Wir haben dazu einen Korpus aus 572 Studienbriefen bzw. 94 Kursen der Fakultät Mathematik und Informatik an der FernUniversität in Hagen erstellt und mit Hilfe von Document Embeddings die semantische Ähnlichkeit zweier Dokumente anhand der Kosinusähnlichkeit bestimmt. Das Verfahren haben wir mit Hilfe eines Goldstandards weiteren Tests evaluiert. In naher Zukunft werden wir Anwendungen wie Empfehlungssysteme für die Auswahl und Exploration Kursen vorstellen, welche die semantische Ähnlichkeit der Studienbriefe berücksichtigen.

Die sich an den Vortrag anschließende Diskussion brachte Read More

Unterstützung beim Schreiben

Auf der Konferenz digitale_kultur hatte ich am Montag das Vergnügen einen Vortrag von Kathrin Passig über die Zukunft und Gegenwart des Schreibens zu hören. Eine ihrer Thesen war es, das wir inhaltliche Unterstützung beim Schreiben bekommen, aber vielleicht nicht unbedingt ersehnen werden.

Textverarbeitung und Editoren unterstützen uns dabei, Rechtschreib- und Interpunktionsfehler zu vermeiden. Auch grammatikalische Fehler und Synonyme identifizieren Tools wie Gramerly oder Aspell. Metriken zur Berechnung der Lesbarkeit für das Formulieren »leichter« oder »einfacher« Sprache warten auf ihren Einsatz im Texteditor. Übersetzungen erledigt DeepL oder Google Translate. Für Drehbuch- und Romanautoren gibt es Schreibwerkzeuge wie Scrivener, die es erlauben inhaltliche Beziehungen von Orten und Personen zu visualisieren und einen kreativen Umgang mit Notizen und Annotation zu finden. Mit Scrivener hatte ich vor etwa 10 Jahren schon begonnen meine Diplomarbeit zu schreiben, um nach der Hälfte der Zeit die Ergebnisse in LaTeX weiterzuentwickeln. In einigen medizinischen Dokumentationswerkzeugen finden sich hingegen Tools, welche die Eingabe und von Diagnosen durch Angebote von Textbausteinen vereinfachen. An einer schweizer Fachhochschule hatte man mir vor einiger Zeit auch den Thesis Writer als ein Werkzeug nahegelegt, um die Schreibprozess von Abschlussarbeiten durch festgelegte inhaltliche Einheiten und Textbausteine zu normieren.

In der Informatik kennen wir Unterstützungsfunktionen schon sehr lange aus den Entwicklungsumgebungen und Code-Editoren, die auf Kommando Eingabeoptionen für Methodenaufrufe, initialisierte Variablen und Rümpfe für Datenstrukturen anbieten und auf Wunsch einfügen.

Eine relative neue Variante der Textproduktion stellen für mich Werkzeuge wie Python Notebook und R Markdown dar. Sie ermöglichen es, anders wie LaTeX, Programmcode für Berechnungen und Datengrafiken direkt in den Textfluss einzufügen und per Knopfdruck zu rendern. Man könnte auch sagen, dass sie das Prinzip der Code-Kommentare umkehren. In einem Notebook programmiert man etwas zum Geschriebenen dazu, während man im Code etwas zum Programmierten in natürlicher Sprache schreibt.

Den aufgezählten Beispielen ist gemein, die kognitiven Fähigkeiten des Menschen zu unterstützen. Dort, wo uns die Aufmerksamkeit, Ordnung oder Kreativität fehlt, erhalten wir korrekte Hilfestellungen und Hinweise. Routineeingaben werden durch Empfehlungen ersetzt. Das was, der Mensch nicht zeichnen oder berechnen kann, wird durch Code vom Computer umgesetzt. Friedrich Hesse hat dafür den Begriff der Cognitive Interfaces geprägt. Es handelt sich dabei um eine Schnittstelle zwischen dem Menschen als Anwender und dem Computer als Mediator von Anwendungen und Diensten im WWW. Rechenkapazität, Speicher, Sensorik und Ausgabe eines Rechners werden dazu eingesetzt, die begrenzten kognitiven Kapazitäten des Anwenders auf individuelle Weise zu erweitern. Diese Systeme unterstützen die menschliche Kognition zum einen durch die Selegierung relevanter Informationen, die in geeigneter Weise dargestellt werden. Zum anderen übernehmen mobile Systeme als virtuelle Kollaborateure kognitive Aufgaben, die dem Anwender zu viel Zeit oder Anstrengungen kosten oder ihn von den aktuell wichtigen Aufgaben abhalten.

»Video Analytics in MOOCs« beim openHPI-forum

Irgendwo zwischen Griebnitzsee und Kiefernwald war ich heute zum openHPI-Forum (siehe Vortragsaufzeichnungen) auf dem Campus des Hasso-Plattner-Instituts in Potsdam eingeladen, um über Möglichkeiten der Erhebung, Auswertung und Visualisierung von Videodaten zu referieren. Viel Unterstützung kam dabei Jan Renz und Tobias Rohloff, die die Plattform openHPI, openSAP und openWMO betreuen und das Thema Video Analytics künftig verstärkt angehen möchten.

Im Folgenden möchte ich nicht nur die versprochenen Folien bereitstellen, sondern auch die vielfältigen Ideen für Datenvisualisierungen teilen, welche die Teilnehmenden im Workshop erarbeitet haben. Read More

GMW’18 Workshop: Analyse und Visualisierung videobasierter Lernaktivitäten

Am Mittwoch, dem 12. September 2018, hatte ich das Vergnügen während der Jahrestagung der Gesellschaft für Medien in den Wissenschaften einen Methodenworkshop zum Thema »Analyse und Visualisierung videobasierter Lernaktivitäten« anzubieten. Die Veranstaltung war mit über 20 Teilnehmenden sehr gut besucht.

Die Folien des Vortrags stelle ich hiermit zur freien Verfügung (CC-BY) und Download bereit: Slides (12,6 MB)
Read More

Wir haben die Google Impact Challenge gewonnen!

Heute morgen um 9 Uhr haben wir erfahren, dass wir unter den Gewinnern der diesjährigen Google Impact Challenge sind! Wir freuen uns über den Erfolg und bedanken uns recht herzlich bei all jenen, die für unsere Projekt gestimmt haben!

Für uns ist das heute ein Grund zu feiern. Nächste Woche legen wir dann los und koordinieren die beteiligten Experten, Wissenschaftler, Designer und Entwickler. Updates erfahrt ihr auf diesem Kanal.