Scientists for Future – Open Topic Call

Neulich auf einer Demo der Fridays for Future Aktivistinnen in Bonn schallte mir die Kritik entgegen, Wissenschaftlerinnen würden nur Bücher und Paper schreiben, anstatt für das Klima zu kämpfen. Das stimmt auch und dennoch kann sich jede Wissenschaftlerin fragen, welchen Beitrag ihre Disziplin in Forschung und Lehre leisten kann. In der Informatik gibt es mit Franz-Josef Radermacher seit langem einen kritischen Denker zum Klimawandel, Technologie und öko-soziale Marktwirtschaft. Auch in den LIMITS-Workshops wird die Rolle der eigenen Disziplin seit nunmehr vier Jahren hinterfragt. Meine Antwort auf die Kritik der Demonstranten in Bonn ist nun ein Open Topic Call für Abschlussarbeitsthemen, die sich mit den Herausforderungen der Klimakrise und ihren Folgen aus informatischer Sicht beschäftigen:

Im Pariser Klimaschutzabkommen von 2015 haben sich 195 Staaten völker­rechtlich verbindlich dazu verpflichtet, die globale Erwärmung deutlich unter 2 °C zu halten. Die Klimakrise stellt uns alle vor große Herausforderungen, die eine weltweite und Zusammenarbeit für den Klima-, Arten-, Wald-, Meeres- und Bodenschutz erfordert. Die Informatik als Disziplin ist dabei Teil des Problems und Lösung zugleich. Während wir beispielsweise für die Produktion von Rechentechnik enorme Ressourcen verbrauchen und Rechenzentren einen hohen (fossilen) Energieverbrauch aufweisen, lassen sich die Schäden und Konsequenzen der Klimakrise überhaupt erst durch informatische Methoden ermitteln, prognostizieren und kommunizieren.

Mit dieser Ausschreibung sind Studierende aufgerufen, sich in ihrer Abschlussarbeit mit der Klimakrise und ihren Folgen aus Sicht der Informatik auseinanderzusetzen und dabei Methoden ihres Faches interdisziplinär anzuwenden, zu entwickeln und zu untersuchen. Wir unterstützen dabei Kooperationen mit Forschungseinrichtungen, Unternehmen sowie staatlichen und nicht-staatlichen Organisationen und vermitteln Kontakte zu Forschenden beim Intergovernmental Panel on Climate Change, dem InternationaCentre for Water Resources and Global Change (UNESCO) und der LIMITS Community.

Ich hoffe damit nicht nur Studierende ansprechen zu können, sondern Nachahmer unter anderen Wissenschaftlerinnen zu finden.

Unterstützung beim Schreiben

Auf der Konferenz digitale_kultur hatte ich am Montag das Vergnügen einen Vortrag von Kathrin Passig über die Zukunft und Gegenwart des Schreibens zu hören. Eine ihrer Thesen war es, das wir inhaltliche Unterstützung beim Schreiben bekommen, aber vielleicht nicht unbedingt ersehnen werden.

Textverarbeitung und Editoren unterstützen uns dabei, Rechtschreib- und Interpunktionsfehler zu vermeiden. Auch grammatikalische Fehler und Synonyme identifizieren Tools wie Gramerly oder Aspell. Metriken zur Berechnung der Lesbarkeit für das Formulieren »leichter« oder »einfacher« Sprache warten auf ihren Einsatz im Texteditor. Übersetzungen erledigt DeepL oder Google Translate. Für Drehbuch- und Romanautoren gibt es Schreibwerkzeuge wie Scrivener, die es erlauben inhaltliche Beziehungen von Orten und Personen zu visualisieren und einen kreativen Umgang mit Notizen und Annotation zu finden. Mit Scrivener hatte ich vor etwa 10 Jahren schon begonnen meine Diplomarbeit zu schreiben, um nach der Hälfte der Zeit die Ergebnisse in LaTeX weiterzuentwickeln. In einigen medizinischen Dokumentationswerkzeugen finden sich hingegen Tools, welche die Eingabe und von Diagnosen durch Angebote von Textbausteinen vereinfachen. An einer schweizer Fachhochschule hatte man mir vor einiger Zeit auch den Thesis Writer als ein Werkzeug nahegelegt, um die Schreibprozess von Abschlussarbeiten durch festgelegte inhaltliche Einheiten und Textbausteine zu normieren.

In der Informatik kennen wir Unterstützungsfunktionen schon sehr lange aus den Entwicklungsumgebungen und Code-Editoren, die auf Kommando Eingabeoptionen für Methodenaufrufe, initialisierte Variablen und Rümpfe für Datenstrukturen anbieten und auf Wunsch einfügen.

Eine relative neue Variante der Textproduktion stellen für mich Werkzeuge wie Python Notebook und R Markdown dar. Sie ermöglichen es, anders wie LaTeX, Programmcode für Berechnungen und Datengrafiken direkt in den Textfluss einzufügen und per Knopfdruck zu rendern. Man könnte auch sagen, dass sie das Prinzip der Code-Kommentare umkehren. In einem Notebook programmiert man etwas zum Geschriebenen dazu, während man im Code etwas zum Programmierten in natürlicher Sprache schreibt.

Den aufgezählten Beispielen ist gemein, die kognitiven Fähigkeiten des Menschen zu unterstützen. Dort, wo uns die Aufmerksamkeit, Ordnung oder Kreativität fehlt, erhalten wir korrekte Hilfestellungen und Hinweise. Routineeingaben werden durch Empfehlungen ersetzt. Das was, der Mensch nicht zeichnen oder berechnen kann, wird durch Code vom Computer umgesetzt. Friedrich Hesse hat dafür den Begriff der Cognitive Interfaces geprägt. Es handelt sich dabei um eine Schnittstelle zwischen dem Menschen als Anwender und dem Computer als Mediator von Anwendungen und Diensten im WWW. Rechenkapazität, Speicher, Sensorik und Ausgabe eines Rechners werden dazu eingesetzt, die begrenzten kognitiven Kapazitäten des Anwenders auf individuelle Weise zu erweitern. Diese Systeme unterstützen die menschliche Kognition zum einen durch die Selegierung relevanter Informationen, die in geeigneter Weise dargestellt werden. Zum anderen übernehmen mobile Systeme als virtuelle Kollaborateure kognitive Aufgaben, die dem Anwender zu viel Zeit oder Anstrengungen kosten oder ihn von den aktuell wichtigen Aufgaben abhalten.

Hochschuldidaktik Zertifikate

Nachdem ich über fünf Jahre selbst mediendidaktische Weiterbildungen in Sachsen entwickelt und durchgeführt hatte, hielt ich nicht viel davon selbst an den Programmen zur hochschuldidaktischen Qualifizierung teilzunehmen. Die Kenntnis über die internen Strukturen, Prozesse und Auswahl Dozentinnen lassen gewissen Zweifel über die Sinnhaftigkeit und den tatsächlichen Nutzen bestimmter Weiterbildungsangeboten aufkommen.

Die Perspektive eines Außenstehenden konnte ich nun an der FernUniversität in Hagen als Teilnehmer am Qualifizierungsprogramms »Professionelle Lehrkompetenz für die Hochschule« erlangen. Ich wollte meine eigene Lehrtätigkeit reflektieren und dabei natürlich die Qualität verbessern. Insbesondere die veränderten Bedingungen der Fernlehre haben mich dazu bewogen, neues auf dem Gebiet lernen zu wollen. Das Zertifikat galt zudem als formaler Nachweis für die pädagogische Eignung in der Erwachsenenbildung an Hochschulen, welche in manchen Berufungsverfahren gefordert ist.

In einem Zeitraum von sieben Jahren hatte ich insgesamt an neun Weiterbildungen teilgenommen und in Summe 200 Stunden bzw. Arbeitseinheiten absolviert. Der lange Zeitraum hat sich daraus ergeben, dass ich mir einige Kurse aus dem am IHI Zittau absolvierten Doktorandenstudium anrechnen lassen konnte.

Als Fazit möchte ich festhalten, dass die Veranstaltungen wesentlich dazu beitragen, dass Lehrende und damit auch Forschende an einer Hochschule miteinander ins Gespräch kommen. Dabei ist es ganz gleich wie gut oder schlecht die Weiterbildung personell oder inhaltlich aufgestellt ist, um sich anhand eines gesetzten Themenimpulses auszutauschen. Das Angebot von informellen Gelegenheiten zur Reflexion und Diskussion von Lehrpraxis halte ich deshalb für sehr bedeutsam. Für die Weiterbildung von Wissenschaftlern wäre es jedoch wünschenswert, wenn sich die formalen Qualifizierungsmaßnahmen an wissenschaftlichen Maßstäben orientieren würden. Es ist schlicht nicht hinnehmbar, wenn Weiterbildende lediglich ihr persönliches Erfahrungswissen weitergeben und es nicht für nötig erachten einschlägige und aktuelle Quellen der wissenschaftlichen Literatur in die Veranstaltung und in die Lernmaterialien einfließen zu lassen. Eine Verzahnung von Forschung und Lehre wäre im Rahmen dieser Qualifizierungen darüber hinaus ein erstrebenswertes Ziel, um die Wirkung des hochschuldidaktischen Handelns anhand von Evidenzen untersuchen und verstehen zu können. Wenngleich das Wort Zertifikat auf das lateinische certus (sicher, bestimmt) und facere (machen) zurückgeht, fehlt es den hochschuldidaktischen Zertifizierungen manchmal noch an Spezifik und gesicherten Grundlagen, wie gute Lehre gelingen kann. 

»Video Analytics in MOOCs« beim openHPI-forum

Irgendwo zwischen Griebnitzsee und Kiefernwald war ich heute zum openHPI-Forum (siehe Vortragsaufzeichnungen) auf dem Campus des Hasso-Plattner-Instituts in Potsdam eingeladen, um über Möglichkeiten der Erhebung, Auswertung und Visualisierung von Videodaten zu referieren. Viel Unterstützung kam dabei Jan Renz und Tobias Rohloff, die die Plattform openHPI, openSAP und openWMO betreuen und das Thema Video Analytics künftig verstärkt angehen möchten.

Im Folgenden möchte ich nicht nur die versprochenen Folien bereitstellen, sondern auch die vielfältigen Ideen für Datenvisualisierungen teilen, welche die Teilnehmenden im Workshop erarbeitet haben. (more…)

GMW’18 Workshop: Analyse und Visualisierung videobasierter Lernaktivitäten

Am Mittwoch, dem 12. September 2018, hatte ich das Vergnügen während der Jahrestagung der Gesellschaft für Medien in den Wissenschaften einen Methodenworkshop zum Thema »Analyse und Visualisierung videobasierter Lernaktivitäten« anzubieten. Die Veranstaltung war mit über 20 Teilnehmenden sehr gut besucht.

Die Folien des Vortrags stelle ich hiermit zur freien Verfügung (CC-BY) und Download bereit: Slides (12,6 MB)
(more…)

Ankündigung: Workshop zu Forschungsmethoden bei der GMW 2018

In diesem Jahr werde ich bei der Jahrestagung der Gesellschaft für Medien in den Wissenschaften (GMW) einen Workshop zu Forschungsmethoden für die Analyse und Visualisierung videobasierter Lernaktivitäten anbieten. Das Format von Methodenworkshops wird in diesem Jahr zum ersten mal angeboten und eröffnet dabei viel Raum für Diskussionen und die Demonstration von Werkzeugen.

Termin: Mittwoch, 12. September 2018, 13:30-15:00