Vortrag bei der DeLFI 2019: Semantic Textual Similarity textueller Lernmaterialien

In der von Agathe Merceron geleiteten Session zum Thema Textanalyse präsentieren Moritz Rieger und ich bei der diesjährigen DeLFI einen Langbeitrag über die Ermittlung der semantischen Ähnlichkeit von textuellen Lernmaterialien. Wir haben dazu einen Korpus aus 572 Studienbriefen bzw. 94 Kursen der Fakultät Mathematik und Informatik an der FernUniversität in Hagen erstellt und mit Hilfe von Document Embeddings die semantische Ähnlichkeit zweier Dokumente anhand der Kosinusähnlichkeit bestimmt. Das Verfahren haben wir mit Hilfe eines Goldstandards weiteren Tests evaluiert. In naher Zukunft werden wir Anwendungen wie Empfehlungssysteme für die Auswahl und Exploration Kursen vorstellen, welche die semantische Ähnlichkeit der Studienbriefe berücksichtigen.

Die sich an den Vortrag anschließende Diskussion brachte (more…)

Unterstützung beim Schreiben

Auf der Konferenz digitale_kultur hatte ich am Montag das Vergnügen einen Vortrag von Kathrin Passig über die Zukunft und Gegenwart des Schreibens zu hören. Eine ihrer Thesen war es, das wir inhaltliche Unterstützung beim Schreiben bekommen, aber vielleicht nicht unbedingt ersehnen werden.

Textverarbeitung und Editoren unterstützen uns dabei, Rechtschreib- und Interpunktionsfehler zu vermeiden. Auch grammatikalische Fehler und Synonyme identifizieren Tools wie Gramerly oder Aspell. Metriken zur Berechnung der Lesbarkeit für das Formulieren »leichter« oder »einfacher« Sprache warten auf ihren Einsatz im Texteditor. Übersetzungen erledigt DeepL oder Google Translate. Für Drehbuch- und Romanautoren gibt es Schreibwerkzeuge wie Scrivener, die es erlauben inhaltliche Beziehungen von Orten und Personen zu visualisieren und einen kreativen Umgang mit Notizen und Annotation zu finden. Mit Scrivener hatte ich vor etwa 10 Jahren schon begonnen meine Diplomarbeit zu schreiben, um nach der Hälfte der Zeit die Ergebnisse in LaTeX weiterzuentwickeln. In einigen medizinischen Dokumentationswerkzeugen finden sich hingegen Tools, welche die Eingabe und von Diagnosen durch Angebote von Textbausteinen vereinfachen. An einer schweizer Fachhochschule hatte man mir vor einiger Zeit auch den Thesis Writer als ein Werkzeug nahegelegt, um die Schreibprozess von Abschlussarbeiten durch festgelegte inhaltliche Einheiten und Textbausteine zu normieren.

In der Informatik kennen wir Unterstützungsfunktionen schon sehr lange aus den Entwicklungsumgebungen und Code-Editoren, die auf Kommando Eingabeoptionen für Methodenaufrufe, initialisierte Variablen und Rümpfe für Datenstrukturen anbieten und auf Wunsch einfügen.

Eine relative neue Variante der Textproduktion stellen für mich Werkzeuge wie Python Notebook und R Markdown dar. Sie ermöglichen es, anders wie LaTeX, Programmcode für Berechnungen und Datengrafiken direkt in den Textfluss einzufügen und per Knopfdruck zu rendern. Man könnte auch sagen, dass sie das Prinzip der Code-Kommentare umkehren. In einem Notebook programmiert man etwas zum Geschriebenen dazu, während man im Code etwas zum Programmierten in natürlicher Sprache schreibt.

Den aufgezählten Beispielen ist gemein, die kognitiven Fähigkeiten des Menschen zu unterstützen. Dort, wo uns die Aufmerksamkeit, Ordnung oder Kreativität fehlt, erhalten wir korrekte Hilfestellungen und Hinweise. Routineeingaben werden durch Empfehlungen ersetzt. Das was, der Mensch nicht zeichnen oder berechnen kann, wird durch Code vom Computer umgesetzt. Friedrich Hesse hat dafür den Begriff der Cognitive Interfaces geprägt. Es handelt sich dabei um eine Schnittstelle zwischen dem Menschen als Anwender und dem Computer als Mediator von Anwendungen und Diensten im WWW. Rechenkapazität, Speicher, Sensorik und Ausgabe eines Rechners werden dazu eingesetzt, die begrenzten kognitiven Kapazitäten des Anwenders auf individuelle Weise zu erweitern. Diese Systeme unterstützen die menschliche Kognition zum einen durch die Selegierung relevanter Informationen, die in geeigneter Weise dargestellt werden. Zum anderen übernehmen mobile Systeme als virtuelle Kollaborateure kognitive Aufgaben, die dem Anwender zu viel Zeit oder Anstrengungen kosten oder ihn von den aktuell wichtigen Aufgaben abhalten.

»Video Analytics in MOOCs« beim openHPI-forum

Irgendwo zwischen Griebnitzsee und Kiefernwald war ich heute zum openHPI-Forum (siehe Vortragsaufzeichnungen) auf dem Campus des Hasso-Plattner-Instituts in Potsdam eingeladen, um über Möglichkeiten der Erhebung, Auswertung und Visualisierung von Videodaten zu referieren. Viel Unterstützung kam dabei Jan Renz und Tobias Rohloff, die die Plattform openHPI, openSAP und openWMO betreuen und das Thema Video Analytics künftig verstärkt angehen möchten.

Im Folgenden möchte ich nicht nur die versprochenen Folien bereitstellen, sondern auch die vielfältigen Ideen für Datenvisualisierungen teilen, welche die Teilnehmenden im Workshop erarbeitet haben. (more…)

GMW’18 Workshop: Analyse und Visualisierung videobasierter Lernaktivitäten

Am Mittwoch, dem 12. September 2018, hatte ich das Vergnügen während der Jahrestagung der Gesellschaft für Medien in den Wissenschaften einen Methodenworkshop zum Thema »Analyse und Visualisierung videobasierter Lernaktivitäten« anzubieten. Die Veranstaltung war mit über 20 Teilnehmenden sehr gut besucht.

Die Folien des Vortrags stelle ich hiermit zur freien Verfügung (CC-BY) und Download bereit: Slides (12,6 MB)
(more…)

Wir haben die Google Impact Challenge gewonnen!

Heute morgen um 9 Uhr haben wir erfahren, dass wir unter den Gewinnern der diesjährigen Google Impact Challenge sind! Wir freuen uns über den Erfolg und bedanken uns recht herzlich bei all jenen, die für unsere Projekt gestimmt haben!

Für uns ist das heute ein Grund zu feiern. Nächste Woche legen wir dann los und koordinieren die beteiligten Experten, Wissenschaftler, Designer und Entwickler. Updates erfahrt ihr auf diesem Kanal.

LASI 2018: 07./08.05.2018, Universität Mannheim

Zum zweiten mal veranstaltet die AG Learning Analytics in Kooperation mit der Society for Learning Analytics Research (SoLAR; https://solaresearch.org) ein Learning Analytics Summer Institute in Deutschland.

Am zweiten Tag werde ich einen Workshop zum Thema “Analytics in Videobased Learning” anbieten. Neben Grundlagen zur Datenerhebung, -analyse und -visualisierung möchte ich viele praktische Anwendungen, Werkzeuge und Methoden vorstellen. Im zweiten Teil des Workshops sollen die Teilnehmer anhand von realen Datensätzen selbst Analysen durchführen.

Am 07. Mai 2018 startet LASI mit einem Doktoranden Workshop, auf dem Projekte und Dissertationsvorhaben vorgestellt und diskutiert werden können. Doktoranden sind herzlich eingeladen, bis zum 20. April 2018 Abstracts (500 Wörter) über EasyChair einzureichen: https://easychair.org/cfp/lasi_2018
Zum Ausklang findet an diesem Tag ein gemeinsames Abendessen auf dem Museumsschiff in Mannheim statt.

Am 08. Mai 2018 sind zwei Keynotes geplant:
1. Iryna Gurevych, TU Darmstadt: Serious Games and NLP: Learning can be fun if you ask the right questions
2. Heiner Stuckenschmidt, Universität Mannheim: Automatic Creation and Maintenance of Knowledge Resources

Zusätzlich finden am 08. Mail parallele Workshops zu aktuellen Themen um Learning Analytics statt. Die Inhalte der Workshops werden in Kürze bekannt gegeben. Aktuelle Informationen zum Programm finden Sie auf der Website: https://leap.uni-mannheim.de/lasi2018/

Gerne melden Sie sich für LASI 2018 unter folgendem Link verbindlich an: https://leap.uni-mannheim.de/lasi2018/index.php/forms/registrierung/