Vortrag: Open Commons Region Dresden

Vortragsfolien: PDF (6,7 MB)

LaTeX, SVG, Screenshots: 20131013_umundu_commons.zip (10 MB)

Audioaufzeichnung: mitschnitt.mp3 (130 Minuten / 48 MB)

Folien als Einzelbilder:

Hier noch eine mehr oder weniger sortierte Linkliste, auch wenn diese Links wahrscheinlich anderswo schon in einer ähnlichen Zusammenstellung zu finden sind und ich keinen Anspruch auf Vollständigkeit erheben kann:

Lobby:

Wie’s gemacht wird:

Beispiele aus Deutschland:

Internationale Beispiele:

Open Commons Region Linz:

Beispiele aus Dresden:

VI-TWO: Javascript Framework for interactive Videos

After a couple of years of development and testing I finally managed to make VI-TWO public available as open source solution for interactive hypervideo learning environments.

VI-TWO is an modular software framework to playback and organize collections of enriched videos. It supports several annotation types such as tags or time-depended hyperlinks. It supports access and individual organisation of video-based information.

The client-side architecture allows flexible integration in other Web CMS oder Frameworks. So fare VI-TWO has been applied as extension for MediaWiki, WordPress and Drupal. The framework is highly extensible by widgets.

Main features

  • time-related annotations: table of contents, temporal tags, search
  • time-depended annoations: slides, images, maps, web-content, quizzes, hyperlinks
  • video manager to get a brief overview of a collection of videos
  • recommendations of related videos
  • playlists
  • search within metadata and extracted text of time-depended annotations

Demo: IWRM education

The first stand alone application build with VI-TWO is a interactive learning resource called IWRM education. IWRM education consists of 42 enriched university lectures. The application supports self organized learning processes by providing easy information access through categories, tags, full-text search and fosters easy browsing within the information space by offering related videos, a playlist and its main feature: hyperlinks. As a real hypervideo realization the user can follow 255 time-based semantic relations between the lectures. Try out, its Open Source and a Open Educational Resource (CC):

http://www.iwrm-education.org/

Download

VI-TWO is provided under MIT license at github. The source code includes so far two demo applications.

https://github.com/nise/vi-two/

 

The framework can be extended through widgets.https://github.com/nise/vi-two/

Vortrag@Umundu’13: Open Commons Region Dresden – Wie erschließt man die digitalen Gemeingütern einer Stadt?

Die Allmende steht im Fokus des diesjährigen Umundu-Festivals. Dazu werde ich einen kleinen Beitrag über die digitale Allmende leisten und über den Nutzen regionaler Datenkreisläufe und Infrastrukturen referieren. Ich möchte dabei versuchen die globale Präsenz der digitalen Allmende auf kleine Regionen herunter zu brechen und die schlummernden Potentiale einer Open Commens Region für Dresden aufzeigen.

Titel: Open Commons Region Dresden – Wie erschließt man die digitalen Gemeingütern einer Stadt?

Termin: 13.10.2013, 16:00

Ort: Veränderbar, im Hinterhaus auf Görlitzer Str. 42 in 01099 Dresden

Abstract:

Neben der klassischen Allmende gibt es zahlreiche Beispiele der digitalen Allemende bzw. Wissensallmende, die im Zuge des Wandels zur Wissensgesellschaft Bedeutung erlangt haben. Das betrifft vor allem die Zugänge zu Information und zu essentiellen Kultur- und Wissensressourcen. Auf globaler Ebene verbindet man damit eine Reihe von sozio-technischen Konzepten (z.B. Open Source, Open Data, Open Educational Resources), Diensten (z.B. Freifunk, Open Streetmap, Stadtwikis) und Organisationen (z.B. Wikimedia Foundation, UNESCO, …).
Die Frage besteht nun, wie eine Umsetzung auf lokaler Ebene, etwa in einer Stadt wie Dresden aussehen könnte? Welchen Nutzen stiften digitale Gemeingüter den Bürgern einer Stadt?
Am Beispiel der österreichischen Stadt Linz soll dazu das Modell einer Open Commons Region vorgestellt und perspektivisch für Dresden aufgezeigt werden.

Dabei werde ich im Vortrag voraussichtlich folgende Fragestellungen thematisieren:

  • Was versteht man unter digitaler Allmende / Wissensallmende?
  • Gibt es eine Tragödie der digitalen Allmende?
  • Welche Rolle spielen digitale Gemeingüter in der Stadt des 21. Jahrhundert?
  • Welche Städte sind die Vorreiter in diesem Gebiet?
  • Was ist ein Open Commons Region?
  • Welchen Nutzen und welche Potentiale bieten sich für Bürger, Wirtschaft und Tourismus?
  • Warum ist der Aufbau einer Open Commons Regionen ein nachhaltiger Beitrag für die Stadtentwicklung?
  • Wie sieht der aktuelle Stand in Deutschland, Sachsen und Dresden dazu aus?
  • Welchen Beitrag können Stadt, Unternehmen, Vereine und Bürger dazu leisten?

Darf der BND alle Verbindungsdaten überwachen?

Es wird immer wieder angeführt, dass der BND keine totale Überwachung der Internetkommunikation zwischen der BRD und dem Ausland vornehmen darf. Die Befugnisse des BND seien damit im Vergleich zum us-amerikaischen NSA weit mehr eingeschränkt und mit unseren Grundrechten vereinbar. Im so genannen G10-Gesetz steht in §10, Absatz 4:

In den Fällen der §§ 5 und 8 sind die Suchbegriffe in der Anordnung zu benennen. Ferner sind das Gebiet, über das Informationen gesammelt werden sollen, und die Übertragungswege, die der Beschränkung unterliegen, zu bezeichnen. Weiterhin ist festzulegen, welcher Anteil der auf diesen Übertragungswegen zur Verfügung stehenden Übertragungskapazität überwacht werden darf. In den Fällen des § 5 darf dieser Anteil höchstens 20 vom Hundert betragen.

Zur Sammlung von Informationen darf der Anteil der zur Verfügung stehenden Übertragungskapazität höchstens 20% betragen. Unter Kapazität versteht man im Kontext von Datenübertragung die maximal mögliche Rate der Daten, die fehlerfrei über einen Kanal übertragen werden kann. Diese Datenübertragungsrate bezeichnet die Menge an Daten je Zeiteinheit. Der BND darf also maximal 20% der Daten sammeln, die je Zeiteinheit übertragen werden.

Schaut man sich nun einmal an, wie sich die über das Internet übertragenen Daten zusammensetzen, stellt man zunächst fest, dass ein Großteil durch die Übertragung von Multimediaangeboten (Video on Demand, Videokonferenzen) und File-Sharing zustande kommt. Man kann also annehmen, dass ein Großteil der Daten ohnehin nicht gespeichert werden muss, weil er im Netz verfügbar ist, d.h. unabhängig von einer Überwachungsmaßnahme abrufbar ist. Nicht zuletzt aufgrund effektiven Verschlüsselungsmethoden, konzentrieren sich Geheimdienste auf Verbindungsdaten. Diese eigenen sich beispielsweise zur Erstellung von Bewegungs- und Kommunikationsprofilen und werden aus den Headern der IP-Pakete entnommen, ohne die wesentlich größeren Inhalte der Pakete analysieren zu müssen. IP-Pakete sind die kleinste Einheit von Daten, die im Internet zirkuliert. IPv4-Header sind zwischen 20 und 60bytes (160-480Bits) groß, IPv6-Header sind ungefähr doppelt so groß. Ein IP-Paket inkl. Header kann bis zu 65,535 bytes groß sein.
Wenn der BND also auch nur 5% der übertragenen Daten sammelt und auswertet, dann ist der Datenbestand immer noch ausreichend groß, um alle Verbindungsdaten von E-Mails, Video-Telefonate und Seitenaufrufe im WWW, etc. zu protokollieren. Man muss natürlich bedenken, dass die über Deutschland gerouteten Daten nur einen kleinen Teil des gesamten Datenaufkommens im WWW ausmachen.
In puncto Überwachung des auswärtigen Internetverkehrs wurden dem BND in Deutschland ähnliche Freiheiten eingeräumt, wie der NSA in den USA. Das Ausmaß der Überwachung ist aufgrund des hiesigen Traffics zwar geringer, doch kann die Datenerfassung laut Gesetz ebenso effizient erfolgen wie in den USA. Das würde erklären, warum die Bundesregierung schier regungslos den öffentlichen Forderung zur Aufklärung der NSA-Ausspähungen gegenüber steht. Wer im Glashaus des Panoptikums sitzt, wird nicht mit Steinen werfen.

Mendeley Analytics – part 1: Data Visualization for collected Publications in Mendeley

Mendeley is valuable tool to organize and annotate scientific literature. As power user you can get lost in paper space because Mendeley does not offer any tools keep track with all the collected metadata. Having more then 500 articles, book chapters and books in your collection makes it quiet difficult to overview relationships between authors/co-authors, publishers and keywords.
Luckily Mendeley does not protect its local database on desktop computers. So its theoreticly possible to build an alternative to Mendeley but for the mentioned disadvantage its fare enough to collect some resonable data for meaningful visualisations.
As a first example I will present some source code and visualization that gives you an overview about the quantity of authors and co-authors. Especially co-authors do not get that much attention while they play an important role, e.g. as senior scientist that tie generations of young researchers together.

A snapshot of my Mendeley Database produced these bubbles representing authors of my collected publications.

Surprisingly I discovered some new names that seem to play a bigger role in my research filed as expected.

Technically the visualization is based on a simple bubble chart from the D3.js examples. The SQLite-Database can easily viewed with tools like “SQLite Database Browser”, available for Linux. The conversion of the data could be done with the script language of your choice. I put in php to generate some json code for D3:
< ?php header('Content-Type: application/json'); if ($db = new SQLite3('your-mendeley-sqlite-file')) { $result = $db->query('SELECT lastName, firstNames FROM DocumentContributors');
$row = array();
$i = 0;
while($res = $result->fetchArray(SQLITE3_ASSOC)){
$row[$res['lastName']] ++;
$i++;
}
$data = array('name' => "flare");
$authors = array();
foreach($row as $key => $val){
array_push($authors, array('name' => $key, 'size' => $val););
}
$data['children'] = $authors;
echo json_encode($data);
} else {
die($err);
}
?>

8 Tipps um ein Paper zu schreiben, was Leser via Google Scholar & Co finden können

Elektronische Publikationen gelangen zumeist durch Suchanfragen an ihre Leser. Die Suchmaschinen von Literaturdatenbanken wie auch Google Scholar folgen bestimmten Algorithmen, die anhand Parametern und Metriken die Suchtreffer in eine Rangfolge bringen. Diese Mechanismen als Autor zu ignorieren hieße, anderen den Zugang zu seinen Forschungsergebnissen zu erschweren und sich von der Community zu distanzieren. Andererseits sollte man sich in Bezug auf den Inhalt einer Forschungsarbeit nicht dem Diktat der Suchalgorithmen unterwerfen oder versuchen illegitimen Nutzen daraus zu ziehen. Academic search engine optimization (ASEO) zielt daher auf die Beachtung technischer Rahmenbedingung und die Entscheidungsfindung bei der Publikation elektronischen Forschungsarbeiten. In diesem Beitrag habe ich drei wissenschaftliche Artikel zum Thema ASEO  in acht Handlungsempfehlungen zusammengefasst:

#1: Kurzer Titel
Google Scholar bevorzugt kurze Titel, wobei diese auch Keywords enthalten sollte.

#2: Keywords
Wähle die richtigen Keywords durch Suchanfragen in Literaturdatenbanken oder unter Zuhilfenahme folgender Werkzeuge:

Die verwendeten Schlüsselworte sollten zwar gebräuchlich und verbreitet sein, nicht jedoch zu übermäßig vielen konkurrierenden Treffern führen. Neben dem Titel integriert man die Schlüsselworte insbesondere in den Abstract und fernen in den Text.

#3: Text
Alle Schlüsselworte solltest du einschließlich der relevanten Synonyme in den Textkorpus integrieren. Die Struktur des Textes sollte sich am bekannten Muster introduction, related work, method, result, discussion anlehnen, damit die Artikel auch als wissenschaftliche Papiere erkannt werden können.

#4: Zitationen
Datenbanken wie Scopus oder Web of Science ordnen Treffer einer Suchanfrage allein anhand der eingehenden Referenzen. Je öfter ein Artikel in anderen Papieren zitiert wurde, desto höher rangiert er im Suchergebnis. Google Scholar scheint dabei nicht zwischen Fremd- und Eigenzitaten zu unterscheiden. Der Pange Rank Algorithmus von Google berücksichtigt jedoch auch andere Quellen im WWW, die auf ein Papier verweisen. Insbesondere die Reputation von Autoren und Verlagen / Journals wird miteinbezogen (siehe #6).

In Bezug auf Literaturangaben ist Sorgfalt bei der Schreibweise von Namen, insbesondere unter Berücksichtigung anderer Alphabete, angebracht. Es ist zudem wichtig Verweise auf die Bezugsquellen der referenzierten Quellen anzugeben. Eine URL, ISSN, ISBN oder DOI erfüllt diesen Zweck.

#5: Grafiken und Tabellen
Im Gegensatz zu Text in Tabellen und Bitmap-Grafiken (BMP, JPEG, PNG, GIF, TIFF, etc.), werden lediglich Texte in vektorbasierte Grafiken (z.B. SVG nach PDF exportiert) durch Google Scholar indiziert.

#6: Wahl des Journals bzw. Publikationskanals
Artikel rangieren auch dann weit oben in der Trefferliste, wenn lediglich nach einem Namen oder einem Publikationsnamen (z.B. Titel des Journals oder der Buchreihe) gesucht wird. Dabei spielt es keine Rolle, ob der Suchbegriff im Titel oder Text des Papiers vorkommt. Die Wahl der Zeitschrift hat also einen Einfluss auf das Ranking. Insbesondere Beiträge in Open Access Journals lassen sich im Gegensatz zu kostenpflichtigen Angeboten leichter zitieren und abrufen. Alternativ kann man einen pre-print (Green Open Access) ins Netz stellen oder im dem Verlag eine Recht auf eine spätere Veröffentlichung auf einem eigenen Server vereinbaren. ISI-Journals genießen auch bei Google Scholar einen besseren Ruf und werden höher eingeordnet.

#7: Metadaten
Neben den Schlüsselwort, die sich auf den Inhalt einer Arbeit beziehen, sind auch die mit dem Dokument also solches verbundenen Metadaten von Relevanz. Wenngleich Verlage diese Metadaten vor der Veröffentlichung im Netz vereinheitlichen, muss man als Autor bei der Veröffentlichung auf einer eigenen Webpräsenz allein dafür Sorge tragen. Ob PDF oder Textdokument, ein nachvollziehbarer Dateinamen sowie die korrekte und vollständige Angabe der Metadaten (Titel, Autor, Subjekt) machen das Dokument maschinenlesbar und somit für Suchmaschinen besser indizierbar. (In Tex leistet das Paket hyperref mit dem Kommando hypersetup gute Dienste.)

Will man ein Papier auf einer Webseite präsentieren ist die Angabe von HTML-Metatags notwendig. Bei Arlitsch et al. (2012) findet man genaue Angaben, wie sich Bepress Metadaten auf Dublin Core Sets abbilden lassen, um bei Google Scholar überhaupt erst einmal gelistet zu werden. Hier nur ein HTML-Code-Schnipsel als Beispiel:

<meta name=”bepress_citation_author” content=”Max Müller” />
<meta name=”bepress_citation_author” content=”Maxi Müllerin” />
<meta name=”bepress_citation_title” content=”ASEO at its best” />
<meta name=”bepress_citation_pdf_url” content=”http://www.nise81.com/archives/1046″ />

#8: Dateiquellen
Wenn ein Artikel nicht nur in einer Zeitschriftendatenbank, sondern auch auf einer privaten oder institutionellen Webseite abrufbar ist, gruppiert Google Scholar die Quellen in der Rangliste. Alternativ können Artikel auch bei Web-Diensten wie Mendeley oder ResearchGate eingestellt werden. Oder, in einem Satz gesagt: Je mehr (vertrauenswürdige) Quellen es für eine Dokument gibt, desto größer ist die Wahrscheinlichkeit, dass eine Suchmaschine darauf stößt.

 

Literatur:

Hilfe, mein Prof ist ein Medienfuzzi

Etwas „aufgedueckt“, aber ein faszinierender Vorschlag, um zwei Probleme am Print- und Hochschulmarkt zu lösen (?)

Universitäten werden nicht umhinkommen, eine Fakultät zu kürzen und zehn Prozent der Professoren zu kündigen und sie durch Medien- und Filmleute zu ersetzen. Journalisten können helfen, das Wissen der Welt als Vorlesungen neu aufzubereiten – Professoren können das womöglich gar nicht. Das wäre doch chic, wenn man aus diesem Wissen richtige Videofilme macht und wenn man Qualitätsjournalisten darauf ansetzt, Literatur- und Politikvorlesungen noch einmal richtig schön und zeitgemäß zu gestalten. Da ist unendlich viel Arbeit.

Günter Dueck in DER STANDARD via jrobbe.