Friedensnobelpreis für Eduard Snowden

Seit Bekanntwerden des Überwachungsprogramms PRISM durch die NSA (National Security Agency / No such agency) wurden wir wieder daran erinnert, dass E-Mail, Google-Dienste, Facebook und Skype keinen sicheren Datenaustausch ermöglichen. Es ist in sofern auch nicht neu, dass amerikanische Geheimdienste die Kommunikation von Ausländern mithören. Ein Minderheit wird sich noch an die ECHOLON-Debatten (Abhörung der Satellitenkommunikation Fax, E-Mail, ect.) in Deutschland und der EU und den Vorwürfen der Menschenrechtsverletzung erinnern.
Neu ist hingegen der Umfang der Überwachungsmaßnahmen angesichts der gegenüber 2001 gewachsenen gesellschaftlichen und wirtschaftlichen Bedeutung von IKT, Internet und speziell dem Social Web.

Die mediale Berichterstattung konzentriert sich leider zu sehr auf einzelnen Überwachungsskandale, anstatt die historische Entwicklung staatlicher IKT-Überwachung in den Blick zu nehmen. Man täte gut daran die vermeintlich kleinen zivilisatorischen Brüche im Zusammenhang zu sehen und damit scheinbar nicht zusammenhängende totalitäre Tendenzen zu erkennen. Auch der Projektkontext von PRISM im Rahmen von Stellar Wind ist noch nicht aufgearbeitet. Gleichwohl ungeklärt sind Bezüge bzw. Parallelen zum europäischen Forschungsprojekt INDECT.

Fest steht jedoch, dass die jetzigen und kommenden Debatten zu PRISM und vergleichbaren Diensten nicht ohne den Mut und den zivilen Ungehorsam von Eduard Snowden in Gang gekommen wären. Ich kann mich deshalb nur der Forderung anschließen, Eduard Josef Snowden (im Kontrast zu Barack Obama) den Friedensnobelpreis zu verleihen. Snownden hat außerordentlichen Mut bewiesen Verstöße gegen Bürger- und Menschenrechte anzuprangern, wie sie im Zeitalter der digitalen Vernetzung und Kommunikation typisch sind und sein werden. Eine Ehrung mit dem Nobelpreis würde Snowden vielleicht einen überstaatlichen Schutz vor übermäßiger Bestrafung (u.U. Todesstrafe) gewähren.

Mendeley Analytics – part 1: Data Visualization for collected Publications in Mendeley

Mendeley is valuable tool to organize and annotate scientific literature. As power user you can get lost in paper space because Mendeley does not offer any tools keep track with all the collected metadata. Having more then 500 articles, book chapters and books in your collection makes it quiet difficult to overview relationships between authors/co-authors, publishers and keywords.
Luckily Mendeley does not protect its local database on desktop computers. So its theoreticly possible to build an alternative to Mendeley but for the mentioned disadvantage its fare enough to collect some resonable data for meaningful visualisations.
As a first example I will present some source code and visualization that gives you an overview about the quantity of authors and co-authors. Especially co-authors do not get that much attention while they play an important role, e.g. as senior scientist that tie generations of young researchers together.

A snapshot of my Mendeley Database produced these bubbles representing authors of my collected publications.

Surprisingly I discovered some new names that seem to play a bigger role in my research filed as expected.

Technically the visualization is based on a simple bubble chart from the D3.js examples. The SQLite-Database can easily viewed with tools like “SQLite Database Browser”, available for Linux. The conversion of the data could be done with the script language of your choice. I put in php to generate some json code for D3:
< ?php header('Content-Type: application/json'); if ($db = new SQLite3('your-mendeley-sqlite-file')) { $result = $db->query('SELECT lastName, firstNames FROM DocumentContributors');
$row = array();
$i = 0;
while($res = $result->fetchArray(SQLITE3_ASSOC)){
$row[$res['lastName']] ++;
$i++;
}
$data = array('name' => "flare");
$authors = array();
foreach($row as $key => $val){
array_push($authors, array('name' => $key, 'size' => $val););
}
$data['children'] = $authors;
echo json_encode($data);
} else {
die($err);
}
?>

8 Tipps um ein Paper zu schreiben, was Leser via Google Scholar & Co finden können

Elektronische Publikationen gelangen zumeist durch Suchanfragen an ihre Leser. Die Suchmaschinen von Literaturdatenbanken wie auch Google Scholar folgen bestimmten Algorithmen, die anhand Parametern und Metriken die Suchtreffer in eine Rangfolge bringen. Diese Mechanismen als Autor zu ignorieren hieße, anderen den Zugang zu seinen Forschungsergebnissen zu erschweren und sich von der Community zu distanzieren. Andererseits sollte man sich in Bezug auf den Inhalt einer Forschungsarbeit nicht dem Diktat der Suchalgorithmen unterwerfen oder versuchen illegitimen Nutzen daraus zu ziehen. Academic search engine optimization (ASEO) zielt daher auf die Beachtung technischer Rahmenbedingung und die Entscheidungsfindung bei der Publikation elektronischen Forschungsarbeiten. In diesem Beitrag habe ich drei wissenschaftliche Artikel zum Thema ASEO  in acht Handlungsempfehlungen zusammengefasst:

#1: Kurzer Titel
Google Scholar bevorzugt kurze Titel, wobei diese auch Keywords enthalten sollte.

#2: Keywords
Wähle die richtigen Keywords durch Suchanfragen in Literaturdatenbanken oder unter Zuhilfenahme folgender Werkzeuge:

Die verwendeten Schlüsselworte sollten zwar gebräuchlich und verbreitet sein, nicht jedoch zu übermäßig vielen konkurrierenden Treffern führen. Neben dem Titel integriert man die Schlüsselworte insbesondere in den Abstract und fernen in den Text.

#3: Text
Alle Schlüsselworte solltest du einschließlich der relevanten Synonyme in den Textkorpus integrieren. Die Struktur des Textes sollte sich am bekannten Muster introduction, related work, method, result, discussion anlehnen, damit die Artikel auch als wissenschaftliche Papiere erkannt werden können.

#4: Zitationen
Datenbanken wie Scopus oder Web of Science ordnen Treffer einer Suchanfrage allein anhand der eingehenden Referenzen. Je öfter ein Artikel in anderen Papieren zitiert wurde, desto höher rangiert er im Suchergebnis. Google Scholar scheint dabei nicht zwischen Fremd- und Eigenzitaten zu unterscheiden. Der Pange Rank Algorithmus von Google berücksichtigt jedoch auch andere Quellen im WWW, die auf ein Papier verweisen. Insbesondere die Reputation von Autoren und Verlagen / Journals wird miteinbezogen (siehe #6).

In Bezug auf Literaturangaben ist Sorgfalt bei der Schreibweise von Namen, insbesondere unter Berücksichtigung anderer Alphabete, angebracht. Es ist zudem wichtig Verweise auf die Bezugsquellen der referenzierten Quellen anzugeben. Eine URL, ISSN, ISBN oder DOI erfüllt diesen Zweck.

#5: Grafiken und Tabellen
Im Gegensatz zu Text in Tabellen und Bitmap-Grafiken (BMP, JPEG, PNG, GIF, TIFF, etc.), werden lediglich Texte in vektorbasierte Grafiken (z.B. SVG nach PDF exportiert) durch Google Scholar indiziert.

#6: Wahl des Journals bzw. Publikationskanals
Artikel rangieren auch dann weit oben in der Trefferliste, wenn lediglich nach einem Namen oder einem Publikationsnamen (z.B. Titel des Journals oder der Buchreihe) gesucht wird. Dabei spielt es keine Rolle, ob der Suchbegriff im Titel oder Text des Papiers vorkommt. Die Wahl der Zeitschrift hat also einen Einfluss auf das Ranking. Insbesondere Beiträge in Open Access Journals lassen sich im Gegensatz zu kostenpflichtigen Angeboten leichter zitieren und abrufen. Alternativ kann man einen pre-print (Green Open Access) ins Netz stellen oder im dem Verlag eine Recht auf eine spätere Veröffentlichung auf einem eigenen Server vereinbaren. ISI-Journals genießen auch bei Google Scholar einen besseren Ruf und werden höher eingeordnet.

#7: Metadaten
Neben den Schlüsselwort, die sich auf den Inhalt einer Arbeit beziehen, sind auch die mit dem Dokument also solches verbundenen Metadaten von Relevanz. Wenngleich Verlage diese Metadaten vor der Veröffentlichung im Netz vereinheitlichen, muss man als Autor bei der Veröffentlichung auf einer eigenen Webpräsenz allein dafür Sorge tragen. Ob PDF oder Textdokument, ein nachvollziehbarer Dateinamen sowie die korrekte und vollständige Angabe der Metadaten (Titel, Autor, Subjekt) machen das Dokument maschinenlesbar und somit für Suchmaschinen besser indizierbar. (In Tex leistet das Paket hyperref mit dem Kommando hypersetup gute Dienste.)

Will man ein Papier auf einer Webseite präsentieren ist die Angabe von HTML-Metatags notwendig. Bei Arlitsch et al. (2012) findet man genaue Angaben, wie sich Bepress Metadaten auf Dublin Core Sets abbilden lassen, um bei Google Scholar überhaupt erst einmal gelistet zu werden. Hier nur ein HTML-Code-Schnipsel als Beispiel:

<meta name=”bepress_citation_author” content=”Max Müller” />
<meta name=”bepress_citation_author” content=”Maxi Müllerin” />
<meta name=”bepress_citation_title” content=”ASEO at its best” />
<meta name=”bepress_citation_pdf_url” content=”http://www.nise81.com/archives/1046″ />

#8: Dateiquellen
Wenn ein Artikel nicht nur in einer Zeitschriftendatenbank, sondern auch auf einer privaten oder institutionellen Webseite abrufbar ist, gruppiert Google Scholar die Quellen in der Rangliste. Alternativ können Artikel auch bei Web-Diensten wie Mendeley oder ResearchGate eingestellt werden. Oder, in einem Satz gesagt: Je mehr (vertrauenswürdige) Quellen es für eine Dokument gibt, desto größer ist die Wahrscheinlichkeit, dass eine Suchmaschine darauf stößt.

 

Literatur:

Hilfe, mein Prof ist ein Medienfuzzi

Etwas „aufgedueckt“, aber ein faszinierender Vorschlag, um zwei Probleme am Print- und Hochschulmarkt zu lösen (?)

Universitäten werden nicht umhinkommen, eine Fakultät zu kürzen und zehn Prozent der Professoren zu kündigen und sie durch Medien- und Filmleute zu ersetzen. Journalisten können helfen, das Wissen der Welt als Vorlesungen neu aufzubereiten – Professoren können das womöglich gar nicht. Das wäre doch chic, wenn man aus diesem Wissen richtige Videofilme macht und wenn man Qualitätsjournalisten darauf ansetzt, Literatur- und Politikvorlesungen noch einmal richtig schön und zeitgemäß zu gestalten. Da ist unendlich viel Arbeit.

Günter Dueck in DER STANDARD via jrobbe.

Unvideopedia: Warum Videos bei Wikipedia nicht ankommen

Es bemüht sich wieder einmal jemand darum, mehr Videos in die Wikipedia zu bekommen. Von den 4 Millionen Artikel ist nur ein Promill mit einem Video angereichert. Die Vorteile von dynamischen Medien stehen außer Frage. Auch an (creative commons) Videoressourcen fehlt es nicht mehr. Dennoch gibt es einige Schwierigkeiten mit der Video(-Co)-Produktion für Wikipedia-Artikel:

  • Sprache: viele Videos sind in anderen Sprachen vertont, als der Artikel, Untertitel sind unumgänglich.
  • Visual litracy: Es gibt vergleichsweise wenig Leute, die gute Filme machen können. Schreiben können dagegen viele.
  • Gelegenheit: es gibt viele Phänomene, die sich nicht ohne Weiteres und sofort vom Schreibtisch aus mit einer Kamera einfangen lassen (z.B. Eisvögel, Kuelap, Steinpilzwachstum).
  • Qualität und Korrektur: Während sich ein schlechter Sprachstil oder unvollkommene Inhalte in Texten leicht editieren lassen, offenbaren sich Videos als atomare Klötzer, die wenn dann nur vollständig neu produziert bzw. ausgetauscht werden können. Ob sich künftig vertonte HTML5-Slideshows oder Vektoranimationen durchsetzen (Litracy) bleibt abzuwarten.

Andrew Lih bemüht sich nun im Projekt Wiki Makes Video die Integration von Videos zu unterstützen und durch Gestaltungshilfen (Muster) zu vereinfachen. Auf der Seite finden sich einige praktische Tipps zu Kameraeinstellung und Schnitt, je nach dem welche Art von Objekt man filmen möchte. Bemerkenswert ist auch die etwas naive Liste mit Artikeln, die von einem Video profitieren könnten. Eigentlich ließe sich jeder Artikel, der von Tieren, Pflanzen, Gebäuden, Landstrichen und sonstigen dreidimensionalen, realen Gegenständen handelt, durch bewegte Bilder bereichern.

In der Vergangenheit gab es bereits mindestens eine ähnliche Initiativen von Kaltura, die jedoch leider im Sande verlaufen ist. Diesmal dürfte Lih jedoch einige Studenten der University of Southern California dafür begeistert verpflichtet haben, so dass zumindest ein Effekt zu verzeichnen seinw ird. Auf der diesjährigen WikiSym / OpenSym in Hong Kong ist Andrew Lih mit einem Beitrag „Video Co-creation in Collaborative Online Communities“ dabei.

Ich bin auch gespannt, wann die Liste der featured Videos [1,2] entwaffnet wird:

  1. Annie Oakley shooting glass balls, 1894.ogg
  2. Apache-killing-Iraq.avi.ogg
  3. Cub polar bear is nursing 2.OGG
  4. DuckandC1951.ogg
  5. Eichmann trial news story.ogg
  6. Goa 1955 invasion.ogg
  7. Moon transit of sun large.ogg
  8. Play fight of polar bears edit 1.avi.OGG
  9. Searching for bodies, Galveston 1900.ogg
  10. Tanks of WWI.ogg

my PLE in a nutshell

Ich würde nicht soweit gehen und jede denkbare Medienform und jedes Stück Software zu meiner PLE zu zählen. Darüber hinaus sind die Details meiner PLE etwas, worüber ich nicht öffentlich schreibe. Meine PLE ändert sich zudem ständig. Zu guter Letzt ist meine PLE geprägt durch meine Arbeitsgewohnheiten, eine bestimmte Fachkultur sowie verschiedene Experimente und persönlichen Marotten.
Eine PLE ist eben eine Nuß, die jeder für sich knacken muss, um effektiv arbeiten zu können.

My Personal Learning Environment in a Nut Shell
.