Ein gern gesehener Gast in diesem Blog ist Boris Kraut, der schon zwei Gastbeiträge verfasst hat: einen zur Datenethik und einen zu BYOD in der Schule. Hier kommt sein dritter Wurf, der sich sehr gut mit meinen eigenen aktuellen Überlegungen und Zweifeln zur Frage trifft, welche externen Server und Plattformen man eigentlich nutzen sollte… Boris, it’s your turn! …. ah, bevor es losgeht: Ihr alle seid natürlich auch herzlich eingeladen, einmal einen Gastbeitrag in meinem Blog zu veröffentlichen, z.B. wenn ihr keinen eigenen Blog besitzt… so, jetzt aber: Boris, leg los!
Der aktuelle Frühjahrsputz bei Google und die damit verbundene Ankündigung, ihren RSS-Reader im Sommer einzustellen, haben für jede Menge Aufruhr gesorgt. Prinzipiell zeigt es aber nur, was eigentlich einleuchtend und allgemein bekannt sein sollte: Man kann sich auf externe Webdienste nicht verlassen. Die Erkenntnis ist nicht neu, aber jeder hat darauf vertraut, dass so etwas bei einem so großen und bekanntermaßen „nicht bösen“ Unternehmen passieren würde. Es führt uns vor Augen, wie abhängig wir geworden sind – von erwachsenen Bezahldiensten und von jungen, sympathischen Startup-Unternehmen gleichermaßen.
Speziell zum Thema Webdienste habe ich z.B. im letzten Jahr einen Vortrag darüber gehalten, dass wir uns solcher Gefahren bewusst sein müssen und dass vor allem der häufig verwendete Begriff des „Tool“ bzw. „Werkzeug“ nichts mit der Realität eines Webdienstes zu tun hat, ja diese Realität sogar (absichtlich) verschleiert und beschönigt. Dieser Vortrag fand im Rahmen der GML² 2012 – Von der Innovation zur Nachhaltigkeit an der FU Berlin statt, weshalb ich von den aktuellen Geschehnissen um iTunes U an der FU Berlin (siehe Berichte auf netzpolitik.org, golem.de, taz.de, tagesspiegel.de oder den Blogpost von Anatol Stefanowitsch besonders geschockt war und dies auch per Mail kundtat. Haben die denn nichts gelernt?
Was ist das Problem?
Eigentlich ausgelöst wurde der Sturm der Entrüstung eigentlich durch die in einer Mail bekannt gewordene Bitte bzw. Aufforderung des Kanzlers der FU Berlin, dass von der Nutzung anderer externer Internet-Plattformen zur Verbreitung von aufgezeichneten Lehrveranstaltungen und audiovisuellen Materialien abzusehen
sei. Diese Exklusivität führt in eine totale Abhängigkeit und ist natürlich nicht hinnehmbar. Einige weitere Punkte, die Anatol anführt:
Die Inhalte wären nicht barrierefrei (sie könnten weder auf freien Betriebssystemen [Anmerkung (krt): ohne Aufwand] genutzt werden, noch in andere Anwendungen importiert werden); sie wären nicht offen (Apple hätte eine unbefristete weltweite kommerzielle Lizenz, was z.B. die Verwendung von CC-BY-NC-lizenzierten Materialien unmöglich macht; zudem ist unklar, wie die eingestellten Materialien ihrerseits weiterverwendet werden könnten); sie würde Lehrende in ein Vertragsverhältnis mit Apple zwingen. Um nur ein paar offensichtliche Gründe zu nennen.
Der letzte Punkt würde übrigens nicht nur Lehrende betreffen, denn prinzipiell ist jedes Angebot, dass über iTunes U verfügbar ist, Werbung für Apple. Man kann nur hoffen, dass das nicht dazu führt, dass Apple damit so erfolgreich ist, dass irgendwann kein Weg mehr an iTunes U vorbeiführt. Das wäre dann auch die Gelegenheit, wo sicherlich einige daran denken würden, auch die internen Systeme umzustellen. Noch geht es natürlich nicht darum, sind es nur Dystopien, aber wer kann heute schon sagen, wohin die Reise geht. Was mit externen Diensten, die nicht unter der eigenen Kontrolle stehen, passieren kann, hat man ja unlängst erlebt.
Inzwischen rudert die FU Berlin zwar per Pressemitteilung zurück (siehe auch: netzpolitik.org, tageswebschau oder tageswebschau (Einzelbeitrag))…
Eine exklusive Nutzung der Plattform iTunes U zur Präsentation von Lehrveranstaltungen und audiovisuellen Materialien ist nicht vorgesehen. Die Plattform soll in Ergänzung zu den an der Freien Universität Berlin verwendeten E-Learning-Systemen und dem offiziellen Internetauftritt zum Einsatz kommen.
…, aber wirklich erledigt hat sich das Thema damit nicht, denn auch der optionale Einsatz birgt weiterhin Probleme. Es scheint als ob man mit der Pressemitteilung lediglich die Wogen glätten wollte, ohne von von der bisherigen Position abzuweichen: Es wurde zwar den Befürchtungen Rechnung getragen, die darin den Anfang vom Ende des internen Learning-Management-Systems der FU sahen, worum es aber (momentan?) explizit nicht geht, und es wurde klargestellt, dass es sich in der Exklusivnutzung nur um eine Bitte handelt. An der eingeschlagenen Richtung ändert sich allerdings nichts, wie auch Anatol konstatiert.
Trotz der ganzen Aufregung, scheint sich aber niemand die eigentliche Frage zu stellen: Warum setzen immer mehr Universitäten bei ihrer Öffnung für die Allgemeinheit auf geschlossene Systeme? Natürlich ist iTunes U dafür ein Paradebeispiel, aber es gibt zig andere Hersteller die ähnliche Dienste anbieten. Und um ehrlich zu sein: Videos auf Youtube (oder Vimeo), Einträge auf Wikiversity oder auch eigene Downloadportale an den Hochschulen sind zwar ganz nett, lösen aber nicht das Problem. Auch bei der Forderung nach Open Educational Resources (OER) bleibt die Frage nach der Auffindbarkeit, Ausfallsicherheit und Einfachheit oft ungestellt. Und so verwundert es nicht, dass man sich lieber ein zentralisiertes und geschlossenes System ins Boot holt, als die rechtlichen, organisatorischen und technischen
Probleme endlich selbst anzugehen.
Lösungsvorschlag: OER-Tauschbörse
Vor einigen Semestern habe ich an der PH Karlsruhe ein Seminar zur Entwicklung von Webservices betreut. Konkret ging es – nach etwas Motivation durch den Dozenten Ulrich Kortenkamp – um einen Dienst, der die Erstellung, Auffindung und Bearbeitung von eigenen wie auch fremden Unterrichtsverlaufsplänen vereinfacht. Der schnelle Austausch von Unterrichtsphasen war genau so möglich wie der Zugriff auf für die Stunde benötigtes Material. Wie auf jeder „sozialen“ Plattform konnte man natürlich auch Bewertung und Kommentieren. Wie sooft fehlte es an Zeit und motivierten Mitarbeiten, um das Projekt wirklich voran zu bringen, aber auch nach dem Ende des Seminars, habe ich mich weiter damit beschäftigt. In einem ersten Schritt habe ich die Weboberfläche weggeschmissen und stattdessen alles zu einem schlanken „RESTful“ Webservice umgebaut. Um das User-Interface sollten sich Leute kümmern, die davon mehr Ahnung haben, Designer. Dabei wäre es egal gewesen, ob die Oberfläche als Webpage oder in Form einer nativen Anwendung umgesetzt worden wäre.
Doch auch diese Idee kam nicht über einen Prototypen hinaus. Die Erkenntnis setzte sich durch, dass die Leute sich schon für die Software entschieden haben, mit der sie solche Sachen erstellen. Ebenfalls haben sie sich (leider) auch schon auf ein Dateiformat festgelegt. Hier gibt es zwar überall noch Verbesserungsbedarf, aber die eigentlich ungelösten Frage sind doch: Wenn ich jemanden ermutige, Inhalte freizugeben, wo und wie soll er diese veröffentlichen? Und – nicht unabhängig davon – wie findet ein Interessierter diesen Inhalt dann auch?
Genau die gleichen Fragen sind auch im aktuellen Fall wichtig zu beantworten. Das interessante ist, dass die Verfügbarkeit und eine leichte Auffindbarkeit teilweise gegenläufige Ziele sein können: Einfache Auffindbarkeit spricht für einen zentralen Dienst, z.B. wie iTunes U, was aber gleichzeitig die Verfügbarkeit absenkt. Natürlich kann man sich mit entsprechenden viel Hard- und Software-Ressourcen absichern oder gar komplett in die Cloud ausweichen, aber das schützt den Nutzer ja nicht davor, dass die zentrale Stelle selbst das Interesse verliert oder andere Vorstellungen und Ziele verfolgt – siehe das Google Reader Beispiel aus der Einleitung. Aber „Cloud“ ist ein gutes Stichwort. Statt eine gekaufte Rechnerfarm hinter einem zentralen Einstiegspunkt zu nutzen, könnte man das Bild umdrehen: Eine Datenwolke aus gleichberechtigten Peers, die die Daten verteilt anbieten, und dazu zentrale Anlaufstellen, die einen Teil der Daten als ihren eigenen oder zumindest als nutzenswert prominent bewerben? Das Konzept ist nicht neu, es ist erprobt und funktioniert. Es nennt sich BitTorrent.
Datenspeicherung
Um das Problem nochmal zu verdeutlichen ein Beispiel: Wer auf YouTube eine Aufzeichnung seiner Vorlesung veröffentlicht, der muss damit rechnen, dass diese irgendwann nicht mehr verfügbar ist [Anm. cspannagel: Seufz! 😉 ]. Zwar ist es allein bei der Größe von Google/YouTube nicht sehr wahrscheinlich, dass das technische Gründe haben kann, aber die Sperrung aufgrund von – mal mehr, mal weniger ersichtlichen – Urheberrechtsverstößen oder aufgrund von Nutzerbeschwerden kann durchaus vorkommen. Vielleicht entscheidet Google auch einfach nur, dass dieser Inhalt nicht zu ihren AGB passt oder dass die dauerhafte Speicherung zu teuer wird. Aber was dann? Kein Problem, denkt man sich, denn es gibt ja nicht nur YouTube, also lade ich es einfach auf Vimeo und Co. hoch, vielleicht habe ich das auch schon per Cross-Posting getan. Aber damit haben wir das Problem nicht gelöst, sondern verschoben. Und außerdem hat so ein Wechsel einen großen Nachteil: die URL des Videos hat sich geändert. Wir brauchen die quasi-eindeutige Adressierbarkeit über den Speicherort hinaus, die also auch dann nicht kaputt geht, wenn die Original-Quelle weg bricht. Auch das leistet BitTorrent.
Wie würde das also konkret aussehen? Nun, eine Hochschule (um mal wieder mehr auf den Auslöser iTunes U einzugehen) legt ihre Aufzeichnungen und Materialien auf den eigenen Servern ab und veröffentlicht sie über BitTorrent. Sie garantiert, dass es eine Quelle gibt, die die Dateien komplett verfügbar hat, andere diese also auch komplett runterladen können. So viel nichts neues, das wäre auch mit FTP o.ä. ähnlich. Idealerweise werden jetzt von anderen Hochschulen und Universitäten diese Inhalte – nach sorgfältiger Prüfung – auf deren eigenen Servern gespiegelt, also dupliziert. Das passiert heute auch schon sehr häufig, aber der Unterschied ist, dass jeder, der diese Dateien über BitTorrent herunterlädt oder bereitstellt, automatisch als weitere Quelle genutzt wird. Das liegt daran, dass nicht direkt auf den Speicherort gelinkt wird, sondern auf eine Beschreibung der Datei selbst, die automatisch alle verfügbaren Quellen kennt.
Natürlich gibt es auch einige Probleme oder Nachteile. So sind z.B. von einmal veröffentlichten Dateien keine Aktualisierungen möglich. Hat sich bei der Erstveröffentlichung ein Fehler eingeschlichen, muss ein komplett neuer Torrent-Download erstellt werden, der die aktualisierte Fassung enthält. Man kann zwar auf den eigenen Servern die alte Fassung löschen, aber wenn andere Nutzer und Server noch die alte Version anbieten, werden für eine gewisse Zeit beide Versionen im Netz verteilt werden. In gewissem Maße lässt sich das ganze aber so weit eindämmen, dass das kein relevanter Kritikpunkt ist. Auch bei herkömmlichen Downloads lässt sich nicht erzwingen, dass jeder Nutzer automatisch die aktuellste Fassung nutzt. Ein Spezialfall von Updates ist natürlich die Löschung von Inhalten. Auch hier gilt: Man kann sie von den Rechnern unter der eigenen Verwaltung löschen, aber was andere tun, das lässt sich nicht vorhersagen oder gar erzwingen. Ein weiterer Punkt, den man ansprechen sollte ist ebenfalls kein Problem, sollte aber der Klarheit wegen angesprochen werden: Tauschbörsen jeglicher Art werden in den Medien häufig im Zusammenhang mit Urheberrechtsverstößen genannt, da macht BitTorrent keine Ausnahme. Doch da die Hochschulen selbst nur Eigenproduktionen oder geprüfte Fremdinhalte anbieten, besteht hier keine weitere Gefahr. Eine Analogie: Die Hochschulen betreiben ja auch eigene Websites, auch wenn es anderswo im Web sicherlich auch illegale Angebote gibt. Inzwischen wird BitTorrent sogar vermehrt von der Industrie oder auch schon von Universitäten genutzt, einige Beispiele (entnommen aus Wikipedia):
Eine schöne interaktive Visualisierung der Funktionsweise von BitTorrent findet sich auf mg8.org.
Auffindbarkeit
Um entsprechende Inhalte jedoch in so einer Datenwolke finden zu können, bräuchte man einen idealerweise zentralen und globalen Suchindex. Dieser müsste nicht nur als Linkliste fungieren, sondern auch Metadaten über die einzelnen Ressourcen haben: Autor (und/oder Institution), Alter, Medientyp, Zielgruppe, Fach, Lizenz usw. Auch Kommentare, Bewertung und die typischen „social“ Eigenschaften sind hier angesiedelt. Diese zentrale Führungsrolle hat in anderen Bereichen PirateBay eingenommen, wäre es also nicht an der Zeit, die Technik zum guten zu Nutzen und ein EduBay zu starten?
Ob mit oder ohne so eine Zentralstelle, besteht natürlich die Möglichkeit, dass die einzelnen Hochschulen für ihren eigenen Downloadbereich, einen entsprechenden Indexer-Dienst betreiben, was gerade am Anfang für einen schnellen Start sorgen könnte. Es sollte jedoch die Option geschaffen werden, die Metadaten des Indexers abgreifen und weiternutzen zu können. Damit wäre es dann kein Problem mehr, eine entsprechende Suchmaschine zu speisen oder – im Falle eines Ausfalls – den nahtlosen Weiterbetrieb zu sichern. Ein universelles Austauschformat für die Metadaten wäre hilfreich.
Fazit
Was wir brauchen ist ein Piratebay für OER, doch die Idee an sich ist nicht neu: Schon 2010 hat Stephen J. O’Connor ähnliches formuliert. Dabei hat BitTorrent auch einige Probleme, die hier nicht näher genannt wurden, es ist nur eine Möglichkeit – eine andere Idee wäre das an der Standford University entwickelte LOCKSS – Lots Of Copies Keeps Stuff Safe – die Ziele zu erreichen:
- Jeder verteilt nur den Inhalt, den er vertreten kann.
- Jeder kann jeden Inhalt ohne Anmeldung komplett herunterladen und diesen…
- …unter dem selben Identifier weiterverteilen, auch wenn die Original-Quelle nicht mehr existiert.
- Ein globaler Such-Index ist möglich und wünschenswert, auch mehrere sind möglich.
Was sind eure Erfahrungen? Ist das Problem vielleicht gar keins? Gibt es schon andere Lösungen, die ich übersehen habe? Was nutzt ihr persönlich, um Inhalt zu veröffentlichen? Was nutzen ggf. die Hochschulen und andere Institutionen im Bildungsbereich? Und wo sucht ihr nach OER-Inhalten? Ich würde mich auf eine lebhafte und erkenntnisreiche Diskussion freuen!
49.382690
8.582790