Gastbeitrag: Alternative zu iTunes U und Co.

Veröffentlicht: Montag, März 25, 2013 in Gastbeitrag

Ein gern gesehener Gast in diesem Blog ist Boris Kraut, der schon zwei Gastbeiträge verfasst hat: einen zur Datenethik  und einen zu BYOD in der Schule. Hier kommt sein dritter Wurf, der sich sehr gut mit meinen eigenen aktuellen Überlegungen und Zweifeln zur Frage trifft, welche externen Server und Plattformen man eigentlich nutzen sollte… Boris, it’s your turn! …. ah, bevor es losgeht: Ihr alle seid natürlich auch herzlich eingeladen, einmal einen Gastbeitrag in meinem Blog zu veröffentlichen, z.B. wenn ihr keinen eigenen Blog besitzt… so, jetzt aber: Boris, leg los! 

Der aktuelle Frühjahrsputz bei Google und die damit verbundene Ankündigung, ihren RSS-Reader im Sommer einzustellen, haben für jede Menge Aufruhr gesorgt. Prinzipiell zeigt es aber nur, was eigentlich einleuchtend und allgemein bekannt sein sollte: Man kann sich auf externe Webdienste nicht verlassen. Die Erkenntnis ist nicht neu, aber jeder hat darauf vertraut, dass so etwas bei einem so großen und bekanntermaßen “nicht bösen” Unternehmen passieren würde. Es führt uns vor Augen, wie abhängig wir geworden sind – von erwachsenen Bezahldiensten und von jungen, sympathischen Startup-Unternehmen gleichermaßen.

Speziell zum Thema Webdienste habe ich z.B. im letzten Jahr einen Vortrag darüber gehalten, dass wir uns solcher Gefahren bewusst sein müssen und dass vor allem der häufig verwendete Begriff des “Tool” bzw. “Werkzeug” nichts mit der Realität eines Webdienstes zu tun hat, ja diese Realität sogar (absichtlich) verschleiert und beschönigt. Dieser Vortrag fand im Rahmen der GML² 2012 – Von der Innovation zur Nachhaltigkeit an der FU Berlin statt, weshalb ich von den aktuellen Geschehnissen um iTunes U an der FU Berlin (siehe Berichte auf netzpolitik.orggolem.detaz.detagesspiegel.de oder den Blogpost von Anatol Stefanowitsch besonders geschockt war und dies auch per Mail kundtat. Haben die denn nichts gelernt?

Was ist das Problem?

Eigentlich ausgelöst wurde der Sturm der Entrüstung eigentlich durch die in einer Mail bekannt gewordene Bitte bzw. Aufforderung des Kanzlers der FU Berlin, dass von der Nutzung anderer externer Internet-Plattformen zur Verbreitung von aufgezeichneten Lehrveranstaltungen und audiovisuellen Materialien abzusehen sei. Diese Exklusivität führt in eine totale Abhängigkeit und ist natürlich nicht hinnehmbar. Einige weitere Punkte, die Anatol anführt:

Die Inhalte wären nicht barrierefrei (sie könnten weder auf freien Betriebssystemen [Anmerkung (krt): ohne Aufwand] genutzt werden, noch in andere Anwendungen importiert werden); sie wären nicht offen (Apple hätte eine unbefristete weltweite kommerzielle Lizenz, was z.B. die Verwendung von CC-BY-NC-lizenzierten Materialien unmöglich macht; zudem ist unklar, wie die eingestellten Materialien ihrerseits weiterverwendet werden könnten); sie würde Lehrende in ein Vertragsverhältnis mit Apple zwingen. Um nur ein paar offensichtliche Gründe zu nennen.

Der letzte Punkt würde übrigens nicht nur Lehrende betreffen, denn prinzipiell ist jedes Angebot, dass über iTunes U verfügbar ist, Werbung für Apple. Man kann nur hoffen, dass das nicht dazu führt, dass Apple damit so erfolgreich ist, dass irgendwann kein Weg mehr an iTunes U vorbeiführt. Das wäre dann auch die Gelegenheit, wo sicherlich einige daran denken würden, auch die internen Systeme umzustellen. Noch geht es natürlich nicht darum, sind es nur Dystopien, aber wer kann heute schon sagen, wohin die Reise geht. Was mit externen Diensten, die nicht unter der eigenen Kontrolle stehen, passieren kann, hat man ja unlängst erlebt.

Inzwischen rudert die FU Berlin zwar per Pressemitteilung zurück (siehe auch: netzpolitik.orgtageswebschau oder tageswebschau (Einzelbeitrag))…

Eine exklusive Nutzung der Plattform iTunes U zur Präsentation von Lehrveranstaltungen und audiovisuellen Materialien ist nicht vorgesehen. Die Plattform soll in Ergänzung zu den an der Freien Universität Berlin verwendeten E-Learning-Systemen und dem offiziellen Internetauftritt zum Einsatz kommen.

…, aber wirklich erledigt hat sich das Thema damit nicht, denn auch der optionale Einsatz birgt weiterhin Probleme. Es scheint als ob man mit der Pressemitteilung lediglich die Wogen glätten wollte, ohne von von der bisherigen Position abzuweichen: Es wurde zwar den Befürchtungen Rechnung getragen, die darin den Anfang vom Ende des internen Learning-Management-Systems der FU sahen, worum es aber (momentan?) explizit nicht geht, und es wurde klargestellt, dass es sich in der Exklusivnutzung nur um eine Bitte handelt. An der eingeschlagenen Richtung ändert sich allerdings nichts, wie auch Anatol konstatiert.

Trotz der ganzen Aufregung, scheint sich aber niemand die eigentliche Frage zu stellen: Warum setzen immer mehr Universitäten bei ihrer Öffnung für die Allgemeinheit auf geschlossene Systeme? Natürlich ist iTunes U dafür ein Paradebeispiel, aber es gibt zig andere Hersteller die ähnliche Dienste anbieten. Und um ehrlich zu sein: Videos auf Youtube (oder Vimeo), Einträge auf Wikiversity oder auch eigene Downloadportale an den Hochschulen sind zwar ganz nett, lösen aber nicht das Problem. Auch bei der Forderung nach Open Educational Resources (OER) bleibt die Frage nach der Auffindbarkeit, Ausfallsicherheit und Einfachheit oft ungestellt. Und so verwundert es nicht, dass man sich lieber ein zentralisiertes und geschlossenes System ins Boot holt, als die rechtlichen, organisatorischen und technischen Probleme endlich selbst anzugehen.

Lösungsvorschlag: OER-Tauschbörse

Vor einigen Semestern habe ich an der PH Karlsruhe ein Seminar zur Entwicklung von Webservices betreut. Konkret ging es – nach etwas Motivation durch den Dozenten Ulrich Kortenkamp – um einen Dienst, der die Erstellung, Auffindung und Bearbeitung von eigenen wie auch fremden Unterrichtsverlaufsplänen vereinfacht. Der schnelle Austausch von Unterrichtsphasen war genau so möglich wie der Zugriff auf für die Stunde benötigtes Material. Wie auf jeder “sozialen” Plattform konnte man natürlich auch Bewertung und Kommentieren. Wie sooft fehlte es an Zeit und motivierten Mitarbeiten, um das Projekt wirklich voran zu bringen, aber auch nach dem Ende des Seminars, habe ich mich weiter damit beschäftigt. In einem ersten Schritt habe ich die Weboberfläche weggeschmissen und stattdessen alles zu einem schlanken “RESTful” Webservice umgebaut. Um das User-Interface sollten sich Leute kümmern, die davon mehr Ahnung haben, Designer. Dabei wäre es egal gewesen, ob die Oberfläche als Webpage oder in Form einer nativen Anwendung umgesetzt worden wäre.

Doch auch diese Idee kam nicht über einen Prototypen hinaus. Die Erkenntnis setzte sich durch, dass die Leute sich schon für die Software entschieden haben, mit der sie solche Sachen erstellen. Ebenfalls haben sie sich (leider) auch schon auf ein Dateiformat festgelegt. Hier gibt es zwar überall noch Verbesserungsbedarf, aber die eigentlich ungelösten Frage sind doch: Wenn ich jemanden ermutige, Inhalte freizugeben, wo und wie soll er diese veröffentlichen? Und – nicht unabhängig davon – wie findet ein Interessierter diesen Inhalt dann auch?

Genau die gleichen Fragen sind auch im aktuellen Fall wichtig zu beantworten. Das interessante ist, dass die Verfügbarkeit und eine leichte Auffindbarkeit teilweise gegenläufige Ziele sein können: Einfache Auffindbarkeit spricht für einen zentralen Dienst, z.B. wie iTunes U, was aber gleichzeitig die Verfügbarkeit absenkt. Natürlich kann man sich mit entsprechenden viel Hard- und Software-Ressourcen absichern oder gar komplett in die Cloud ausweichen, aber das schützt den Nutzer ja nicht davor, dass die zentrale Stelle selbst das Interesse verliert oder andere Vorstellungen und Ziele verfolgt – siehe das Google Reader Beispiel aus der Einleitung. Aber “Cloud” ist ein gutes Stichwort. Statt eine gekaufte Rechnerfarm hinter einem zentralen Einstiegspunkt zu nutzen, könnte man das Bild umdrehen: Eine Datenwolke aus gleichberechtigten Peers, die die Daten verteilt anbieten, und dazu zentrale Anlaufstellen, die einen Teil der Daten als ihren eigenen oder zumindest als nutzenswert prominent bewerben? Das Konzept ist nicht neu, es ist erprobt und funktioniert. Es nennt sich BitTorrent.

Datenspeicherung

Um das Problem nochmal zu verdeutlichen ein Beispiel: Wer auf YouTube eine Aufzeichnung seiner Vorlesung veröffentlicht, der muss damit rechnen, dass diese irgendwann nicht mehr verfügbar ist [Anm. cspannagel: Seufz! ;-) ]. Zwar ist es allein bei der Größe von Google/YouTube nicht sehr wahrscheinlich, dass das technische Gründe haben kann, aber die Sperrung aufgrund von – mal mehr, mal weniger ersichtlichen – Urheberrechtsverstößen oder aufgrund von Nutzerbeschwerden kann durchaus vorkommen. Vielleicht entscheidet Google auch einfach nur, dass dieser Inhalt nicht zu ihren AGB passt oder dass die dauerhafte Speicherung zu teuer wird. Aber was dann? Kein Problem, denkt man sich, denn es gibt ja nicht nur YouTube, also lade ich es einfach auf Vimeo und Co. hoch, vielleicht habe ich das auch schon per Cross-Posting getan. Aber damit haben wir das Problem nicht gelöst, sondern verschoben. Und außerdem hat so ein Wechsel einen großen Nachteil: die URL des Videos hat sich geändert. Wir brauchen die quasi-eindeutige Adressierbarkeit über den Speicherort hinaus, die also auch dann nicht kaputt geht, wenn die Original-Quelle weg bricht. Auch das leistet BitTorrent.

Wie würde das also konkret aussehen? Nun, eine Hochschule (um mal wieder mehr auf den Auslöser iTunes U einzugehen) legt ihre Aufzeichnungen und Materialien auf den eigenen Servern ab und veröffentlicht sie über BitTorrent. Sie garantiert, dass es eine Quelle gibt, die die Dateien komplett verfügbar hat, andere diese also auch komplett runterladen können. So viel nichts neues, das wäre auch mit FTP o.ä. ähnlich. Idealerweise werden jetzt von anderen Hochschulen und Universitäten diese Inhalte – nach sorgfältiger Prüfung – auf deren eigenen Servern gespiegelt, also dupliziert. Das passiert heute auch schon sehr häufig, aber der Unterschied ist, dass jeder, der diese Dateien über BitTorrent herunterlädt oder bereitstellt, automatisch als weitere Quelle genutzt wird. Das liegt daran, dass nicht direkt auf den Speicherort gelinkt wird, sondern auf eine Beschreibung der Datei selbst, die automatisch alle verfügbaren Quellen kennt.

Natürlich gibt es auch einige Probleme oder Nachteile. So sind z.B. von einmal veröffentlichten Dateien keine Aktualisierungen möglich. Hat sich bei der Erstveröffentlichung ein Fehler eingeschlichen, muss ein komplett neuer Torrent-Download erstellt werden, der die aktualisierte Fassung enthält. Man kann zwar auf den eigenen Servern die alte Fassung löschen, aber wenn andere Nutzer und Server noch die alte Version anbieten, werden für eine gewisse Zeit beide Versionen im Netz verteilt werden. In gewissem Maße lässt sich das ganze aber so weit eindämmen, dass das kein relevanter Kritikpunkt ist. Auch bei herkömmlichen Downloads lässt sich nicht erzwingen, dass jeder Nutzer automatisch die aktuellste Fassung nutzt. Ein Spezialfall von Updates ist natürlich die Löschung von Inhalten. Auch hier gilt: Man kann sie von den Rechnern unter der eigenen Verwaltung löschen, aber was andere tun, das lässt sich nicht vorhersagen oder gar erzwingen. Ein weiterer Punkt, den man ansprechen sollte ist ebenfalls kein Problem, sollte aber der Klarheit wegen angesprochen werden: Tauschbörsen jeglicher Art werden in den Medien häufig im Zusammenhang mit Urheberrechtsverstößen genannt, da macht BitTorrent keine Ausnahme. Doch da die Hochschulen selbst nur Eigenproduktionen oder geprüfte Fremdinhalte anbieten, besteht hier keine weitere Gefahr. Eine Analogie: Die Hochschulen betreiben ja auch eigene Websites, auch wenn es anderswo im Web sicherlich auch illegale Angebote gibt. Inzwischen wird BitTorrent sogar vermehrt von der Industrie oder auch schon von Universitäten genutzt, einige Beispiele (entnommen aus Wikipedia):

Eine schöne interaktive Visualisierung der Funktionsweise von BitTorrent findet sich auf mg8.org.

Auffindbarkeit

Um entsprechende Inhalte jedoch in so einer Datenwolke finden zu können, bräuchte man einen idealerweise zentralen und globalen Suchindex. Dieser müsste nicht nur als Linkliste fungieren, sondern auch Metadaten über die einzelnen Ressourcen haben: Autor (und/oder Institution), Alter, Medientyp, Zielgruppe, Fach, Lizenz usw. Auch Kommentare, Bewertung und die typischen “social” Eigenschaften sind hier angesiedelt. Diese zentrale Führungsrolle hat in anderen Bereichen PirateBay eingenommen, wäre es also nicht an der Zeit, die Technik zum guten zu Nutzen und ein EduBay zu starten?

Ob mit oder ohne so eine Zentralstelle, besteht natürlich die Möglichkeit, dass die einzelnen Hochschulen für ihren eigenen Downloadbereich, einen entsprechenden Indexer-Dienst betreiben, was gerade am Anfang für einen schnellen Start sorgen könnte. Es sollte jedoch die Option geschaffen werden, die Metadaten des Indexers abgreifen und weiternutzen zu können. Damit wäre es dann kein Problem mehr, eine entsprechende Suchmaschine zu speisen oder – im Falle eines Ausfalls – den nahtlosen Weiterbetrieb zu sichern. Ein universelles Austauschformat für die Metadaten wäre hilfreich.

Fazit

Was wir brauchen ist ein Piratebay für OER, doch die Idee an sich ist nicht neu: Schon 2010 hat Stephen J. O’Connor ähnliches formuliert. Dabei hat BitTorrent auch einige Probleme, die hier nicht näher genannt wurden, es ist nur eine Möglichkeit – eine andere Idee wäre das an der Standford University entwickelte LOCKSS – Lots Of Copies Keeps Stuff Safe – die Ziele zu erreichen:

  • Jeder verteilt nur den Inhalt, den er vertreten kann.
  • Jeder kann jeden Inhalt ohne Anmeldung komplett herunterladen und diesen…
  • …unter dem selben Identifier weiterverteilen, auch wenn die Original-Quelle nicht mehr existiert.
  • Ein globaler Such-Index ist möglich und wünschenswert, auch mehrere sind möglich.

Was sind eure Erfahrungen? Ist das Problem vielleicht gar keins? Gibt es schon andere Lösungen, die ich übersehen habe? Was nutzt ihr persönlich, um Inhalt zu veröffentlichen? Was nutzen ggf. die Hochschulen und andere Institutionen im Bildungsbereich? Und wo sucht ihr nach OER-Inhalten? Ich würde mich auf eine lebhafte und erkenntnisreiche Diskussion freuen!

Kommentare
  1. cspannagel sagt:

    Danke, Boris, für deinen sehr guten Beitrag! Ich selbst trage mich mit ähnlichen Überlegungen in letzter Zeit herum. Google Reader ist nur ein Beispiel, das mich ärgert. Ein anderes sind externe Anbieter etherpads, bei denen Inhalte nach einiger Zeit wieder gelöscht werden und bei denen ich immer ein ungutes Gefühl habe, ob ich denn weiterhin in Zukunft auf meine Inhalte zugreifen können werde. Daher habe ich mich jetzt dazu durchgerungen, einen eigenen etherpad-server zu installieren (bei uberspace.de, ein toller Anbieter, aber auch extern (löst also das grundsätzliche Problem nicht)). Ein drittes Beispiel ist wikiversity, deren Zukunft ungewiss erscheint und bei der ich zahlreiche Inhalte platziert habe… doch löst ein eigenes wiki das Problem?

    Eine Anmerkung zu deiner Verteil-Idee, die ich vom Prinzip her klasse finde: Es muss gewährleistet werden, dass nicht nur einzelner “content als file” verteilt werden kann. Man kann so zwar prima Vorlesungsvideos verteilen, aber Multimedia-Skripte, die Videos, mathematische Formeln und interaktive Aufgaben beinhalten, eher weniger. Dafür sind ja gerade Wiki-Seiten geeignet. Wäre so etwas von einem solchen Verteilungsprinzip ausgenommen? Braucht man für so etwas einen eigenen Wiki-Server? Und macht ein Wiki nicht gerade eine Community aus? Macht dieses Tatsache es nicht nötig, dass eben gerade ein Großteil dieses Community auf einem Server arbeitet, der nicht ihnen selbst gehört (also extern gehosted ist)?

  2. Boris sagt:

    Hi,

    @uberspace: ja, immer eine Empfehlung wert :)

    @”content als file”: Genau der Punkt wurde schon ein paar mal angesprochen, weshalb ich auch anderenorts einen kleinen Nachtrag zu dem Posting verfasst habe. Das ganze System ist quasi die Langzeit-Archivierung, aber für aktives Arbeiten natürlich kaum brauchbar. Von daher ersetzt es keine Online-Kurse, keine MOOCs, kein LMS. Es soll zwar auch ein Streaming-Ableger von Torrent geben, aber das ist auch keine wirkliche Lösung. Die Frage ist, ob man das Problem aufteilen kann, oder ob man eine komplette Masterlösung braucht.

  3. Boris sagt:

    Oops, den Nachtrag vergessen. Hier ist er:

    Was aus dem Originaltext eventuell nicht ganz so klar wird: Es geht hier nicht darum, eine weitere MOOC-Plattform zu erstellen, die jetzt als “Feature” eben die verteilte Datenhaltung hat. Das ganze dreht sich erstmal um die drei Fragen: Wie wollen wir OER vom einzelnen Arbeitsblatt, über Videos zu SVPs oder kompletten Onlinekursen – speichern? Wie soll der Zugang dazu gestaltet sein? Und: Wie finden wir diese Informationen. Für MOOCs könnte also eine Nutzung so aussehen, dass man die dafuer erstellten Inhalte oder den kompletten Kurs (bzw. dessen “Quelltext”/Rohform) in eine Offline-Version packt und diese dann über ein verteiltes Netz veröffentlicht. Als letztes sollte man dann noch auf einer der Indexer-Seiten, ein paar Metainformationen zu diesem Download ablegen. Neben den hochschuleigenen Seiten könnte ein globaler Index durchaus von bekannten Seiten wie oercommons.org (das verletzte mit seinem Anmeldezwang leider eine meiner Vorraussetzungen), zum.de oder bereitgestellt werden.

    Der Unterschied zu OER/CC-Suchmaschinen ist offensichtlich: Das sind Maschinen, die Inhalt im Netz finden, diese klassifizieren und das Ergebnis dem Nutzer über eine Suche zur Verfügung stellen. Der Inhalt der Indexer wird manuell eingepflegt und kategorisiert – idealerweise gibt es sogar eine (didaktisch fundierte) Bewertung. Eine Suche ist ein Filter auf den Einträgen, die der Indexer kennt. Es wird nicht im Web gesucht. Manuell und nicht webweit? Klingt nicht besonders interessant? Nun, search.creativecommons.org ist z.B. gar keine “echte” Suchmaschine, sondern fragt lediglich bestimmte Seiten ab, die Inhalte sowieso schon mit einer maschinell abfragbaren Lizenz markieren. Warum gibt’s dort nicht eine Kategorie für den Bildungsbereich? Eben, warum nicht?

    Aber manuell gepflegte Inhalte und “gesichtete” Versionen. Das klingt doch stark nach Wiki, oder? Klar, ein paar Links samt Metainformationen kann man auch in Wikis ablegen. Ich selbst finde die meisten Wiki-Suchen zwar nicht sonderlich gut, aber man kann damit ja erstmal Arbeiten. Wenn man schon dabei ist, sollte man dann nicht gleich die ganzen Inhalte und nicht nur den Index in einem Wiki pflegen? Das wurde sicher schonmal probiert, ist aber hauptsächlich für Textproduktion ausgerichtet und löst das Zentralisierungsproblem nicht (oder gibt es Wikis mit verteilter Datenhaltung?). So ein Wiki kann man zum gemeinsamen Arbeiten und Erstellen der Inhalte nutzen, die “fertige” Version sollte aber dann anderweitig veröffentlicht werden. Hier kommt dann das o.g. “Update”-Problem zum tragen, einmal verteilte Inhalte, müssen komplett ersetzt werden und können nicht inkrementell aktualisiert werden. Das ist für ständig im Fluss befindliche Inhalte natürlich ein No-Go und selbst bei nur gelegentlichen Veränderungen ist das mehr als ärgerlich, aber – meiner Meinung nach – verschmerzbar.

  4. Boris sagt:

    Und ein letzter Teil (ich stell mich auch gleich freiwillig in die Ecke für das 3x Posting):

    Die Suchseite ist ein zentraler Index, aber davon kann es mehrere geben, bei jeder Hochschule oder bei jedem anderen Teilnehmer. Das wichtig ist, dass die Metadaten ausgetauscht werden. Man könnte dafür RDF (Format) und DublinCore (Beschreibung gebräuchlicher Metadaten) nutzen. DC kennt sogar wichtige Metainfromationen wie “educationLevel: A class of entity, defined in terms of progression through an educational or training context, for which the described resource is intended.” und weitere.

    DublinCore Elemente:
    http://dublincore.org/documents/2012/06/14/dcmi-terms/?v=elements

    Wikipedia zu DublinCore:
    https://en.wikipedia.org/wiki/Dublin_Core

    Wikipedia zu RDF:
    https://en.wikipedia.org/wiki/Notation_3
    https://en.wikipedia.org/wiki/Resource_Description_Framework

    Und jetzt hoffe ich, dass ich nicht alle erschlagen und abgeschreckt habe :)

  5. [...] Alternative zu iTunes U und Co.: Der aktuelle Frühjahrsputz bei Google und die damit verbundene Ankündigung, ihren RSS-Reader im Sommer einzustellen, haben für jede Menge Aufruhr gesorgt … dunkelmunkel [...]

  6. dunkelmunkel sagt:

    @Boris Das Problem mit Metadaten: Kein Mensch mag Metadaten angeben. Die ganzen Initiativen, die es schon länger gibt (Dublin Core / LOM / …) sind letztlich nicht angenommen worden, weil es zum einen ein erheblicher Aufwand ist, Metadaten zu adden, zum anderen ist es keine eindeutige Sache: Lernobjekte können in unterschiedlichen Lernkontexten unterschiedliche Funktionen übernehmen…. einem Objekt eine didaktische Funktion zuzuschreiben geht beispielsweise gar nicht, oder Lernziele, die damit verfolgt werden (Objekte kann man in der Regel für unterschiedliche Lernziele einsetzen). Insofern: Metadaten macht niemand. Taggen ist letztlich der Web-2.0-Kompromiss, den viele Menschen noch mitgehen. Mehr ist erfahrungsgemäß nicht drin.

  7. Boris sagt:

    @Christian: Das seh ich etwas anders. Erinnerst du dich noch an die Zeit, in der das web so ganz “neu” war? Hast du da mal in den Source der Seiten geschaut? Die haben sich ja mit Metadaten überschlagen. Das hat nicht aufgehört, weil die Leute es nicht mehr machen wollten, es hat aufgehört weil es keinen Nutzen hatte (noch schlimmer: SEOs haben es ausgenutzt und google hat aktiv dagegen optimiert). Wer nur taggen will, der tagt halt nur – auch das sind Metadaten. Und um ehrlich zu sein, Gegenläufige Metadaten, weil der eine es so sieht/so nutzt, der andere anders? Ist eigentlich auch kein Problem…

    Wo du Recht hast, ist der Aufwand (wenn du auf den Screenshot anspielst). Nen Abstract zu schreiben ist keine Sache, weil man es halt vor den Text tut. Das Abstract dann aber in nen eigenes Formularfeld reinzutippen ist schon wieder Aufwand. Tags mit Prefixen zu versehen ist keine Mehrarbeit, sie irgendwo gesondert einzugeben schon. Das Expandieren danach und “in Form” bringen, machen Computer sicherlich geschickter. Nur ganz ohne menschliche Mitarbeit wird es nicht gehen, das was Algorithmen da meist abliefern ist ganz nett, aber noh nicht da, wo es wirklich funktioniert. Wir können aber auch gern auf Google warten.. oh.. stimmt, da war was…

  8. Boris sagt:

    Zu den Metadaten: Wenn man das mit dem “echten Netz” vergleicht mag das zwar nicht gangbar sein, aber wenn ich miranschaue, wie der derzeitige Stand an den PHen ist ( http://www.ph-karlsruhe.de/institute/ph/zim/service/lehrende/aufzeichnungen/ ): Da werden Metadaten unstrukturiert per Mail eingepflegt.. das ist RDF schon komfortabler :)

    Ausserdem, kennst du den hier: Wie gleicht man LFS mit StudIP ab? Wenn du die antwort kennst, wie mna es machen kann und wie man es an einigen Hochschulen macht, dann weisst du: Metadaten einzugeben wird nicht das Problem sein. Die haben da schon Übung :)

  9. mosworld sagt:

    Puh, sehr langer Artikel. Kann sein dass ich etwas überlesen habe. Habe mich aber sehr lange mit dem Thema beschäftigt. Die RWTH war die erste Hochschule in Deutschland die auf iTunes U war und ist. Hier die Erfahrung und was grob unsere Umfragen sagen. Niemand, na ja quasi keiner der Studierenden nutzt iTunesU. Wir haben einem nennen wir es so Apple Lehrstuhl. Deren Studierenden nutzen es häufiger, weil dort die Vorlesungen sind und der Prof. sehr oft fehlt. So die Studierenden die Vorlesung aus dem letzten Jahr sich ansehen damit sie etwas mitbekommen. Ansonsten haben von über 1000 unserer Studierenden ca. 1,5% gesagt dass sie täglich, 3Mal die Woche oder 1 Mal die Woche ITunesU nutzen. Das ist sehr sehr wenig wenn ich das bewerten kann. Die meisten Nutzenden kommen von außen und schauen gerne den IPhone Dev Kurs und dann Web-Technology Vorlesung. Hier werden meist die ersten “Folgen” nur geschaut. Wobei iTunes wohl den Aufruf der ITunes Seite zählt wenn es um das Ranking geht und nicht den tatsächlichen Aufruf des Videos. Da die Videos bei uns gehostet sind haben wir da eine genaue Statistik. Das heißt eine Upload mit guten Keywords bringt einen nach oben, ohne dass das Video geschaut wird. Dann kann man mit seinem Lehrstuhl Werbung machen, dass man unglaublich hoch ist bei iTunesU und wie viele das Video sehen (was ja faktisch falsch ist, da ja nur bei iTunes die Seitenbesucher gezählt werden).

    Ich finde http://videolectures.net/ sehr gut. Yovisto.com finde ich auch gut. Alles was Webbasiert ist finde ich gut. Youtube ist auch eine alternative.
    Yovistio gibt einem sehr gut in den Videos nach Inhalten zu suchen, was sehr cool ist.

  10. Boris sagt:

    @mosworld:

    Danke schonmal fürs Durchlesen/-kämpfen :)

    Die Infos zu iTunesU sind interessant, aber das ganze iTunes ist ja nur ein sehr prominenter Aufhänger. Die eigentliche Frage im Artikel geht auch weniger darum, ob wir eine Alternative dazu brauchen (von denen wir ja einige haben, im Bereich Videos auch die von dir genannten — besten Dank dafür!), sondern darum, ob

    a) eine “anbieter- bzw. ortsgebundene” Speicherung wirklich langfristig das ist, was wir für solche Inhalte haben wollen und

    b) ob wir eine Art gemeinsames Inhaltsverzeichnis dafür brauchen.

  11. klabo sagt:

    Vielleicht recht interessant: ab 8.4. beginnt ein MOOC zum Thema OER!
    Der Link zum Programm: http://www.coer13.de/program.html

  12. Boris sagt:

    Mal das ganze technische Weggelassen und das Pferd von der anderen Seite aufgezaeumt, hier mal ein paar Forderungen fuer freie Bildungsinhalte, die sich nicht nur wie OER um die Lizenz, sondern aktiv um die Verfuegbarkeit und Zugaenglichkeit drehen:

    1. Der Zugang zu Inhalten muss frei sein. Er darf dabei auch
    nicht durch eine (kostenlose) Zwangsregistrierung erschwert
    werden.

    2. Die Weiterverbreitung von Inhalten muss ohne Einschraenkungen
    erlaubt sein. Idealerweise werden weitere Freiheiten gewaehrt,
    die z.B. auch das Veraendern und die Weiterverbreitung dieser
    veraenderten Werke erlauben.

    3. Die Verfuegbarkeit der Inhalte muss garantiert sein. Die Daten
    muessen redundant an mehreren Orten gespeichert werden.

    4. Die Benennung der Inhalte muss eindeutig und frei sein. Sie
    zeigt auf den oder die aktuellen Speicherorte und darf nicht
    von einer zentralen Zulassungsstelle festgelegt werden.

    5. Die Auffindbarkeit der Inhalte muss gesichert sein. Es muss
    einen oder mehrere Indexseiten geben. Sowohl Index wie auch
    Metadaten (Altersstufe, Fachbereich, …) muessen ebenfalls
    frei abruf- und austauschbar sein.

    https://entropia.de/~krt/2013-04-05T15:54:16.00Z.txt

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ photo

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s