Zukunft des Lernens

Die Uni Frankfurt veranstaltet gerade einen Offenen Kurs „Zukunft des Lernens“. Dazu ein Beitrag zum OpenCourse 2011 „Zukunft des Lernens“, 4.Woche:

Prof. Dr. Rolf Schulmeister (ehemals Uni Hamburg, jetzt Pädagogische Hochschule Zentralschweiz) hat am 13. März 2009 einen Vortrag über Personal Learning Environment (PLE) gehalten. Die Einleitung ist an historischen Lernumgebungen orientiert, also an der Vergangenheit, zu der Schulmeister noch eine tiefe emotionale Bindung hegt. Und dann kommt unvermittelt plötzlich eine metaphysierende Behauptung daher: Eine Idee, die sich beim Lernen in einer persönlichen Lernumgebung (mit Büchern, mit Bibliotheken, mit Mitarbeitern) bilde, sei das, was NICHT gesagt worden sei.

Das ist mal wieder so eine dieser Halbwahrheiten, die die Tatsachen eher vernebelt als klärt. Ja, es ist richtig, dass eine Idee nicht in einem Wort manifestierbar und ein Wort noch lange keine Idee ist. Und dennoch gibt es sie, die Idee und auch die Kommunikation der Idee. Und immer ist da das Ringen um Kommunizierbarkeit im Sinne von Wittgenstein II, das miteinander Teilen der Idee. Dieses Ringen um die richtigen Worte ist ebenso wichtig wie die Idee selbst. Das Internet mit Web 2.0 hat dieses Ringen auf eine nächste Stufe gehoben: Wir ringen jetzt nicht mehr nur um die richtigen Worte, sondern auch um die richtigen Kommunikationsmittel, -tools, -ebenen, -netze, -stile und -systeme.

Die Landkarte ist nicht das Gebiet. Vom selben Gebiet gibt es viele Landkarten. Per Kommunikation können nur Landkarten weiter gegeben werden, aber keine Gebiete. Alles Sagen dreht sich um das Gebiet und die Landkarten sind nur Mittel zum Zweck. Das Gebiet ist das Lernziel und nicht einer der Landkarten. Wittgenstein I: Alles was sich sagen lässt, lässt sich klar und deutlich sagen. Metaphysieren hilft niemandem.

Das Fragwürdige an der Argumentationskette von Schulmeister ist, wie er die Grenzen des Machbaren in PLEs letztendlich suggeriert: Weil das NICHT Gesagte nur in Präsenz-Veranstaltungen rüberkommt, taugen Online-Tools hierfür nicht. Und das NICHT Gesagte ist ausgerechnet das Wichtigste von Allem, die Idee. Ist das nicht eine Bankrott-Erklärung für Online-Lernen?

Weiter sagt Schulmeister: Wenn wir uns nur auf das konzentrieren, was heute möglich ist, dann machen wir einen Riesen-Fehler! Recht hat er. Im Technologischen hat sich Schulmeister offenbar eine geistige Offenheit bewahrt: Es sei völlig falsch, den Computer zu sehen als das, was er heute ist. Wir sollten vielmehr sehen, was in Zukunft damit möglich sein wird. Richtig.

Schulmeister sagt zu PLE letztendlich, dass man PLE nicht definieren könne. Später sagt er jedoch, dass nicht alle Wissensarten in PLE hinein passen. ??? Kommt darauf an, wie das gemeint ist:

(a) Zu jeder PLE gibt es eine Wissensart, die dort nicht hinein passt. Ja, mag vielleicht stimmen für geschlossene Umgebungen. Das ist aber nicht besonders aufregend. Definiert man jedoch das ganze Internet als PLE, dann ist die Aussage nicht falsifizierbar (vgl. Karl Popper) und damit unwissenschaftlich.

(b) Es gibt Wissensarten, die in kein PLE hinein passen. ??? Diese Aussage ist ebenfalls nicht falsifizierbar und damit unwissenschaftlich. Es ist falsch, solche Scheingrenzen in den Raum zu malen. Damit blockieren wir unsere Phantasie! Der Mythos des Gegebenen, das Märchen von irgendwelchen Grenzen, hält Menschen davon ab, nach neuen Ufern aufzubrechen. Wie oft müssen wir noch hören, dass die Erde eine Scheibe sei?

Damit bin ich wieder bei dem Thema „Ringen“: Lasst uns mit Web 2.0 weiter die Grenze des Kommunizierbaren verschieben, weiter um noch bessere Tools ringen, die Neues möglich machen, was noch nie möglich gewesen ist, anstatt über Grenzen zu spekulieren! Web 2.0 ist gewissermaßen Wittgenstein II auf eine Systemebene gehoben: Es geht nicht mehr nur um Sprache, sondern um das globale Kommunikationssystem.

Nächste These Schulmeister: Selbstreflexion und Kollaboration stören einander. Das sei das Ergebnis von www.icamp-project.org. Schulmeister schließt eine Spekulation daran an, dass man Selbstreflexion und Kollaboration besser trenne und Selbstreflexion doch besser einer Blended Learning-Umgebung vorbehalten sei. Präsenz-Anteile müssten sein, wenn es um Selbstreflexion ginge. Das ist Spekulation und noch viel zu undifferenziert. Welche Art von Selbstreflexion wird durch Kollaboration vereinfacht? Welche Typen von Selbstreflexion gehen präsent besser und welche online?

Differenzierung ist angesagt: Welche Art von Kollaboration geht mittels Präsenz-Unterricht besser? Welche geht mittels PLEs besser? Welche Art von Kultur braucht Präsenz? Welche Art geht online?

Geschieht Reproduktion von Kultur in der nächsten Generation grundsätzlich besser mit Präsenz-Unterricht als mit PLE? Kommt auf die Kultur an. Beispiel: Soldaten-Kultur. Präsenz-Unterricht ist hierbei selbstverständlich wirksamer als ein PLE es jemals sein könnte. Es ist absolut undenkbar, Wehrpflicht mittels PLE zu absolvieren. Das ist ein extremes Beispiel, dazu gedacht, einen Punkt deutlich zu machen: Die Kultur-Reproduktionsleistung verändert sich mit dem Gang ins Internet.

Um das zu verstehen, eignet sich sehr gut das neurowissenschaftliche Konzept der Spiegelneuronen: Die Wirksamkeit des Lehrers als Vorbild ist im Präsenzunterricht höher als via Internet (Modell-Lernen). Das Dumme ist nur, dass die Spiegelneuronen viel mehr erfassen, nicht nur den Lernstoff. Kultur-Reproduktion geschieht via Präsenz-Unterricht vielschichtiger als online. Ob ein Lehrer zum Vorbild taugt, hängt sehr stark von der Qualität und Reife des Lehrers ab.

Mit Präsenz-Schulung, -Konferenzen und -Kommunikation geht ein hoher Umwelt- und Zeitverbrauch einher. Das Volumen des Massentransports global steigt und steigt, weil keiner auf Präsenz verzichten will und keiner ehrlich eine Gesamtkosten-Rechnung macht.

Was hat mehr Qualität? Nach Hamburg zu reisen und die Rede von Rolf Schulmeister live zu erleben – oder das Video zuhause in aller Ruhe mit soviel Unterbrechungen wie notwendig durch zu arbeiten und dabei sich soviel eigene Gedanken zu machen, wie es in der Präsenz-Konferenz nicht möglich gewesen wäre? Es sind verschiedene Qualitäten. Präsenz ist besser für Spiegelneuronen und Reproduktion, Online ist besser für ungezielte Selbstentwicklung: Durch eigene Gedanken komme ich Pseudo-Argumenten und Pseudo-Wissenschaftlichkeit eher auf die Schliche, kann zwischendurch im Internet Unbekanntes recherchieren, den Hinweisen folgen und mir selbst ein Bild machen. Die Reproduktion der Denkweise des Redners und der Konferenzteilnehmer im meinem Denken nimmt dadurch jedoch ab.

iPod-Liberalismus versus Cyber-Hedonismus

Auf TED stellt Evgeny Morozov infrage, was er „iPod-Liberalismus“ nennt — die Annahme, dass technische Innovation immer Freiheit, Demokratie fördert. Dem stellt er „Cyber-Hedonismus“ entgegen. Die Wirkung des Internet lässt sich nicht so einseitig beschreiben, wie dies so häufig geschieht. Daher ein Beitrag von Evgeny Morozov zur differenzierten Analyse:

[ted id=641 lang=ger]

Die Wirkung des Internets auf die Gesellschaft stellt er mit folgender Tabelle dar:

Kategorie China US
Anteil Teenager mit Web-Sucht 42% 18%
Anteil Teenager mit Online-Parallel-Leben 61% 13%
Anteil Teenager, die jeden Tag online sein müssen,  um sich gut zu fühlen 25% 12%
Anteil Teenager, die ihr Sex-Leben durch das Internet erweitert sehen 32% 11%

 

Morozov überträgt die bekannte Maslowsche Bedürfnispyramide auf das Internet wie folgt:

Sein Schluss-Plädoyer lautet, dass die Internet-Euphoristen von der Wunschvorstellung Abstand nehmen sollten, dass das Abwerfen von genügend iPods über einer Bevölkerung  ausreichen würde. Vielmehr gehe es darum, Mechanismen zu finden, klugen Köpfen mehr Gehör und Einfluss zu verschaffen.

Ist es das? Oder kann man daraus noch andere Schlüsse ziehen?

Hedonismus-Schwelle: Im Internet ebenso wie in der physischen Welt gibt es eine grundsätzliche Barriere, die Hedonismus-Schwelle. Warum sollte man mehr tun, als nur zu konsumieren und es sich gut gehen zu lassen? Offenbar gibt es hier Parallelen in beiden Welten. Ob der Hedonismus physisch oder im Internet statt findet, spielt dabei keine Rolle.

Avatar

In seiner Rede auf einer TED-Konferenz

http://www.youtube.com/watch?v=ZFjY1fAcESs

beschreibt der Philosoph Prof. Thomas Metzinger, Uni Mainz, die Gummihand-Illusion („rubber hand illusion“): Man legt neben die versteckte reale Hand eine Gummihand. Dann stimuliert man beide simultan. In Minutenschnelle lernt das Gehirn die Gummihand als stimulierbar und zu sich gehörig. Wenn dann der Experimentator unvermittelt mit dem Hammer auf die Gummihand schlägt, wird das als Körperverletzung gespürt. Unsere Identifikation mit dem Körper ist also nichts festes, sondern erlernt und änderbar.

Thomas Metzinger geht über das Gummihand-Experiment hinaus und entwirft philosophische Experimente. Wenn das mit der Gummihand klappt, so spinnt er den Faden weiter, dann müsste es doch auch mit dem ganzen Körper klappen. Also werden Menschen mit ihrem ganzen Körper auf einen Körper in einer virtuellen Welt (Avatar) trainiert. Und siehe da: Dies geht auch in Minutenschnelle. Manchmal komme es auch zu außerkörperlichen Erfahrungen („out of body experience“).

Thomas Metzinger schließt mit einem Gleichnis: Wir bauen heute 3D-VR-Helme für das Eintauchen in virtuelle Welten. Dabei haben wir schon einen 3D-VR-Helm in gewissen Sinne an. Ja wir sind sogar mit diesem so eng verwachsen, dass es keine Distanz mehr gibt. Der verwachsene 3D-VR-Helm ist für uns selbstverständlich und nicht mehr bewusst.

Real und virtuell

Was ist real und was ist virtuell? Sascha Lobo In einem Spiegel Online Artikel schreibt Sascha Lobo, dass die so genannten realen Leute auf die Leute in der so genannten virtuellen Welt (auf die Blogger, Wiki-Schreiber, Twitterer, Facebooker) mit dem Finger zeigen und sagen: „Ihr seid in einer virtuellen Welt! Ihr seid in einer Parallelwelt!“. An diese Unterscheidung zwischen realer und virtueller Welt haben wir uns schon so gewöhnt, dass wir sie nicht mehr hinterfragen. Aber genau das macht Sacha Lobo in dem erwähnten Artikel. Er dreht den Finger um und zeigt auf die so genannte reale Welt: Was ist denn die Welt der Massenmedien, der Pressekonferenzen und der Nachrichten? Das sind die Scheinwelten. Es sind die Blogger, die auf die reale Welt (mehr oder weniger) hinweisen. Es ist also genau umgekehrt, als die Massenmedien uns weismachen wollen.

Was ist real und was ist virtuell? Diese Frage stellt sich in unserer Zeit auf eine erfrischende Weise neu und es tut gut, sich unvoreingenommen darauf einzulassen.

Denken und Fühlen

Warum fehlt in der Abbildung aus einem früheren Blogeintrag die Verbindung zwischen Denken und Fühlen?

Was sind die neurowissenschaftlichen Grundlagen? Für Fühlen und Denken sind unterschiedliche Bereiche des Gehirns zuständig: Für Fühlen gibt es das Reptiliengehirn, das sich im Laufe der Evolution früher entwickelt hat. Handlungen mit schnellen Entscheidungen sind primär gefühlsgesteuert. Das geht schneller und ist ein Überlebensvorteil.

Denkvorgänge geschehen dagegen im Neocortex, der sich wesentlich später entwickelt hat. Die Art und Weise der Zusammenarbeit zwischen beiden Gehirn-Typen ist nichts naturgegebenes, sondern wird gelernt, entsteht durch Sozialisierung und Reflexion.

 

Reifemodell

Die Erwartungen der Arbeitgeber an Absolventen einer Hochschule ändern sich. Es werden nicht nur Studierte erwartet, die das Fachwissen erlernt haben, sondern auch reife Menschen, die nicht mehr diese Anfängerfehler machen. Hochschule wird damit zu einem Ort der Menschenreifung – und seit Bologna im Turbo-Tempo („Turbo-Reifung„). In 6 Semestern sollen aus unreifen Jugendlichen reife Erwachsene werden, die mit ihren Arbeitskollegen und vor allem den Kunden zurecht kommen. Also brauchen Hochschulen jetzt ein Reifemodell für Studierende, aus dem hervorgeht, welche Reife gemeint ist und wie Stufen von Unreife zur Reife aussehen könnten. Was hat das mit Wissensgesellschaft oder Kompetenzorientierung zu tun? Nichts! Reife ist eine andere Dimension.

Das sind also die drei wesentlichen Dimensionen der Bildung: Wissen, Kompetenzen und Reife.

Reife entsteht nicht einfach mit dem Alter und Erfahrungswissen. Dazu gehört mehr. Es gibt Chancen, mit dem Alter reifer zu werden. Eine Garantie gibt es jedoch nicht.

Was bedeutet das für den Lehr- und Lernbetrieb einer Hochschule im Unterschied zur Schule? Frank Berzbach schreibt dazu in der FAZ am 15.6.2011: „Im Unterschied zur Schule folgt die Universität der Idee, dass Lehrende und Lernende eine Gemeinschaft Erwachsener bilden, die zusammen eine Thema befragen und erschließen. Der Orientierungsüberschuss der Lehrenden bezieht sich auf das Fachwissen oder Feldkenntnisse und weniger auf weniger auf die entwicklungspsychologische Reife. Wissens- und nicht Rollenhierarchien sind Kennzeichen der Universität. Bestenfalls arbeitet man auf Augenhöhe und etabliert eine Kultur gemeinsamen ‚forschenden Lernens‘. “ Der Erziehungsauftrag gehörte bisher definitiv nicht dazu.

Gunter Dueck teilt in einer seiner Typisierungen die Menschen ganz grob in ordentliche und kreative ein. Bisher habe Schule die ordentlichen Menschen einseitig bevorzugt und die kreativen unterdrückt bzw. diese auch zu ordentlichen Menschen erziehen wollen. Das hat nicht immer geklappt. Kreative, die so tun, als ob sie ordentliche wären, sind eben nur halb so gute ordentliche Menschen wie die richtig ordentlichen. An den Schulnoten gemessen sind sie nur halb so viel wert. Aber wie viel wert sind Schulnoten? Immer mehr Personaler stellen fest, dass sie die Falschen rekrutieren, wenn sie nur nach Noten gehen. Irgendwas scheint doch da schief zu laufen.

Unreife kreative Egoisten wollen nur ihren Spaß haben, können sich nicht einordnen und sehen keinen Sinn in Ordnung. Ordnung ist der Feind für unreife Kreative.

Unreife Ordnungshüter sehen die Macht der Ordnung, können alles darin einordnen und der Ordnung unterordnen. Für sie gibt es eigentlich nichts anderes als Ordnung. Kreative sind die Feinde des Ordnungsliebenden.

Erst auf einer reiferen Stufe sehen Kreative in Ordnung einen Sinn und umgekehrt Ordnungshüter in Kreativität einen Gewinn.

Wissenschaftfreiheit

Die Zeitschrift Forschung und Lehre (4,2011) geht auf das Grundrecht der Wissenschaftsfreiheit wie folgt ein: Dem Freiheitsrecht liege der Gedanke zugrunde, „dass gerade eine von gesellschaftlichen Nützlichkeits- und politischen Zweckmäßigkeitsvorstellungen befreite Wissenschaft dem Staat und der Gesellschaft im Ergebnis am besten diene.“ Als Informatiker würde man sagen, dass die Suche nach neuen Lösungen am besten ohne Einschränkungen, auch ohne noch so „gute Absichten“, sondern völlig frei erfolge: Wenn man den Suchraum nicht einschränkt, dann können sich Lösungen ergeben, die man ohne diese Einschränkung nicht hätte finden können. Das ist kein Aufruf zur Amoralität, sondern das Ergebnis erfahrener Geschichte. Wenn Galileo Galilei den damaligen Vorstellungen von Ethik und Moralität gefolgt wäre, hätte er seinen Befreiungsweg in die wissenschaftliche Denkweise nicht gehen können.

Any agreement protocol will become your bottleneck

In dem InfoQ-Video erklärt Amazon CTO Werner Vogels, dass
in hoch skalierbaren Systemen jede Art von Abstimmungsprotokollen irgendwann zu einem Flaschenhals werden: (15:50) „Any agreement protocol will become your bottleneck.“ 2PC ist z.B. eine solches Abstimmungsprotokoll und hat bereits den Spitznamen Nichterreichbarkeitsprotokoll („Unavailability protocol“). Irgendwann in der Skalierung, schon bei kleinen Shops, wird es die Ursache für die schlechte Erreichbarkeit sein. Die Lösung liegt nicht darin, mehr Hardware zu kaufen, sondern die Gesamtaufgabe zu analysieren: Wo benötige ich wirklich Transaktionen? Wo kommt es wirklich auf Sicherheit an? Wo kann ich auf Transaktionen verzichten? Ist ein anderes Design der Serviceleistung denkbar und machbar, das genauso attraktiv, aber nicht so schwerfällig ist?

Das CAP-Theorem wird dann im Video bei (36:45) erklärt: Von den 3 Werten C, A und P kann man immer nur 2 haben. Ab (46:17) wird erklärt, bei welchen Systemen welche 2-er Kombis von C, A und P bei welchen Aufgabenstellungen gewählt werden. Requirements Engineering, welches das CAP-Theorem nicht beachtet, muss spätestens bei der Skalierung der Systeme scheitern. Das geschieht häufig erst sehr spät im Projektverlauf. Nun haben wir eine gute Erklärung, warum so viele große Systeme erst in späten Projektphasen gescheitert sind.

D.h. man gibt in skalierbaren, hoch-verfügbaren Systemen die Garantie der absoluten Korrektheit auf. Was wir also sehen, kann schon veraltet sein oder aus anderen Gründen nicht mehr stimmen. Das sollte natürlich nur an den Stellen passieren, an denen man sich das leisten kann.

Qualitätsentwicklung

In dem Webauftritt von Prof. Binner habe ich folgende Charakterisierung des Qualitätsauftrags gefunden: „Das Ziel ist die erfolgreiche, nachhaltige, praxisnahe und professionelle Kompetenz- und Know-how-Vermittlung von Strategien, Methoden, Modellen und Konzepten zur effizienten, effektiven, flexiblen und individuellen:

  • Qualifizierung von Menschen,
  • Verbesserung von Prozessen,
  • Weiterentwicklung von Organisationen und
  • Implementierung eines Wissensspeichers.“

Damit zeigt sich der Zusammenhang von Qualitätsentwicklung zur Personal-, Prozess-, Organisations- und Wissensentwicklung. Was hier ein bisschen zu kurz kommt, ist ein Punkt, den ich noch hinzufügen möchte:

  • IT-Entwicklung

Erst in dieser Breite und umfassenden Sicht macht Qualitätsentwicklung Sinn. Aber dann kommt der Manager und will Qualitätsmanagement daraus machen. Dann müssen Kennzahlen her, denn wie soll man sonst wissen, ob man sich zum Besseren verändert. Am Besten nur eine Kennzahl! Und die muss optimiert werden. Management braucht Einfachheit. Wie sonst sollte man QM bei so vielen betroffenen Menschen durchsetzen?

Gunter Dueck schreibt dazu in seiner Kolumne im Informatik-Spektrum (34) 2-2011 unter der Überschrift „Neurotisierende Optimierung“: „Konzepte mit einer so einseitigen Ausrichtung sind generell bei Neurotikern zu beobachten.“ Damit weist er deutlich auf den Unterschied zwischen Einfachheit und Einseitigkeit.

CAP-Theorem

CAP steht für Consistency, Availability, Partition tolerance, also Konsistenz, Verfügbarkeit und Partitionstoleranz. Es begann mit einer Vermutung von Eric Brewer im Jahre 2000. Zu einem Theorem wurde es erst 2002 durch den Beweis der Vermutung durch Gilbert und Lynch. Das Theorem besagt, dass man nicht alle drei gleichzeitig haben kann, also C, A und P.

Das hat Konsequenzen für moderne Anwendungen, die immer stärker ins Web gehen. Bei hoch-skalierbaren Webanwendungen müssen wir uns entscheiden zwischen Daten-Konsistenz und hoher Verfügbarkeit. Beides ist nicht in gleichem Maße zu maximieren. Also machen wir entweder eine transaktionsorientierte Konten-Verwaltung, bei der der Kunde auch schon mal ab und zu warten muss, bis er dran ist, oder eine Web 2.0-Anwendung, in der immer alle gleichzeitig bedient werden, allerdings ohne die Garantie, dass alle das Gleiche auf dem letzten Stand, d.h. das aktuell Richtige sehen.

Noch abstrakter gesprochen, müssen wir uns entscheiden zwischen Sicherheit und Lebendigkeit. Wollen wir die Sicherheit einer Konten-Verwaltung einer Bank oder die Lebendigkeit einer Web 2.0-Anwendung?

Amazon sagt, ein Zehntel Sekunde zusätzliche Verzögerung auf ihrer Webseite koste sie 1% Umsatz. Google hat festgestellt, eine zusätzliche halbe Sekunde Wartezeit koste sie ein Fünftel der Kundschaft.

Pure Wirtschaftlichkeitsargumente führen daher zu einer Bevorzugung der Lebendigkeit einer Web 2.0-Anwendung. Ausreichende Sicherheit bekomme man dann auch noch durch kluges Design (Ajax, Interaktionsstruktur, Navigationsstruktur, …) hin, so Julian Browne.