Software oder Organisation anpassen?

Wenn man Informatik-Systeme neu in eine Organisation bringt oder bestehende migriert, stellt sich immer die Frage, wer sich wem anpassen soll:

  • Soll die Software an die Gegebenheiten der Organisation angepasst werden?
  • oder…

  • Soll die Organisation an die Gegebenheiten der Informatik-Systeme angepasst werden?

Letztendlich ist dies eine Kostenfrage:

wpid-PastedGraphic2-2016-01-20-08-46.png

Dort, wo eine Softwareanpassung preiswerter ist, ist diese vorzuziehen. Dort, wo eine Organisationsanpassung preiswerter ist, ist jene vorzuziehen. Jedoch sind bei dieser Betrachtung auch die versteckten Kosten und die Folgekosten mit einzubeziehen. Das wiederum macht die Entscheidung komplex. Die Reduktion der Betrachtung auf eine betriebswirtschaftliche Größe war nur eine Pseudoreduktion.

Dennoch ist das Bild hilfreich: Es gilt die goldene Mitte zu finden: Software dort anpassen, wo sie sich einfach anpassen lässt und ansonsten die Organisation anpassen.

Aber was ist „einfach“? Für ein Genie ist vieles einfach, was für einen Normalo schwierig oder gar unmöglich ist. Daher kann man Programmierung eben doch nicht nach Indien auslagern („Outsourcing“, „Offshoring“). Wir brauchen auch Informatik-Genies im eigenen Land.

Sozio-technischer Verstärkungskreislauf

Das BMBF hatte das Wissenschaftsjahr 2014 unter das Motto „Die Digitale Gesellschaft“ gestellt: Das BMBF schreibt als Fazit: „Es zeigte auf, wie Wissenschaft und Forschung diese Entwicklung mit neuen Lösungen vorantreiben.“

Dahinter steht noch ein lineares Modell für Innovation:

  1. Wissenschaft und Forschung bringen neue Ideen für Innovation
  2. Die Industrie greift innovative Ideen auf und erzeugt innovative Produkte
  3. Innovation in der Gesellschaft wird dadurch vorangetrieben

wpid-PastedGraphic4-2015-02-16-15-04.png

Jeder Wissenschaftler und Forscher ist Teil dieser Gesellschaft und wird selbst von der Innovation geprägt. Dadurch ergibt sich ein Kreislauf:

wpid-PastedGraphic5-2015-02-16-15-04.png

Der Jahrhunderterfinder Edison erfindet disruptive Technik und macht daraus ein Massenprodukt, von dem alle betroffen sind.

Dieser Kreislauf dreht sich immer schneller. Die Anzahl der Erfinder, die disruptive Technik erfinden, wächst rasant an. Es wird gleichzeitig parallel an unterschiedlicher disruptiver Technik gearbeitet, die über viele Produkte Innovation voran treibt. Dadurch entsteht die „Sozio-technische Verstärkungsspirale“:

wpid-PastedGraphic3-2015-02-16-15-04.png

Jeder einzelne Mensch, auch jeder Wissenschaftler und Forscher, gerät unter immer stärkeren Innovationsdruck, der stärker aus der Gesellschaft kommt als aus der eigenen Wissenschaft und Forschung, mit der man sich gerade beschäftigt. Die Innovationsbreite und Innovationsparallität hat gewaltig zugenommen. Da reicht es nicht, sich mit der Speerspitze der Forschung in einem kleinen Teilbereich eines Spezialgebietes eines Wissenschaftszweiges zu beschäftigen und die Innovation beschränkt auf diesen winzigen Ausschnitt zu kennen. Trotz aller Aufgeschlossenheit für Wissenschaft und Forschung veraltet das eigene Wissen auf allen anderen Gebieten, die man nicht so intensiv verfolgt, immer schneller. Von Freunden und Bekannten kommt Innovation schneller in das eigene Leben als aus dem engen Wissenschaftsgebiet, auf dem man forscht. Immer wieder sieht man wie Menschen auf dem Spaziergang die Köpfe zusammenstecken, um sich gegenseitig die neuesten Apps auf ihrem Smartphone zu erklären und stolz zu präsentieren. Ja sogar aus dem Kinderzimmer kommt Innovation in einem Tempo, dass Eltern schnell den Anschluss verlieren (von Hochschulprofessoren ganz zu schweigen …).

Die „Digitale Gesellschaft“ selbst wird zum Innovationstreiber – Industrie, Wissenschaft und Forschung, ja selbst Regierungen zu Getriebenen.

Rituale des Burnouts

Das Leben ist kurz und wird immer schnelllebiger. Daher entwickelt die Gesellschaft Rituale, aus der kurzen Zeitspanne des Lebens mehr heraus zu holen,
vor Allem mehr Glück. Seit Mihály Csíkszentmihályi wissen wir, dass dies mit Flow geht. Also entwickelt die Gesellschaft Rituale, um immer schneller und öfter in den Flow zu kommen und möglichst lange im Flow zu bleiben. Die Kunst dabei ist, sich zwischen Unter- und Überforderung, zwischen Stress und Langeweile zu navigieren. Dann fühlt man sich glücklich. Das hat auch die Spieleindustrie erkannt und baut nun Mechanismen für Flow-Adaption (Dynamic Difficulty Adjustment, kurz DDA) in ihre Spiele ein.
wpid-PastedGraphic-2015-01-26-13-582.png

Mittlerweile ist dies bei Spielen Standard. Spiele ohne Flow-Effekt kommen erst gar nicht auf den Markt. Die „Generation Happy“ wird damit optimal bedient.

Schon der erste Spieleentwickler, der Apple-Mitbegründer Steve Wozniak, erzählt in seinen Memoiren “iWoz“, dass er „vorausschauend als Erfinder, Hardwarebastler und Programmierer bereits in das erste Computerspiel “Pong” (Tennissimulation) absichtlich einen Betrugs- und einen Sucht-Faktor eingebaut hatte: Der Spieler wird systematisch dadurch betrogen, dass Treffer und Fehlschläge nicht objektiv und neutral bewertet werden, sondern schlechte Spieler einen Bonus bekommen, damit sie weiter spielen, während gute Spieler sich mehr anstrengen müssen. Das Spiel ist so programmiert, dass es nicht zu schwer und nicht zu leicht ist und adaptiert sich an das Können des jeweiligen Spielers so, dass dieser weiter spielen will (Digitaler Sog). Diese Adaption hält ihn im Flow-Kanal (nach der Glücksforschung von Mihaly Csikszentmihalyi: Ausschüttung der Glückshormone Dopamin etc. bei bewältigbaren Herausforderungen, nicht zu schwer und nicht zu leicht), macht ihn glücklich und süchtig nach dem Spiel. Heute ist in jedes Computerspiel der Suchtfaktor eingebaut. Ohne Suchtfaktor hat kein Spiel mehr Marktchancen. Die sozialen Komponenten in Browser-Spielen erweitern dies um soziale Sucht-Faktoren. Während Flow früher Ergebnis lebenslanger Suche, hartem Training und auf wenige Glücksmomente reduziert war, findet man die tägliche Flow-Erfahrung heute in jedem Kinderzimmer. Das Ergebnis sind Dopamin-Junkies bereits im Kindergarten, die jeden Montag morgen wieder eine Phase des kalten Entzugs durchlaufen und neu geerdet werden müssen. An der Universität Stanford versucht man bereits, dieser neuartigen, digitalen Sucht, die auch bei Erwachsenen zu einem Massen-Phänomen geworden ist, mit speziellen Psychologie-Programmen zu begegnen, siehe “Kelly McGonigal argues we’re becoming addicted to our devices. Here’s how to unplug.“. Flow ist heute nicht mehr das Ergebnis einer Meisterschaft in einem hochwertigen Können, sondern das Ergebnis von Gamification und Social Media. Damit ist das Problem der zu frühen Fixierung auf die zu kleine und zu leichte Meisterschaft entstanden. Der digitale Sog kann diese Fixierung zu lange stabilisieren und die Motivation zu höherwertigerem Können sabotieren.“ (bereits in meinem Blogeintrag vom 20.12.2012 beschrieben).

Was wir nun als gesellschaftliches Phänomen beobachten dürfen, ist keineswegs die Vermehrung von Glück. Stattdessen schaffen es die Flow-optimierten Games und Flow-optimierten sozialen Netze, die Menschen immer schneller in den Flow zu führen und dort festzuhalten. Die Nächte werden durchgemacht, weil das Spiel so spannend ist oder weil so viele Leute auf Facebook so viel Interessantes gepostet haben. Die Folge ist Erschöpfung. Man hört mit den spannenden Betätigungen erst dann auf, wenn es nicht mehr geht, wenn der Körper schlapp macht oder einem der Kopf brummt. Und das nicht nur einmal, sondern täglich, als Ritual.

Statt der Verbreitung von Glück erleben wir die Verbreitung von Burnout.

Die Perzeptions- und Handlungsgewohnheiten, die Rituale des Flows sind zu Ritualen des Burnouts geworden.

Auf der Suche nach Glück hat die Gesellschaft breite Pfade in den Burnout entwickelt, der von Massen unbewusst und unbeachtet durchlaufen wird.

Dabei steht Gamification auch auf der Agenda der Bildungsforscher. Der eingebaute Betrug in Gamification bei Spielen schädigt niemanden ernsthaft, während es in der Bildung durchaus zu Schädigungen kommen kann: Wenn dem Schüler irreführend weiß gemacht wird, dass er das Bildungsziel erreicht habe, nur damit er im Flow-Kanal bleibt, so wird das eigentliche Bildungsziel nicht erreicht.

In der Bildung sollte die Konfrontation mit der Wirklichkeit immer noch „betrugslos“ funktionieren. Intelligenz entwickelt sich gerade im betrugslosen Umgang mit der Wirklichkeit, anders als Flow-optimierte Spiele. Das ist der eigentliche Grund, warum Flow-optimierte Spiele Intelligenz keineswegs fördern.

Ein Lehrer würde einen Schüler um eine Lernchance betrügen, wenn er Lernerfolge melden würde, die gar nicht statt gefunden haben. Bei einem kommerziellen Spiel steht Kommerz im Vordergrund.

Super-Wissenslandkarte

Wie kann man in seiner Informationssammlung den Überblick behalten? Wenn man seine Informationssammlungen in Wissenslandkarten organisiert, dann ist die Landkarte für den Überblick die „Super-Wissenslandkarte“ (engl. big map).

Bisherige Tools sind dafür weniger geeignet:

  • Zettelkästen, Datenbanken, Cloud-Lösungen wie Evernote ermöglichen zwar die Sammlung, aber weniger die Strukturierung bis hin zur „Super-Struktur“ der „Super-Wissenslandkarte“.
  • Präsentationen wie Powerpoint oder Prezi haben ihren Schwerpunkt leider NUR auf der Präsentation. Es fehlt das Backend der Wissensverwaltung.
  • Mind Maps eignen sind für Brainstorming, Sammeln und Hierarchisieren. Zwar lassen fortgeschrittene Mindmapping-Werkzeuge auch Querverweise zu. Wenn man von diesen jedoch tatsächlich Gebrauch macht, wird das Ganze schnell unübersichtlich.
  • Concept Maps erlauben dagegen Netzwerke und lösen daher dieses Problem. Die fehlende Hierarchie ruft jedoch schnell ein anderes Problem hervor: Die Netzwerke lassen sich nicht mehr planar darstellen. Man verliert vor lauter Querverbindungen den Überblick.
  • Pinnwände (Spatial Hypertext) lassen die Querverbindungen ganz weg und codieren Zusammenhänge durch Gruppierung und örtliche Nähe der Objekte, die semantisch zusammenhängen.

Stattdessen werden neue Tools entwickelt, die die Vorteile der genannten Tools nutzen, aber deren Nachteile vermeiden, z.B. iMapping. Was man eigentlich braucht ist ein semantisches Netzwerk, aus dem die oben genannten Darstellungen als Sichten (Views) bei Bedarf generiert werden können, ohne dass man immer alles gleichzeitig sehen und beachten muss.

Eine gute Einführung in iMapping findet man in folgendem Youtube-Video:

In dem Video beachte man das Herein- und Heraus-Zoomen, wie man es von Prezi her kennt, diesmal ist das aber nicht bloße Effekthascherei, sondern echte Visualisierung einer Semantik.

Das iMapping Tool setzt das von Dr. Heiko Haller entwickelte iMapping Verfahren um. Es enthält außerdem das semantische Suchwerkzeug QuiKey, das es leicht macht, Inhalte strukturiert abzufragen, siehe

Eine kostenlose Variante des iMapping Tool kann man sich auf der iMapping-Webseite herunterladen. Es läuft auf allen Plattformen, die Java erlauben.

Die Konzepte stammen aus der Dissertation „User Interfaces for Personal Knowledge Management with Semantic Technologies“ von Dr. Heiko Haller.

SOA für die Cloud

„Was ist Gesellschaft?“
Niklas Luhmann sagt: „Es ist die Kommunikation!“
Also das, was kommuniziert wird,
macht die Essenz der Gesellschaft aus.
Menschen kommen und gehen, aber etwas bleibt.
Was ist dieses „Etwas“?

Computer-Anwendungen gibt es viele.
Aber reden die auch miteinander?
Auch heute noch ist Abtippen an der Tagesordnung,
weil Programme nicht miteinander reden können:
Copy-Paste oder:
Man tippt die Daten aus dem einen Fenster
in das Formular eines anderen Fensters.

Um diesen Misstand zu beheben,
gab es viele Versuche zur Integration.
Service-oriented Architecture“ (SOA) ist so ein Versuch,
aus vielen Einzellösungen eine Gesamtlösung zusammen setzen zu können,
damit aus Anwendungen ein Unternehmensprozess werden kann.

Das WWW war weit weniger ambitioniert,
hatte keine Integration zum Ziel,
sondern liefert lediglich die technische Grundlage für viele weltweite Cloud-Dienste.
Davon gibt es immer mehr, sie werden immer beliebter.
Aber reden die auch miteinander?

Nun kommen die ersten Integrationsdienste auf den Markt,
die die vielen Cloud-Dienste bündeln,
so dass ein einfacher Mensch aus der Vielfalt wieder Nutzen ziehen kann,
z.B. Slack
https://slack.com/integrations

wpid-integrations_circular_graphic_@2x-2014-12-6-16-48.png

Komplexität ist kein Ziel,
sondern der Preis, den wir bezahlen müssen,
wenn wir immer mehr Dienste nutzen wollen,
um immer mehr in kürzerer Zeit zu leisten.

Komplexität ist das Problem.
Immer wieder neue geistreiche Abstraktionen sind die Lösung.

Gemeinsam sind wir blöd

In seinem Buch „Gemeinsam sind wir blöd“ beschreibt Fritz Simon, Professor für Führung und Organisation an der Universität Witten/Herdecke, den Effekt, dass die Gesellschaft sich irrational, unintelligent, ja gerade zu „blöd“ verhält, trotz der klugen Einsicht ihrer Mitglieder und einzelner Vertreter. Neben der viel beachteten Schwarmintelligenz gibt es auch Schwarmdummheit. Jeder kann schnell eine Vielzahl von Beispielen aufzählen wie Finanzkrise, Eurokrise, Klimawandel, Energiewende und die großen Weltprobleme wie Überbevölkerung, Wasserbewirtschaftung, Hunger, Verteilung von Ressourcen und Rechten, Frauenrechte, Ethnische Konflikte, Terrorismus, Waffenhandel und Massenvernichtungswaffen. Für jedes Problem wüsste der Einzelne Lösungen. Aber die Gesellschaft als Ganzes scheint unfähig, sich Lösungen auch nur ansatzweise zu nähern.

Gegenüber dieser „Blödheit“ der Gesellschaft fühlt sich der Einzelne machtlos und wähnt die Verantwortung bei „denen da oben„, bei den Politikern. Die fühlen sich aber nicht selten ebenso machtlos. Wer einmal im politischen Geschäft Verantwortung übernommen hat, weiß, wie schwierig es ist, Veränderungen nachhaltig herbei zu führen. Auch Verschwörungstheorien und der Verdacht der Korruption werden hartnäckig am Leben erhalten.

Warum ist die Gesellschaft als Ganzes so blöd?

In der Habermas-Luhmann-Debatte wurden zwei grundsätzlich verschiedene Theorien entwickelt:

1. Habermas sieht die Wurzel des Problems in einem Mangel an Moral. Wenn moralische Grundsätze breiter und tiefer verankert wären, dann wäre die Gesellschaft lösungsfähiger.

2. Luhmann sieht die Wurzel in einem Mangel an Selbsterkenntnis. Die Frage „Was bin ich?“ hat weder der Einzelne noch die Gesellschaft hinreichend ergründet.

Nach Habermas können wir also nichts anderes tun als predigen, predigen, predigen … bis auch der Letzte verstanden hat, wie wichtig Moral für uns alle ist. Jede Philosophie muss daher zu einer Predigt werden. Dass sich trotzdem nichts in der Welt ändert, kann dann logischerweise nur noch an der Korruptheit liegen. Das moralische Menschenbild wird zum Nährboden für Politikverdrossenheit und Verschwörungstheorien, auch wenn dies mit Sicherheit nicht in der Absicht von Habermas lag. Aber Absicht und Wirkung sind bekanntlich zweierlei.

Die Moral ist für Luhmann ein zu flacher Erklärungsversuch. Er reicht nicht für die Begründung einer Wissenschaft. Daher versucht Luhmann es in seinem eigenen Werk mit kybernetischen Denkmodellen: Mit dem Systembegriff beleuchtet Luhmann diejenige Seite des Menschen und der Gesellschaft, die systemhaft, d.h. begrenzt, reduktionistisch, mechanisiert, automatisiert und letztendlich algorithmisch in Regeln fassbar ist. „Was ist eigentlich Gesellschaft?“ fragt Luhmann und antwortet: „Gesellschaft ist ein Codex von Regeln zur Wahrnehmungsreduktion“. Das kann man auch als eine Definition von Blödheit lesen. Erst wenn wir verstehen, wie diese Blödheit zustande kommt, ohne dafür Zynismus und Verschwörungstheorien heran zu ziehen, können wir etwas daran ändern.

Die Systemorientierung hat Luhmann – völlig zu Unrecht – den Ruf eingetragen, ein anti-humanistisches Menschenbild zu haben und zu verbreiten. Da wurde Luhmann offensichtlich missverstanden: Er hat Wissenschaft gemacht und wurde als Prediger gehört. Als ob er predigen würde, der Mensch sei ein System. Dies ist aber definitiv nicht der Fall: Luhmann sagt ausdrücklich, der Mensch selbst sei kein System. Es gibt zwar die humanoiden Systeme (physisch, psychisch, gedanklich, emotional, sozial, Familiensysteme, Denksysteme, Glaubenssysteme, Ideologiesysteme, Theoriesysteme, Gewohnheitssysteme und viele andere mehr …), aber keines davon beschreibt den Menschen vollständig.

Vermutlich leiden viele Informatiker unter diesem Vorurteil. Weil sie sich mit Systemen beschäftigen, wird Anti-Humanismus zum Vorwurf. „Aufgaben und Grenzen der Systemorientierung“ könnte meine nächste Vorlesung lauten.

Reduktionismus als Prinzip der Disziplinarität

Reduktionismus ist ein Prinzip der Disziplinarität.

Betriebswirtschaftliches Denken ist ein Reduktionismus.
Es ist nur die mikroökonomische Perspektive.
Dabei fehlt die makroökonomische Perspektive,
also volkswirtschaftliche Sicht- und Denkweise.

Wirtschaftliches Denken ist ein Reduktionismus.
Wenn man nur an das ökonomische Wohl denkt,
nur Umsatz oder Gewinne optimieren will,
fehlen andere wichtige Aspekte.

Informatik ist ein Reduktionismus.
Es stellt im Begriff bereits die Information in den Mittelpunkt des Interesses.
Dabei fehlen in dieser Sichtweise Prozesse, die Informationen verarbeiten
und alleine für sich eine Dynamik bewirken können,
die nicht auf Informationen zurückzuführen ist.
Kybernetik hatte sich daher als Gegenentwurf zum Informationszentrismus
als wissenschaftliche Disziplin aufgestellt,
ist jedoch leider im ideologischen Sumpf stecken geblieben.

Der Begriff des Computers ist ein Reduktionismus.
Würden wir unser Handy wirklich als Computer bezeichnen?
Mittlerweile gibt es Smartwatch, Smartphone, Tablet,
Internet der Dinge, Intelligente Kleidung, Intelligente Möbel,
ein Computer steckt im Herzschrittmacher mitten im Herzen des Menschen
und es ist kein Ende der Innovation in Sicht.
„Der Computer“ ist kein Gegenüber mehr,
sondern verschmilzt zunehmend mit der Lebenswelt.

Die ISO Norm 9241 enthält Richtlinien für Interaktion „zwischen“ Mensch und Computer.
Da wird in einer Norm ein Weltbild festgezurrt,
dass der Computer ein Gegenüber des Menschen sei.
Ein Reduktionismus wird normiert und zum Standard erhoben.

Die Sicht- und Denkweise einer Disziplin basiert auf einem Reduktionismus.
Interdisziplinarität soll helfen.
Es geht jedoch nicht mehr nur um Interdisziplinarität.
Interdisziplinarität ist nur ein Mittel zum Zweck.
Der Zweck ist die Überwindung der reduktionistischen Sicht- und Denkweise.

Reduktionismus als Prinzip der Disziplinarität ist zu überwinden.

Fremdeln mit Innovationen

Gunter Dueck kommt in seinem Buch „Das Neue und seine Feinde“ zu dem Schluss, dass Innovation viele Feinde hat und bekämpft wird. Das ist offensichtlich eine Überspitzung, denn die meisten Menschen nehmen die Annehmlichkeiten der Innovationen gerne an (bis auf Minderheiten, z.B. Amish). Die Beziehung der Gesellschaft zur Innovation ist jedoch subtiler: Sie ist nicht von Feindschaft, sondern von Unbewusstheit, Unkenntnis und einer Art „Fremdeln“ geprägt. Dies gilt besonders für das Digitale, Virtuelle, Computerunterstützte, „Cloudige„, Glasfaservernetzte, Globale, Virtuelle, Unfassbare…

Das Unverständnis beginnt mit falschen oder irreführenden Begriffen. Die Informatik ist voll von falschen oder irreführenden Begriffen. Viele Informatiktexte sind für Sprachwissenschaftler und Philosophen ein furchtbares Kauderwelsch voll mit Verwechslungen, Kategorienfehlern, mangelnder begrifflicher Trennschärfe, ja noch nicht einmal die Wahl der Sprache selbst ist eindeutig: Meist handelt es sich um „Denglisch“, einer unsystematischen Mischung aus Deutsch und Englisch, die sich leider auch nicht abstellen lässt: Das Innovationstempo ist mittlerweile so hoch, dass die Prägung und gesellschaftliche Verbreitung deutscher Übersetzungen nicht mehr Schritt halten kann. Innovation ist global geworden.

Meist werden die Inhalte des Digitalen als „virtuell“ bezeichnet, um sie zu dem „Realen“ der physischen Welt abzugrenzen, so als ob sie nichts Reales hätten. Das ist irreführend, denn die Inhalte des Digitalen sind genauso real oder virtuell wie Gedanken, Abstraktionen, Glaubenssätze, Menschenbild, Weltbild oder Geld.

Es gibt Facebook-User mit Tausenden Facebook-„Freunden“, aber niemand hat in der physischen Welt Tausende von Freunden. Mit diesem Argument wird gegen Facebook polemisiert, anstatt die Begriffe zu hinterfragen: Vielleicht ist mit Facebook-„Freunden“ etwas anderes gemeint als mit „Freundschaft“ in der physischen Welt? Vielleicht entstehen hier neue soziale Phänomene, die nur zufällig mit den gleichen Begriffen belegt wurden, weil wir noch keine besseren haben? Warum sollte das Digitale das Physische originalgetreu abbilden wollen, anstatt etwas ganz Neues zu kreieren?

In seinem Buch „Das halbwegs Soziale“ kritisiert Geert Lovink grundsätzlich die Innovation der sozialen Netzwerke im Web 2.0 und hinterfragt, ob sie das Prädikat „sozial“ überhaupt verdienen. Wenn man den Begriff „sozial“ in herkömmlichen Sinne meint, sicher nicht. Weil sich aber die sozialen Netzwerke „sozial“ nennen, lädt das zum Polemisieren gegen sie ein, anstatt der langsam entstehenden digitalen Gesellschaft (siehe BMBF-„Wissenschaftsjahr 2014 – Die digitale Gesellschaft„) zu erlauben, neue Formen des Sozialen zu entwickeln. Die Sozialwissenschaften hängen noch der Illusion an, dafür theoretische Grundlagen einer „reflexiven Modernisierung“ entwickeln zu können (siehe „Neue Formen sozialwissenschaftlicher Wissensproduktion„). Leider fehlt ihnen häufig das technologische Basiswissen und Visionen innovativer Einsatzszenarien: Sie wissen nicht und können sich nicht vorstellen, was sonst noch alles machbar ist. Die gesellschaftlichen Veränderungen sind so tiefgreifend, dass sie an fast allen „Ordnungsmodellen des Sozialen“ nagen (ebd). Der durch Technologie induzierte gesellschaftliche Umbruch erfordert auch eine Neuorientierung der Wissenschaften. Gunter Dueck sieht in Unternehmen ein „Immunsystem, das jede neue Idee zunächst wie eine Störung behandelt.“ Das gilt für alle Systeme, auch für das Wissenschaftssystem, siehe z.B. Dan Shechtman und mein Blog-Eintrag „Lernen als Fixieren und Lösen“.

„Die Gedanken sind frei“ sagt der Volksmund. Diese Sichtweise vergisst die Realität der Gedanken, die sich spätestens im induzierten Handeln und dessen Konsequenzen zeigen.

Wie virtuell ist eigentlich Traum? Im Traum werden vom Körper auch Hormone ausgeschüttet, so dass Traum durchaus eine physische Komponente hat. Auch Träume können Handeln induzieren und haben daher auch eine Realität.

Dabei hat die Gesellschaft durchaus schon Erfahrung mit „Virtualisierung“, ja sie kann sogar auf jahrtausendealte Erfahrung zurückschauen: Geld ist eine Virtualisierung von Handelswerten, spätestens seit es Papiergeld gab. Der gesellschaftliche Prozess seiner Einführung dauerte Jahrhunderte mit vielen Errungenschaften und Katastrophen. Heute „fremdelt“ die Mehrheit der Gesellschaft nicht mehr mit Geld: Seine Virtualität wird gar nicht mehr wahrgenommen. Im Gegenteil: Für Unternehmer, Manager, Betriebswirte und Volkswirte sind Finanzen zum Inbegriff der Realität geworden. Daran wird gemessen, wie gesund ein Unternehmen, eine Organisation oder gesellschaftliche Gruppen sind: „Realität ist, was am Ende auf dem Konto liegt.“, obwohl es sich nur um Bits und Bytes im Computer der Bank handelt.

Früher war Innovation ein jahrhundertelanger Prozess. Heute überschlagen sich viele parallele Innovationen, so dass kein Mensch mehr imstande ist, auf allen Gebieten auch nur die wichtigsten Innovationen zu kennen, die man in unserer Gesellschaft kennen muss, um an ihr angemessen teilhaben zu können. Es gibt zu viele parallele Innovationen, die ein gesellschaftlichen Ausmaß haben. Für diese neue entstandene massive Innovationsparallelität gesellschaftlichen Ausmaßes haben wir weder Erfahrungen noch Theorie. Nicht einmal passende Vokabeln stehen uns zur Verfügung.

Das liegt auch am rekursiven Wesen der Informatik als Wissenschaft der Abstraktion und des Automatisierens. Man kann mit ihr schlicht alles abstrahieren und automatisieren, auch Innovation, auch Vergesellschaftlichung von Innovation, auch Innovationsautomatisierung und Innovationsautomatisierungsinnovation, … ad infinitum. Der letzte Schritt der Informatik zur Erleichterung der Innovation war der Schritt in die Cloud: Jetzt kann im Prinzip jeder Mensch mit einer cleveren Idee die Gesellschaft verändern, ohne selbst dafür eine eigene globale Infrastruktur aufbauen zu müssen. Das Schwere der Industrialisierung ist endgültig überwunden. Es lebe die Leichtigkeit.

Stephen Hawking sieht daher eine Singularität auf die Menschheit zukommen, die die Gesellschaft und jeden einzelnen Menschen destabilisiert: Man tritt eines Tages aus seinem Haus, versteht die Welt nicht mehr und kann an ihr nicht mehr aktiv teilhaben, weil die Gesellschaft scheinbar plötzlich neue Technologien benutzt und sich dabei auf neue Normen und Regeln festgelegt hat, ohne dass man den Prozess seiner Einführung bewusst miterlebt hätte. Alle leben danach und man selbst hat es nicht mitbekommen. Man fühlt sich fremd in dieser „Realität“.

Man glaubt, die Welt nicht mehr zu verstehen. Dieser Effekt tritt immer früher ein: Die Leute, die sich mit dem Slogan „Das ist nicht mehr meine Welt!“ von einer aktiven Teilhabe an unserer Gesellschaft verabschieden, werden immer jünger. Das Eintrittsalter für Innovationsabwehr oder -fremdeln sinkt rapide. Dieser gesellschaftliche Effekt verstärkt demographische Veränderungen, so dass eine Gesellschaft schneller zu altern scheint, als die Zahlen hergeben.

„Goodbye, Lenin!“ ist ein Film, der diesen Innovationsschock anhand einer Mutter erzählt, die vor der Wende ins Koma fiel und nach der Wende wieder aufwacht. Dazwischen lag ein ganzes Jahr. Der Film ist gut erzählt, gehört zu den 3 besten DDR-Filmen und lässt gut nachempfinden, wie sich ein Innovationsschock anfühlt.

Vielleicht ist es auch ein Innovationsschock für Bürger der ehemaligen DDR, dass in diesem Blog ein „Prof. Kaul“ schreibt. Unter „Prof. Kaul“ kannten sie bis zur Wende Prof. Dr. Friedrich Karl Kaul (*21. Februar 1906 in Posen; †16. April 1981 in Ost-Berlin, bekannt aus der DDR-Fernsehserie „Fragen Sie Prof. Kaul“), ein deutscher Jurist, Hochschullehrer, Schriftsteller und Chefideologe der DDR, siehe Wikipedia. Mit ihm ist der Autor dieses Blogs weder verwandt noch verschwägert noch ideologisch verbunden, sondern hat erst über Google von ihm erfahren.

UML Use Case Diagramm Tool

Immer wieder mal muss man im Software Engineering Diagramme malen. Welches Tool installiert man dazu?

  • Installieren war gestern.
  • Wie wäre es mit der Cloud?

Creately
http://creately.com/diagram-examples

Im Google Chrome Store findet man:
Lucidchart
https://chrome.google.com/webstore/detail/lucidchart-diagrams-onlin/apboafhkiegglekeafbckfjldecefkhn

Gliffy
https://chrome.google.com/webstore/detail/gliffy-diagrams/bhmicilclplefnflapjmnngmkkkkpfad

Cacoo
https://chrome.google.com/webstore/detail/cacoo-diagramming-real-ti/pcflmbddgcmomcfngehfhlajjapabojh

UMLFactory
http://umlfactory.com/

Das letzte Tool erlaubt beide Workflows: (1.) Online arbeiten ohne Installieren und den alten Workflow (2.) Download-Installieren-Arbeiten. Was ist angenehmer?

Übrigens braucht man auch keine IDE mehr installieren.
Die gibt es mittlerweile auch in der Cloud:

https://c9.io

Sogar Eclipse wird derzeit in die Cloud portiert:
http://www.eclipse.org/orion/

Den Gipfel fand ich in der Portierung von einem kompletten Linux-Betriebssystem in die Cloud,
also Linux bootet im Browser (implementiert in JavaScript):

http://bellard.org/jslinux/

Anwendungsorientierung erfordert neue didaktische Modelle

Fachhochschulen sind an der Anwendung wissenschaftlicher Erkenntnisse orientiert.
Diese Anwendungsorientierung erfordert neue didaktische Modelle.

Das klassische universitäre Didaktik-Modell ist Vorlesung – Übung:
Zunächst wird in der Vorlesung die Theorie in neue Köpfe gepumpt.
Dann wird in den anschließenden Übungen die Theorie an Beispielen angewendet.
Also zuerst die Konzepte, dann die Praxis.

Lernen geht in diesem didaktischen Modell immer über den Flaschenhals der Rationalität.
Alles muss erst sorgfältig durchdacht werden, bevor es angewendet werden kann.
Dieser Ansatz hat viele Probleme:
Zunächst die Mühsal und Langsamkeit durch den Flaschenhals der Rationalität.
Dann die Praxisferne: In der Vorlesung kenne ich die Praxis noch nicht.
Daher kann ich mit den Konzepten noch nichts Praktisches verbinden.
Die Konzepte bleiben zunächst hohl, leer, nichtssagend.
Wenn ich Glück habe, erkenne ich in der praktischen Übung,
was in der Vorlesung tatsächlich gemeint war.

Lerntrainer wie Vera Birkenbihl machen seit Jahrzehnten darauf aufmerksam,
dass diese Art des Lernens langsam und mühsam ist,
weil alles durch den Flaschenhals des linearen Denkens gehen muss.
Es geht auch besser: Superlearning!

Beim Superlearning umgeht man den Flaschenhals des linearen Denkens
und trainiert direkt das Unterbewusstsein, das zu einer höheren Parallelverarbeitung
befähigt ist als die lineare Rationalität.
Außerdem ist es unser angeborenes Lernverhalten:
So lernen wir gehen, sprechen, Auto fahren, …

Superlearning macht Spaß,
hat mit Flow zu tun
und daher nach Mihály Csíkszentmihályi auch direkt mit Glück.
Warum muss Lernen mühsam sein?

Superlearning hat sich bewährt im Sprachenlernen und in der Musik:
Sprachen lernt man nicht über die Grammatik und Vokabeln
und den Flaschenhals des linearen Denkens
sondern über die Praxis der Kommunikation,
die hochgradig komplex ist und die Parallelverarbeitung unseres Unterbewusstseins benutzt.
Anstatt mühsam Musiktheorie zu lernen, nehme man eine Klaviatur mit LEDs in den Tasten,
auf die man drückt, wenn diese leuchten.
Man lernt viel schneller Klavier zu spielen,
ohne auch nur eine Note gelernt zu haben.
Das ist Lernen durch Nachmachen,
was sicherlich einen großen Teil unseren Lernens ausmacht.

Wenn man dann praktisch etwas kann,
gibt es immer noch die Gelegenheit, anschließend darüber zu theoretisieren:
Konzepte lernt man in diesem didaktischen Modell anschließend durch Reflexion.
Man reflektiert über seine Praxis und baut dazu seine eigene Theorie.
Die Theorie ist wichtig, um die Aufmerksamkeit auf die richtigen Aspekte der Praxis zu fokussieren,
damit man klarer sehen kann, was in der Komplexität der Praxis wirklich passiert.

Diese Fähigkeit der eigenen Theoriebildung ist essenziell:
So ist Wissenschaft entstanden.
Wissenschaft machen und Konzepte für die Klausur auswendig lernen
sind kognitiv zwei völlig unterschiedlich Vorgänge.

Der berühmte Informatiker Peter Naur hat einmal
die Praxis des Programmierens als theoriebildende Tätigkeit klassifiziert:
Zu den Codezeilen, die man schreibt, entwickelt sich immer eine Vorstellung davon,
warum der Algorithmus so funktioniert wie man ihn codiert hat,
wie die Software einmal funktionieren soll
und wie der Kunde die Software einmal anwenden wird.
Auch hier haben wir als entscheidenden kognitiven Vorgang
die eigene Theoriebildung aufgrund einer praktischen Tätigkeit,
nicht das Wiederkäuen fremder Theorien und Konzepte.
Leider bleiben die eigenen Theorien häufig unbewusst und undokumentiert.
Das erkennt man an dem Experiment, in dem man sich seinen eigenen Quellcode
10 Tage später anschaut und selber nicht mehr versteht.
Um das zu vermeiden, muss gelernt werden:

  • seine unbewussten Vorstellungen ins Bewusstsein zu heben
  • die Vorstellungen mit Begriffen begreifbar zu machen
  • die Begriffe zu einem konsistenten Konzept-Netzwerk zu verknüpfen
  • die Bildung einer eigenen, konsistenten Theorie
  • die Darstellung dieser Theorie in einer Form, so dass auch andere Menschen die Theorie nachvollziehen können
  • die Kommunikation der Theorie, so dass sie auch anderen Menschen nützt.

Das setzt natürlich voraus, dass wir unsere Vorstellung vom Unterbewusstsein neu überdenken:
Das Unterbewusstsein ist nichts Dunkles, was auf die Couch eines Psychiaters gehört,
sondern ganz alltäglicher Bestandteil unserer Lernprozesse.
Es funktioniert eher wie ein Recorder, ein Aufzeichnungsgerät,
das alles, was wir erleben, denken, handeln, aufzeichnet,
egal, ob es für die Zukunft sinnvoll und nützlich oder hemmend und störend ist.
Hier sehen wir einen weiteren Grund, warum uns Reflexion wichtig sein sollte.
Das gilt sogar für alle Lerntypen, siehe

Das gilt nicht nur für Programmieren,
sondern eigentlich für jede Art praktischer oder auch theoretischer Tätigkeit,
z.B. auch für das Bloggen.
Es geht um die Fähigkeit zur Reflexion und der Dokumentation der Reflexionsergebnisse.
Das ist auch ein Aspekt von „Klarlernen“.

Eine Vorlesung kann man systemisch auch so charakterisieren:
Die alte Generation steht vor der nächsten Generation und sagt ihr:
„Hier ist die Theorie, die in meiner Praxis wichtig war.
Nehmt sie und macht es so wie ich.“
Dahinter steckt die Vorstellung,
dass die Theorien der alten Generation der jungen Generation helfen könnten.
Dabei sind die Probleme der Zukunft,
ja nicht einmal die Berufe der Zukunft,
heute bekannt.
Wir wissen nicht, auf was wir uns vorbereiten müssen.
Die Dozenten wissen nicht, was ihre Studierenden in der Praxis benötigen werden.
Die Halbwertzeit des Wissens sinkt rasant.
Das Wissen der Vorlesung ist zu schnell veraltet.
Also warum machen wir uns dann die viele Mühe?

Daher muss das akademische Zusammenspiel von Theorie und Praxis neu überdacht werden.
Anwendungsorientierung erfordert neue didaktische Modelle.
Die bewährten akademischen Formen der Vergangenheit leisten heute
aufgrund veränderter Rahmenbedingungen nicht mehr ihren Dienst.
Das klassische universitäre Modell hat ausgedient.
Die nächste Generation muss befähigt werden,
ihre eigenen Lösungen in der Zukunft zu entwickeln.
Die Anwendung der Theorien der Vergangenheit reichen nicht mehr.

Das neue Zusammenspiel von Theorie und Praxis
geht zuerst in die Praxis und dann in die Reflexion,
trainiert praktische Fähigkeiten mittels Superlearning im Flow,
um danach in der Reflexionsphase Theoriebildung und Kommunikation zu praktizieren.
Es geht um „Wissenschaft machen“ statt „Wissenschaft konsumieren„.