Historische Entwicklung der Rolle der Programmierung in der Informatik

Die Rolle der Programmierung hat in der Informatik bisher folgende fünf Schritte durchlaufen:

1. 1960-er Jahre: Informatik ist ein Teilgebiet der Mathematik. Programmierung ist der letzte triviale Schritt bei der Umsetzung eines mathematischen Konzepts. Typischer Vertreter ist die Algebra, z.B. mit stack.push(x).pop() == stack.

2. 1970-er Jahre: Informatik entwickelt sich zu einer eigenständigen Wissenschaft, der Wissenschaft der Algorithmen.

3. 1980er Jahre: Informatik ist eine eigene Wissenschaft, die sich von Mathematik etwas absetzt: Nicht alles lässt sich als mathematisches Konzept fassen. Software Engineering bemüht sich um Anforderungskataloge in Form präziser (aber nicht notwendig mathematischer) Spezifikationen. Programmierung ist der letzte triviale Schritt bei der Umsetzung eines Anforderungskatalogs in Form einer möglichst präzisen Spezifikation.

4. 2000-er Jahre: Die Qualität der Software ist immer noch zu schlecht. Kent Beck und Erich Gamma entwickeln Unit-Testing und Test-Driven Development (TDD): Spezifikationen werden als Tests geschrieben und werden damit ausführbar. Entwickeln und Programmieren ist der letzte triviale Schritt, um die Tests zur fehlerfreien Ausführung zu bringen.

5. 2010-er Jahre: Programmieren ist überhaupt kein letzter trivialer Schritt. Die Programmierwelt hat sich zu einer eigenen Welt mit eigenen Sprachen, Gesetzen, Regeln, Rahmenwerken, Errungenschaften und Meilensteinen entwickelt. Zu den meisten Programmen gibt es keine mathematisch fixierten Konzepte außerhalb des Programmes selbst. Gutes Programmieren ist wie gutes Schreiben (David Heinemeier-Hansson (DHH)) mit einfachen Regeln wie DRY (Don´t Repeat Yourself). Jede Einheit soll ein und nur ein Thema so gut es geht abhandeln. Befasst sich eine Einheit mit mehr als einem Thema, so ist die Einheit aufzuspalten in mehrere Einheiten. Gute Abstraktionen ergeben sich während der so an der inneren Schönheit und Einfachheit orientierten Programmiertätigkeit: Jede Einheit muss so klar und deutlich geschrieben sein, dass ihre Korrektheit offensichtlich ist. Unit-Testing ist ein ewiger Begleiter neben dieser Innen-Perspektive, das die Außen-Perspektive der Anwendung in den Entwicklungsprozess mit einbringt.

Heute: Informatik kommt in die Jahre. Die Lösungskataloge werden immer dicker. In das Informatik-Studium werden immer mehr fertige Lösungen hinein gestopft. Entfremdung und Frustration sind die Symptome. Es entsteht die Gefahr, dass die eigene Kreativität und die Freude an der eigenen Schöpfung auf der Strecke bleibt. Auch wenn es schon so viele Lösungen gibt, so müssen Studierende dennoch den Freiraum bekommen, das Eigene zu entwickeln, eigene Wege zu gehen und sich selbst zu spüren. Dafür bietet Programmieren eine wundervolle Plattform, wenn man es im Sinne der 5. Stufe begreift. Dort liegt das größte Potenzial eines Informatikstudiums, während die Lösungskataloge nur (wenn auch sehr, sehr wertvolle) Mittel zum Zweck sind.

Veröffentlicht unter Allgemein | Kommentare deaktiviert für Historische Entwicklung der Rolle der Programmierung in der Informatik

Internet der Emotionen

Nach dem Internet der Dinge (engl. Internet of Things, IoT) kommt jetzt das Internet der Emotionen (IoE).

Auf der Apple Entwicklerkonferenz WWDC in San Francisco, Kalifornien, wurde 2016 der neue Emoticons-Dienst für Kurznachrichten vorgestellt: In einer Kurznachricht werden alle Worte markiert, die man auch kürzer durch ein Emoticon hätte darstellen können. Der Sprecher kündigte sogleich an, dass ein Effekt diese neuen Dienstes sein werde, dass eine Generation später die Jugendlichen, die daran gewöhnt sind, der englischen Sprache noch weniger mächtig sind und ihre Systematik gar nicht mehr verstehen. Sie werden nicht mehr verstehen, warum man sich so viel Mühe mit Struktur und Grammatik gegeben hat, wenn doch das wichtigste zu transferierende die Emotionen sind.

Das WWW hat Tim Berners-Lee erfunden mit dem Gedanken der Vernetzung aller Physiker-Dokumente weltweit. Durch seinen riesigen Erfolg ist das WWW weit mehr geworden als das: Heute ist es das Instrument zur Vernetzung der Gedanken schlechthin. Hier ist der erste und wichtigste Ort, wo Informationen gesucht, gefunden, ausgetauscht, gefiltert, kommentiert, abstrahiert und im Remix verwurstet werden, wo Meme entstehen, sich verbreiten und durchsetzen – und das gleich mit globalem Maßstab. Während in den 1980-er Jahren noch “Vernetztes Denken” (vgl. gleichnamiges Buch von Frederic Vester) ein hehres Ziel und fernes Ideal war, dem man sich immer nur annähern, aber nie richtig erreichen könne, so ist es heute mit dem Internet normaler, profaner, gelebter Alltag geworden. Vernetzung ist heute gelebte Selbstverständlichkeit. Jeder ist vernetzt. So vernetzt, dass er schon anfängt, die Welt direkt hautnah um sich herum zu vergessen.

Wenn nun aus dem Internet der Gedanken ein Internet der Emotionen wird, so hat das erneut tiefgreifende Folgen für das Weltgeschehen. Menschen handeln aus ihren Emotionen heraus, nicht aus klugen Überlegungen. Daher sind Emotionen ein stärkerer Motor für Handlungsinduktionen als noch so überzeugende Gedanken. Emotionen sind archaischer und fühlen sich realer an: “Wenn ich das fühle, dann muss es doch real sein.” Emotionen rechtfertigen Handlungen, egal wie irrational sie sind. Auch Irrationalismus ist wieder auf dem Vormarsch. Das erleben wir gerade beim Brexit, bei den US-Wahlen und täglich in den Nachrichten. Zahlreiche Geschehen kann niemand mehr rational erklären. Die Journalisten ergehen sich in Mutmaßungen. Die Zivilisation erlebt offenbar einen derben Rückschlag, bis erneute Katastrophen zur Besinnung rufen?

Auch dafür muss Bildung stehen: Zur Besinnung zu kommen, ohne dafür Katastrophen durchlebt haben zu müssen. Katastrophen gab es genug und gibt es heute noch genug, um daraus zu lernen. An Lernmaterial ist kein Mangel. Heute im Zeitalter des Internet erst recht nicht.

Veröffentlicht unter Internet | Verschlagwortet mit , , | Kommentare deaktiviert für Internet der Emotionen

Zielkonflikt Datenschutz und Big Data

Daten sind der Rohstoff des 21. Jahrhunderts. Big Data ist das Sammeln von Daten auf Vorrat. Der Einsatz und die Auswertung ergibt sich meist später. Häufig entstehen neue Anwendungsfälle erst, wenn sich Datenmassen angesammelt haben. Wertschöpfungsketten erschließen sich erst, wenn ein gewisser Datenmengenschwellwert überschritten wurde. Auch wenn die Gegenwart keinerlei Anzeichen für die Möglichkeit solcher Wertschöpfungsketten zeigt, so können sie dennoch bereits morgen gelebte Realität sein. So ist es vielfach geschehen bei Google, Facebook, Whatsapp, AirBnB und wie sie alle heißen.

Das deutsche Datenschutz-Gesetz will die informationelle Selbstbestimmung und damit demokratische Grundwerte sichern. Jede Datensammlung soll nur erfolgen, wenn vorher der Zweck festgelegt wurde. Alle Auswertungen sollen auf diesen Zweck reduziert sein. Keine anderen Datenverarbeitungen und Informationsgewinnung sind erlaubt. Dadurch verbietet man Wertschöpfungsketten, die man nicht vorher geplant, angemeldet und mit dem User, Bürger, Kunden, Opfer, Täter per Datenschutzvereinbarung vereinbart hat.

Hier liegt ein offensichtlicher Zielkonflikt vor: Will Deutschland ins 21. Jahrhundert aufbrechen und den neuen Rohstoff erschließen – oder klammert es sich an seine Vorstellungen informationeller Selbstbestimmung in der “German Angst” vor Demokratieverlust?

Im kommenden Internet der Dinge wird die Datensammelei noch einmal um Größenordnungen gesteigert. In einem Auto erfassen z.B. ca. 80 Sensoren das Nutzungsverhalten wie Geschwindigkeit, Beschleunigung, Abgas, Richtung und Ort. Diese Daten sind zunächst auf ein Auto bezogen, aber über den Fahrzeughalter dann doch personenbezogen (oder schwächer nur personenbeziehbar). Welcher Autofahrer hat dem jemals bewusst zugestimmt? Dabei muss jeder, der in Deutschland Daten sammeln, auswerten oder verwerten will, das vorher ankündigen und strengen Auflagen genügen. Die Datensammelei im Internet der Dinge ist offensichtlich nicht mehr mit dem strengsten aller Datenschutz-Gesetze vereinbar. Da geht einiges nicht mehr zusammen. Der Zielkonflikt wird immer drastischer.

Nach Prof. Dr. Rainer Kuhlen ist der alte Datenschutz-Begriff zu defensiv. Daten sind zunächst nutzlos. Sie zu verteidigen hilft niemandem und es ist im 21. Jahrhundert auch nicht mehr möglich, als Einzelperson die Kontrolle über seine Daten zu behalten.

Erst durch ihre Verarbeitung werden Daten zu Informationen. Also müsste es Informationsschutz statt Datenschutz heißen. Dieser Informationsschutz ist aber nicht mehr auf der individuellen Ebene erreichbar, sondern nur noch gesellschaftlich. Die Gesellschaft als Ganzes muss die Kontrolle über die Informationsverarbeitung und die damit verbundenen Wertschöpfungsketten behalten, um sich gegen Missbrauchsketten und Demokratieverlust wehren zu können. Das kann man nicht neoliberal dem Markt überlassen. Es reicht auch nicht, Missbrauchsketten den deutschen Firmen allein zu verbieten. Dann würden globale Konzerne die Nutzungslücke schließen und es ergäbe sich nur ein Wettbewerbsnachteil für deutsche Firmen.

Offenbar lässt sich Demokratie nur noch global schützen.

Veröffentlicht unter Informatik | Verschlagwortet mit , | Kommentare deaktiviert für Zielkonflikt Datenschutz und Big Data

Das Internet selbst wird zum Trendsetter

Wichtiger Satz im ersten Video: “Die Entwicklung da draußen ist so schnell, dass wir im Hochschulforum Digitalisierung nicht immer mitkommen. Das alles braucht Zeit.”

Es ist Zeit umzuschalten: Keine Expertengruppe der Welt kann heute noch aktueller Trendsetter sein. Das Internet selbst wird zum Trendsetter!

Veröffentlicht unter Allgemein | Kommentare deaktiviert für Das Internet selbst wird zum Trendsetter

Informatik-Bildung

Veröffentlicht unter Allgemein | Kommentare deaktiviert für Informatik-Bildung

Schneller reagieren dank Open Source

Eine Open Source-Erfolgsgeschichte steht unter heute.de: “Flüchtlinge registrieren: Es könnte einfacher sein“: Während die öffentliche Hand und die ihr zuarbeitenden Firmen noch rätseln, wie man die Registrierung der Flüchtlinge softwaretechnisch schneller hinbekommt, hat Peter Kusterer in Mannheim auf der Open Source-Basis des Sahana-Projektes in nur vier Tagen zusammen mit einem Freiwilligen-Team eine Lösung erstellt, die auch funktioniert und nun eingesetzt wird. Die Mannheimer Aufnahmestelle für Flüchtlinge wird nun damit komplett verwaltet.

Weiter heißt es auf heute.de: “Im Bundesministerium des Inneren will man diese Vorteile allerdings nicht sehen. Zu stark sind die Vorbehalte gegen Open Source Software. Die Ministerialen setzen lieber auf teure kommerzielle Lösungen.”

Veröffentlicht unter Informatik | Verschlagwortet mit | 1 Kommentar

Was läuft falsch?

Youtube-Text: “Im Verhör bei Roland Düringer: Gerald Hüther. Der deutsche Hirnforscher und Autor ist Ende der 70er Jahre aus der DDR geflohen. Heute – so sagt er es selbst – lässt er sich nicht mehr so leicht von jemandem einsperren. Dennoch hat es Roland Düringer geschafft, Hüther in seinen Verhörraum zu laden. Jetzt steht Hüther Roland Düringer Rede und Antwort zu den Fragen: Was ist ein gutes Leben? Was läuft falsch? Was braucht es? Wer ist eine gültige Stimme?”

Veröffentlicht unter Allgemein | Kommentare deaktiviert für Was läuft falsch?

Produktivitätsparadoxon

Das Produktivitätsparadoxon besagt, dass die Produktivität trotz aller Verbesserungen, trotz aller Mobilität, trotz aller Computer und Handys nicht gestiegen ist. Paradox deswegen, weil sie, die Produktivität, eigentlich hätte steigen müssen, wo wir doch viel schneller miteinander kommunizieren können, reisen können, berechnen, ordnen, sortieren können.

Warum ist das so?

Die Digitalisierung wirkt als Verstärker.
Aber von was?
Was wird verstärkt?
Alles!

Das Gute ebenso wie das Schlechte.
Das Ordnende ebenso wie das Verwirrende.
Das Helfende ebenso wie das Verhindernde.
Das Moralische ebenso wie das Unmoralische.
Das Ethische ebenso wie das Unethische.

Es wird alles einfach nur schneller.
Der Informationsumsatz wird größer,
der Qualitätsgewinn jedoch nicht.

Mehr Wissen ist noch keine Weisheit.
Mehr haben ist noch kein besseres Leben.
Mehr Gesetze ist noch kein besseres Funktionieren.
Mehr Sicherheit ist noch keine bessere Gesellschaft.

Damit ist die Ursache für das Produktivitätsparadoxon klar.

Vielleicht ist es daher weise,
mal inne zu halten,
nicht weiter auf´s Gaspedal zu treten,
und in Ruhe die Sinnhaftigkeit des Ganzen zu betrachten.
Was nützt erhöhte Schnelligkeit und ein höheres Niveau,
wenn es doch nur Unsinn ist, was sich da schneller und höher umtreibt.

Veröffentlicht unter Informatik | 1 Kommentar

Software oder Organisation anpassen?

Wenn man Informatik-Systeme neu in eine Organisation bringt oder bestehende migriert, stellt sich immer die Frage, wer sich wem anpassen soll:

  • Soll die Software an die Gegebenheiten der Organisation angepasst werden?
  • oder…

  • Soll die Organisation an die Gegebenheiten der Informatik-Systeme angepasst werden?

Letztendlich ist dies eine Kostenfrage:

wpid-PastedGraphic2-2016-01-20-08-46.png

Dort, wo eine Softwareanpassung preiswerter ist, ist diese vorzuziehen. Dort, wo eine Organisationsanpassung preiswerter ist, ist jene vorzuziehen. Jedoch sind bei dieser Betrachtung auch die versteckten Kosten und die Folgekosten mit einzubeziehen. Das wiederum macht die Entscheidung komplex. Die Reduktion der Betrachtung auf eine betriebswirtschaftliche Größe war nur eine Pseudoreduktion.

Dennoch ist das Bild hilfreich: Es gilt die goldene Mitte zu finden: Software dort anpassen, wo sie sich einfach anpassen lässt und ansonsten die Organisation anpassen.

Aber was ist “einfach”? Für ein Genie ist vieles einfach, was für einen Normalo schwierig oder gar unmöglich ist. Daher kann man Programmierung eben doch nicht nach Indien auslagern (“Outsourcing”, “Offshoring”). Wir brauchen auch Informatik-Genies im eigenen Land.

Veröffentlicht unter Informatik, Systemanalyse | Kommentare deaktiviert für Software oder Organisation anpassen?

Ausschalten von Bewusstheit durch Methode hat Methode

Methodisches Vorgehen ist das Markenzeichen von Akademikern.
Sie haben für alles eine wiss. anerkannte Methode.
Um alle diese Methoden kennen zu lernen,
muss man erst einmal jahrelang studieren.
Das ist die Eintrittshürde in die akademische Welt.

Es werden immer nur die Vorteile methodischen Vorgehens angepriesen,
nie objektiv sachlich auch die Nachteile,
die Schattenseite der akademischen Sonne.

Akademiker sind dann auch bloß Verkäufer,
weil sie ihren eigenen Denkansatz als den besten verkaufen,
anstatt sich unvoreingenommen mit der Sachlage auseinander zu setzen,
neutral und sachlich, wie es der akademische Ethos verlangt.
Aber wenn es um sie selbst geht,
werden Akademiker höchst unakademisch.
(siehe auch “Homo academicus” von Pierre Bourdieu, 1984)

Methodisches Vorgehen kann auch Nachteile beherbergen:
Methodisch Vorgehen kann auch bedeuten,
dass man sich nach einer Methode richtet und Bewusstheit ausschaltet,
Empfindsamkeit, Fühlen,
das Gefühl, dass sich die Welt um uns herum massiv verändert,
Gewissen,
denn das ist ja alles subjektiv und daher als unwissenschaftlich verpönt.
Bewusstheit wird ausgeschaltet,
wenn das sklavische Befolgen der Methode wichtiger wird als Bewusstheit.
Ein Computer läuft nach einem Algorithmus,
das Befolgen einer Methode ist ebenfalls algorithmischer Natur.

Ausschalten von Bewusstheit durch Methode hat Methode,
nämlich die akademische Methode des methodischen Vorgehens.

Bewusstheit ist etwas inhärent Subjektives,
Methodisches Vorgehen dagegen scheinbar so viel objektiver.

Dabei war einer der Gründerväter des wiss. Ansatzes,
Galileo Galilei, mit genau dem umgekehrten Vorsatz angetreten:
Glaubenswahrheiten waren damals nicht hinterfragbar,
und wenn das religiöse Dogma vorschrieb,
dass die Erde im Mittelpunkt des Universums stünde,
so setzte er seine eigenen, subjektiven Messungen und Erklärungen dagegen.
“Habe den Mut selber zu denken” (und zu messen und zu erklären)
war dann der Wahlspruch des Zeitalters der Aufklärung.

Methodisches Vorgehen und frische Bewusstheit, immer wieder neu:
Gerade das Spannungsverhältnis zwischen beiden macht den Reiz aus.
Immer wieder neu aus der subjektiven Wahrnehmung heraus
bestehende Methoden zu hinterfragen und neue Methoden zu entwerfen
ist eine große Herausforderung, die niemals enden wird,
denn es gibt kein “Patentrezept”, keine “Weltformel”,
keinen “Silver Bullet” und keine “eierlegende Wollmilchsau”.
Das Ringen darum ist legitim und eines der Hauptantriebskräfte der Wissenschaft,
jedoch sollte klar sein, dass dieses Ringen unendlich ist.
Letztendlich ist es eine Art Zielkonflikt zwischen der Subjektivität der Bewusstheit
und dem Streben nach Objektivität und Systemfestigung,
das die Entwicklungsspirale voran treibt.

Informatik ist eine interessante Wissenschaft,
weil sie diese Phänomene aus dem Allgemeinen,
aus dem Philosophischen und Psychologischen,
in die konkrete Zeile Software-Quellcode bringt und dort
ganz konkret als Phänomen erfahrbar und sogar messbar macht:
Ist die Software, die nach einer Methode X erstellt wurde,
oder die Software, die nach einer Methode Y erstellt wurde,
besser?
Oder gar solche Software,
deren Entwicklung sich an keiner bekannten Methode orientierte
und möglicherweise die Geburt einer neuen Methode ankündigt?

Veröffentlicht unter Informatik, Studium | Verschlagwortet mit , | Kommentare deaktiviert für Ausschalten von Bewusstheit durch Methode hat Methode