Wieso ich nicht will, dass Daten das neue Öl sind.

Sieht toll aus! Ist aber ziemlich schlecht für die Umwelt.

Daten sind das neue Öl? Wir sprechen uns bei der nächsten Ölkatastrophe.

Kai Schmidhuber, digitaler Umweltaktivist. 

Man hört heute mit einiger Häufigkeit, dass „Daten das neue Öl sind”. Die meisten Menschen, die die Analogie genutzt haben, tun dies, um den enormen Wert von Big Data zu vermitteln. Daten sind eine wesentliche Ressource, die die Informationswirtschaft antreibt, ähnlich wie Öl die Industriewirtschaft beflügelt hat. 

Big Data verspricht eine Vielzahl neuer Anwendungen – die Identifizierung und Prävention der Pandemien, das Entstehen neuer Unternehmen und Geschäftsfelder, und natürlich mein Steckenpferd, die Verbesserung der Qualität und Effizienz im Marketing, um nur einige zu nennen. Genauso wie Öl nützliche Kunststoffe, Petrochemikalien, Schmierstoffe und Benzin hervorgebracht hat. 



Denken wir diesen Vergleich doch mal weiter. 

Öl hat sicherlich viele produktive Anwendungen, aber es führt auch zu Ölverschmutzung. Bei Big Data ist es ähnlich. Daten bringen enorme Vorteile, verursachen aber gleichzeitig erhebliche Verletzungen der Privatsphäre. Mit zunehmender Größe der Datensätze wächst auch die Bedrohung. 

Big Data ist wie ein riesiger Öltanker, der durch die Schwärme von Hackern, Kriminellen, Politikern und menschlichen Fehlern navigiert. Daten können klüger und reicher machen und unser Leben verbessern. Wie Öl können sie uns aber auch schaden.

Denken wir einfach mal noch etwas weiter. 

Um die von Öl ausgehende Gefahr einzudämmen, wurde eine Vielzahl an Gesetzen, Normen und Regeln entwickelt – und Verstöße werden hart sanktioniert. Was können wir also – wenn Big Data wirklich das neue Öl ist – aus diesen Regelwerken lernen? 

Nun, Ölverschmutzungen treten vor allem auf drei Arten auf. 

  • Sie verunreinigen und verwüsten Strände, Küsten und Wasser. 
  • Und sie schädigen natürlich die dort lebenden Wesen. 
  • Sie verursachen zudem Kohlenstoffemissionen und tragen so zum Treibhauseffekt und zum Klimawandel bei (falls Sie daran glauben. Soll ja Leute geben, die halten das für Quatsch).

Die missbräuchliche oder nachlässige Nutzung von Big Data verursacht analoge Verletzungen der Privatsphäre. Wie Öl laufen Daten aus. Datensicherheitsverletzungen verursachen großen Schaden, ebenso wie Ölunfälle Schäden verursachen. Die desaströsen Auswirkungen von Big Data sind auch analog zu Kohlenstoffemissionen und Klimawandel. Die Ölverbrennung trägt zu einer wachsenden Schicht von Treibhausgasen bei, die die Wärme der Sonne einfängt, den Klimawandel verursacht und die Erde so allmählich in eine finnische Sauna transformiert. In ähnlicher Weise erzeugen die Produzenten von Big Data Schicht für Schicht persönliche Informationen. Wir Menschen werden dadurch zur Ameise unter dem Brennglas. Es wird heiß. Und es gibt wenig Schutz und Schatten. 

Mein Mailpostfach kann ein Lied davon singen. Und Alexa auch.

OK, spinnen wir weiter. 

Was könnte man also tun? 

Sich am Umweltrecht bedienen.
 

Zum Beispiel könnten wir eine Gesetzgebung verabschieden, die die „Säuberung” von „geleakten“ Daten durch die Regierung autorisiert. Wie bei der Wasserverschmutzung durch Ölauslauf in den USA. Das könne geschehen durch Bereitstellung von Dienstleistungen sowie Beratung und Wiederherstellung von Daten nach Identitätsdiebstahl. Die Agentur, die die „Säuberung“ durchführt, könnte dann eine immense Kostenerstattung von den Verantwortlichen für das Datenleak verlangen. Ich bewerbe mich hiermit zum Aufbau dieser Agentur, liebe Frau Merkel. 

Eine solche Gesetzgebung könnte außerdem die Haftung für derlei Handlungen erweitern und sicherstellen, dass auch immaterielle Schäden – zum Beispiel solche an Seele und Psyche von Betroffenen – wiederherzustellen sind. Zum Beispiel könnte ausdrücklich erlaubt werden, Schadenersatz für die emotionale Belastung zu verlangen, die durch die Freigabe wichtiger persönlicher Informationen oder durch das Risiko von Identitätsdiebstahl verursacht wird. Darüber hinaus könnte ein solches Gesetz eine strenge Haftung für Datenverluste vorsehen, wodurch die Notwendigkeit entfällt, die Fahrlässigkeit eines Beklagten nachzuweisen. 

Schließlich – so wie das Gesetz von Öltransportern verlangt, ihre Schiffe umweltschonend zu konstruieren – könnte die Gesetzgebung von informationsintensiven Unternehmen organisatorische Maßnahmen verlangen, um die Privatsphäre durch eine besondere Unternehmenskonstruktion zu respektieren, sodass nicht – sorry für das Beispiel – jeder Praktikant Zugriff darauf hat. Ist nämlich leider oft genug der Fall.Wenn Öltanker teure Doppelhüllen verwenden müssen, sollten Datensicherheitssysteme vielleicht eine Mehrfach-Authentifizierung einsetzen müssen. Oder nehmen wir uns ein Beispiel an Autos. Die müssen alle zwei Jahre zur HU. Oder Restaurants. Die kriegen ständig Besuch von Lebensmittelkontrolleuren. Wer prüft eigentlich die Datensicherheit in Unternehmen? Das Finanzamt? Das BVMI? LOL. Kai Schmidhuber

Bleibt für mich als Fazit: Da ist noch eine Menge zu regeln, wenn Daten wirklich das neue Öl sein sollen. 

„Jaaaa, Moment!“ werden jetzt viele Leserinnen und Leser denken. „Vergisst der Schmidhuber da nicht etwas? Zum Beispiel die Datenschutzgrundverordnung und EU-Privacy Law?“ Nein, habe ich nicht vergessen. Und ich finde es auch richtig, dass es diese Initiativen gibt. Doch ein Blick in Presse, Magazine und sonstige Berichterstattungen über die „gesetzumsetzenden“ Unternehmen zeigt, dass diese Verordnungen weit davon entfernt sind, „doppelwandige Datentanker“ zu kreieren. Ich denke, einige von Ihnen werden mir da zustimmen. Ja, die DSGVO macht Angst. Ja, sie hat auch viel Chaos angerichtet. Aber sie wird keine datentechnische “Ölkatastrophe” verhindern. Sie ist für mich eher so das obligatorische „Kaugummi-bitte-in-die-Mülltonne-Gesetz“.Die DSGVO ist für mich das obligatorische Kaufgummi-bitte-in-die-Mülltonne-Gesetz.Passionierter Wrigleys-Kauer

Noch viel zu tun, wenn Daten das neue Öl sein sollen.

 

Mein Vorschlag:Daten sind die neue Briefmarkensammlung. Jeder hat irgendwo eine. Alle denken, sie sei wertvoll. Die wenigsten wissen etwas damit anzufangen. Und bis sie es wissen, geprüfte und versierte Datenwissenschaftler an Board haben, ausfallsichere Prozesse installiert und überhaupt mal einen PLAN haben, damit etwas sinnvolllles anzufangen, lassen Sie sie bis dahin besser einfach im Tresor.Kai Schmidhuber, sammelt zwar keine Briefmarken, aber auch keine Daten

Neuronale Netze – einfach verstehen beim Kochen. Am Beispiel der Feuersuppe. Lecker!

Was ist ein neuronales Netz? Die Fachleute erklären dann immer väterlich: „Hey, das funktioniert genauso wie das menschliche Gehirn.“ Woher soll ICH wissen, WIE mein Gehirn funktioniert? Jetzt mal ehrlich. Ich erkläre Ihnen das lieber an einem Kochtopf.

 Kai Schmidhuber, Digitalkoch

Schon einmal einen Suppenkochtopf programmiert? 

Angenommen, Sie möchten einen selbstkochenden Suppenkochtopf programmieren, um die Temperatur der Suppe zu kontrollieren, den Hitzeregler am Herd zu regulieren und, wenn die Suppe fertig ist, alles abzuschalten. Außerdem darf natürlich nichts anbrennen, geschweige denn Ihr Haus abfackeln, wenn die Suppe vor sich hin köchelt, während Sie ein Nickerchen auf der Couch machen. Und unangenehm riechen soll das Ganze auch nicht. Der Dunst muss abgezogen werden. Sonst lockt das nur die Nachbarn an, die sich wieder mal zum Essen einladen. 

Sie haben dazu eine Reihe von Sensoren:
 

  • einen Sensor, der in der Dunstabzugshaube installiert ist,

  • einen Sensor, der direkt im Kochdeckel integriert ist,

  • einen Rauchmelder an der Küchendecke und

  • ein Thermometer, das im Kochtopf verbaut ist.

Damit wollen wir jetzt eine Mexikanische Feuersuppe kochen. 

Wenn Sie als neuronaler Netzwerker oder Techniker nun wüssten, was Sie tun, würden Sie vermutlich den Rauchmelder mit einer Löschanlage (nehmen wir an, Sie haben so etwas) verkabeln, sodass, wenn etwas wirklich brennt, diese sofort anspringt und per Wassersprinkler löscht. 
Ebenso würden Sie das Thermometer im Kochtopf sicherlich mit dem Hitzeregler des Herdes verkabeln, sodass er automatisch herunterregelt, wenn die Temperatur zu hoch ist. 



Hier ist ein Diagramm, das die Sensoren auf der linken Seite und die Aktoren (Geräte, die Veränderungen ausüben können) zeigt. Die Kreise sind Verbindungspunkte für die Leitungen, die wir Knoten nennen werden.

(c) Kai Schmidhuber
Sensoren links und “Aktoren” rechts

DAS PROBLEM


Aber nehmen wir an, Sie wissen ganz und gar nicht, wie man kocht. Nie gelernt. Nie zugeschaut. Geheimwissenschaft für Sie. Wie würden Sie die Sensoren dann verkabeln? Was Sie sicher tun könnten, ist, dass Sie alle Sensoren an alle Aktoren anschließen. So wie früher die Hi-Fi-Anlage. „Hmmm … irgendwo muss das Kabel doch rein …?“

(c) Kai Schmidhuber
Alle Sensoren sind jetzt mit allen Aktoren verbunden

Und jetzt kochen Sie die Mexikanischer Feuersuppe. Probieren Sie es aus. Alles anschalten und dann warten.

Küche abgefackelt? 

Wahrscheinlich. 

In der Tat, denn das Verhalten des Kochtopfes und der Suppe und wie sich die Sensoren aktivieren, wird nämlich nicht wirklich vorhersehbar sein

Jetzt experimentieren Sie einfach mal ein bisschen mit den Drähten herum. Sie könnten auch mal versuchen, Drähte mit unterschiedlicher Leitungsfähigkeit zu verwenden. Versuchen Sie es noch ein paar Mal. Und kochen sie. Vielleicht brennt es jetzt schon nicht mehr. Und wenn es weniger anbrennt, sind wir auf dem richtigen Weg. 

Und wir probieren weiter. Mexikanische Feuersuppe kann man schließlich nie genug im Haus haben. Wenn Sie dies lange genug tun, werden Sie schließlich eine Konfiguration finden, bei der überhaupt nichts abfackelt. Vielleicht sieht sie so aus.

(c) Kai Schmidhuber
So brennt Ihnen die Feuersuppe nicht an. Und ihr Haus vom Brandschaden verschont.





Ziemlich simpel, aber erst mal effektiv: Der Sensor im Dunstabzug erkennt, ob der Kochtopf dampft. Und schaltet dann den Dunstabzug an. Wenn der Rauchmelder üblen Brand-Rauch schnuppert, gibt er ein Signal an die Löschanlage. Wasser marsch. Und wenn es im Topf zu heiß wird, reguliert sich der Hitzeregler runter. 

Das ist Ihr erstes neuronales Netz! Herzlichen Glückwunsch!

ABER: damit haben wir die Aufgabe ja noch nicht gelöst. Bisher haben Sie keine Kombination von Kabeln finden können, die den Kochtopf dazu bringt, das zu tun, was Sie wollen – nämlich eine wirklich leckere Suppe kochen, alle Zutaten richtig zu garen, im richtigen Moment die Temperatur runterzuschalten und so weiter. 

Das neuronale Netzt wird schlauer

In diesem Fall fügen Sie weitere Drähte hinzu, die in Schichten angeordnet sind. Die Zwischenknoten aggregieren elektrische Signale und kombinieren sie, bevor sie weitere elektrische Signale weiterleiten. Hä??? Ja, ich meine das so:

(c) Kai Schmidhuber
Sie haben Zwischenknoten in Ihr neuronales Feuersuppenkochtopfnetz eingefügt. Sie sind SO SCHLAU!

OK, nehmen wir an, Sie wollen, dass der Hitzeregler runterreguliert, wenn die Temperatur über 80 Grad beträgt. Es sei denn, der Sensor im Kochtopfdeckel erkennt, dass die Suppe noch nicht wie gewünscht leicht blubbernd simmert.


 Dann sähe das so aus:

(c) Kai Schmidhuber
Wir kommen der Sache näher. Schlauer Kochtopf. Nennen wir ihn “Neuromix”


Und jetzt fügen wir zur Sicherheit noch den Rauchmelder und die Löschanlage hinzu. Denn unsere Wohngebäudeversicherung deckt Brandschäden aus selbst gemachten neuronalen mexikanischen Feuersuppen-Netzen nicht ab. Und die Dunstabzugshaube brauchen wir auch noch. Es soll ja nicht so streng riechen im ganzen Haus. Vielleicht sieht das dann so aus.

(c) Kai Schmidhuber
Neuronales Netz für automatisierte Zubereitung von Mexikanischer Feuersuppe. Wo ist mein Nobelpreis?



Ab jetzt geht es zum Training


Natürlich wissen wir nicht, ob das wirklich so funktionieren würde. Deswegen müssen wir jetzt unser Netz trainieren. Denn nur durch Training können wir herausfinden, welche Knoten wir verbinden müssen und mit welchen Arten von Drähten für jede Verbindung zwischen den Knoten wir arbeiten müssen. Ohne ins Detail zu gehen, führen wir beispielhaft einige Eingaben – verschiedene Kochsituationen – in das Netzwerk ein und prüfen dann, ob der Kochtopf das Richtige getan hat. Eine bestimmte Kombination von Signalen der Sensoren ist nur ein mögliches Szenario von vielen. Wir messen dann, ob die Aktoren (also Dunstabzugshaube, Löschanlage, Hitzeregler) richtig reagiert haben. 

Und so probieren wir das neuronale Netzwerk in vielen Szenarien aus und optimieren es nach jedem Mal. Natürlich können spätere Optimierungen frühere Optimierungen vermasseln, sodass Sie alle Szenarien, die Sie sich nach der Anwendung aller Optimierungen ausgedacht haben, erneut im Netzwerk ausführen sollten. Wenn Sie dies oft genug tun, wird das Netzwerk in allen Szenarien immer besser.

(c) Kai Schmidhuber
Genauigkeit unseres neuronalen Netzes. Und ja: ich kann wirklich nicht zeichnen.

Fertig! 

Sie haben jetzt das Prinzip, Funktions- und Vorgehensweise neuronaler Netze verstanden. Sehen Sie, ganz einfach. Funktioniert genau so wie unser Gehirn. Nur eben mit mexikanischer Feuersuppe. GLÜCKWUNSCH!

Data Science: Ich sehe tote Menschen.

Data Science sorgt weiterhin überall für Begeisterung. Und doch können viele Ergebnisse aus der Praxis die datenverliebten Düsentriebe, Manager, Vorstände und Mitarbeiter oft doch bitterböse enttäuschen. Und nicht nur das – sie können sogar töten!

Data-Projekte können ziemlich blutig enden. Und zwar nicht nur im übertragenen Sinne.

Kai Schmidhuber

What!? OK, jetzt muss ich hier aber abliefern. Lesen Sie bitte weiter. Aber bevor es auch in Ihrem Data-Science-Projekt blutig wird, fangen wir mal mit den einfachen Dingen an. Zum Beispiel mit der Grundlage. Quasi mit der “Currywurst-Pommes-Schranke”, bevor es samstagabends zur Party geht. VORSICHT: Wenn Sie jetzt weiterlesen, erhalten Sie eine kostenlose Ferndiagnose ihrer Daten! 3…….2…….1:

Ferndiagnose: Ihre teuren Daten sind erstmal Schrott. Gern geschehen.

Fragen Sie sich bei Data-Vorhaben besser immer erst einmal, ob die Daten, die Sie dafür verwenden wollen, schon einmal in einem Projekt verwendet wurden. Nein? Nicht? Oha. Dann fügen Sie bitte acht bis zwölf Monate in den Zeitplan für die Datenbereinigung ein. Meine Empfehlung: führen Sie immer vor Beginn ein Daten-Audit durch. Überprüfen Sie, ob fehlende oder unsaubere Daten vorhanden sind. Klassiker: Sales-Data. Und plötzlich merken Sie, dass ihre Datenbank verschiedene Transaktionen in Dollar- und Euro-Beträgen gespeichert hat, ohne anzugeben, welche Transaktionen welche waren. Ja, das passiert. Ziemlich oft, sogar.

Daten sind nicht das neue Öl. Sorrriiieeeh!

Nochmal ich

Und nun noch kurz zu denjenigen, die ständig behaupten, Daten wären das neue Öl. Sie liegen falsch. Nochmal SRY, wenn ich hier ihre Keynote Speech zerstöre! Daten sind kein Rohstoff. Sie müssen in ein Produkt umgewandelt werden, bevor sie wertvoll – ein Rohstoff – werden. Daten sind vorher erstmal gar nichts. Ein bisschen so wie das Land Phantasien, das in der unendlichen Geschichte zu Nichts zerfällt. Ich habe in den letzten Jahren eigentlich selten ein Thema erlebt, dass so viele Menschen quasi über Nacht zu superversierten Sofortexperten transformiert. Ich spreche von “Machine Learning“. Heute hat jeder eine großartige Idee zum maschinellen Lernen. Zu den häufigsten “Sofortexperte-Symptomen” zählen Menschen, die Wörter wie “neuronal” und “Python” im falschen Kontext verwenden. Vertrauen Sie mir, das wird dann eher nix. Ich gebe Ihnen mal ein Beispiel, von dem ich kürzlich auf einem Mediziner-Kongress gehört habe (Sie wollen gar nicht wissen, was ich da eigentlich verloren hatte).

Und jetzt wird’s endlich blutig. Ein bisschen. Also los:

Es gab in den USA ein Maschine Learning-Projekt einer Krankenhausgesellschaft. Zur Kostenoptimierung. Das Projekt sollte Daten aus angeschlossenen Krankenhäusern nutzen, um Notfallpatienten mit Lungenentzündung effizienter versorgen zu können. Man wollte ein System aufbauen, das Notfälle mit geringer Todeswahrscheinlichkeit vorhersagen kann, so dass diese einfach mit Antibiotika nach Hause geschickt werden können. Dies würde es ermöglichen, die Pflege auf die schwerwiegendsten Fälle zu konzentrieren, die wahrscheinlich Komplikationen erleiden würden. 

Und ich so: „KRASS. Das ist mega schlau!“ Das von den Wissenschaftlern entwickelte neuronale Netzwerk hatte sogar eine sehr hohe Genauigkeit. Aber seltsamerweise entschied es sich immer, Asthmapatienten nach Hause zu schicken! Das ist merkwürdig, denn wie ich erfuhr, haben Asthmatiker tatsächlich ein hohes Risiko für tödliche Komplikationen durch eine Lungenentzündung. Wir spulen diesen Data-Splatter-Movie mal vor…

Tja… Es stellte sich heraus, dass Asthmatiker, die an einer Lungenentzündung leiden, sonst immer direkt auf die Intensivstation geschickt wurden. Aus diesem Grund gab es in den Trainingsdaten keine Fälle von Asthmatikern, die starben. Das Modell kam so zu dem Schluss, dass Asthmatiker ein geringes Risiko darstellen, obwohl das Gegenteil der Fall war. Es hatte eine hohe Genauigkeit, aber wenn es in der “Produktion“ eingesetzt würde, hätte es sicherlich Menschen getötet.

Merke: Data Science ist nur dann klug, wenn sie ihr zu Grunde liegendes Thema auch versteht. Sonst gibt es Tote.Sie haben es erraten.

Zitat meinerseits.

Falls Sie sich demnächst, Gott bewahre, mal auf den Weg zur Notfallambulanz machen müssen, kann ich Sie aber beruhigen. 

Keine Angst. 

Echt.

Wieso? 

Naja,  

in den meisten Firmen dauert es nämlich Monate, bis die frisch eingestellten Data Scientists überhaupt arbeitsfähig sind. Wenn überhaupt. Da wird schon mal wochenlang auf die richtige Software gewartet. Oder den richtigen Computer. Oder beides. Und dann wären dann ja noch die unstrukturierten Daten, der viel gepriesene „Datenschatz“. Der sich erstmal als Daten-Müllhalde entpuppt. Und aus dem feinmotorischen Data Scientisten wird erstmal ein virtueller Muskelman aka. Data-Entrümpler.

Aber, die Uhr tickt. Bald wird maschinen-gelernt und die Phyton von der Leine gelassen. Merke: Morgens neuronal, abends weiterhin Elmex. 

Bleiben Sie gesund!

Schulabbrecher erklärt Geheimwissenschaft “Machine Learning”. Geht das?

Früher habe ja ich den Physikunterricht geradezu geliebt. Um ihn zu sabotieren. Der Lehrer machte mit uns physikalische Versuche, und oft musste dann zum Beispiel die Zeit gestoppt werden. Das war meine Rolle. Und ich habe die Zeit immer absichtlich falsch genommen. Physiklehrer: mit den Nerven am Ende. Versuch: missglückt. Man sollte nicht stolz darauf sein.

Analytische Geometrie ist mein Untergang.

Kai Schmidhuber, Schüler wider Willen

Noch weniger stolz bin ich allerdings auf meine mathematischen Fähigkeiten. In der Oberstufe habe ich, anstatt die Klausuraufgaben zu lösen, lieber mal einen Aufsatz verfasst – Titel: „Analytische Geometrie ist mein Untergang“. Ausgerechnet der Matheunterricht soll mir heute dabei helfen, Ihnen das Thema „Machine Learning“ näherzubringen.

Jetzt kommt Ihre Doppelstunde “Machine Learning” – easy!

Also, versetzen Sie sich in alte Zeiten: Holzbank, kippelnder Stuhl, abgelatschter Linoleumboden und der Geruch von feuchten Klamotten nach einer geheimen Raucherpause im Regen hinter der Turnhalle. Ich sehe: Sie haben bereits diesen beseelt-angewiderten Blick. 

Also, los geht’s:

 Beginnen wir mit einer einfachen Erklärung des maschinellen Lernens am Beispiel Mathematikunterricht: Der Lehrer gibt irgendeine Aufgabenstellung vor, die es rechnerisch und logisch zu lösen gilt, und natürlich kommen dann später auch die richtigen Antworten von ihm. So weit, so normal. 



Merke:


  • Die Aufgabenstellung nennt man im Machine-Learning-Kosmos das „Übungsproblem“.
  • Unterschiedliche Übungsprobleme zeichnen sich durch unterschiedliche „Eingabedaten“ aus.

Jetzt nehmen wir einmal meinen persönlichen Worst Case an: Doppelstunde Mathe. Lehrer krank, stattdessen ein topmotivierter Referendar am Start. Und der ballert die Schüler jetzt mit ganz, ganz, ganz vielen Übungsproblemen zu. Und liefert ganz, ganz viele Antworten. Zunächst große Verwirrung: „Was will der Typ?!“ Ganz einfach – der Referendar verlangt von den Schülern, Methoden zur Lösung der Übungsprobleme zu finden, indem sie Muster im Vergleich zwischen den Informationen innerhalb der Probleme und den zugehörigen Antworten erkennen. Denn jedes Übungsproblem kodiert Informationen, die ein Schüler erfassen und sich so eine Antwort zusammenreimen kann. Indem er also die Übungsprobleme miteinander vergleicht, leitet der Schüler aus Gemeinsamkeiten und weiteren Elementen die Antworten ab.

 

Also:

  • Der Referendar ist der „Data Scientist“.
  • Der Schüler ist der „Machine-Learning-Algorithmus“
  • Antworten auf Übungsprobleme werden auch „Labels” genannt.
  • Den Lernprozess können wir als “Training eines Algorithmus” bezeichnen.



Nach Hunderten von Übungsproblemen erwartet der radebrechende Referendar, dass unser exemplarischer Schüler nun in der Lage ist, eine Art Muster zu finden, das er nutzen kann, um das Problem zu lösen. Also testet er den Schüler, beauftragt ihn mit der Prüfung von neuen Fragen und vergleicht die generierten Antworten mit den tatsächlichen Antworten.  Er stellt den Algorithmus damit auf die Probe.  

Die große Auflösung. Ist der Algorithmus genau?



Wenn der Schüler (=Algorithmus) jetzt, wie ich damals, einen emotionalen Aufsatz über sein mathematisches Unvermögen schreibt, haben wir zwar eine Weltsensation – aber der Referendar sein Ziel verfehlt. Denn die Bewertung seiner Genauigkeit gibt ihm ein Maß für die Effektivität sowohl des Schülers als auch der Menge der Übungsprobleme, die ihm gegeben wurden.

 Wir wissen aber auch, dass einzelne Schüler zu unterschiedlichen Lernstilen neigen. 

Ganz ähnlich versucht auch jeder maschinelle Lernalgorithmus auf seine eigene Art und Weise, Muster innerhalb der Eingabedaten zu finden. Diese unterschiedlichen Stile machen Schüler in verschiedenen Fächern individuell besonders kompetent, ebenso wie einige ML-Algorithmen nützlicher und robuster für bestimmte Datentypen sind als andere.

Tja, und das ist erst mal alles, was es über das Thema „Machine Learning“ zu wissen gibt – im Prinzip keine Geheimwissenschaft. Und auch nicht unfassbar schwer. Viel schwerer ist es da schon, die richtigen Übungsprobleme zu finden und deren notwendige Daten. Und dann gemeinsam mit der Fachseite, dem Business, aus einer Idee für einen Algorithmus auch ein funktionierendes Produkt zu entwickeln. 



Die Moral von der Geschicht’: 

Algorithmen sind nichts anderes als schlaue Eliteschüler. 

Kein Eliteschüler

Und ich schreibe weiter Aufsätze. 

So wie den hier.

(Zur Info: Ja, ich habe tatsächlich kein Abitur und die Schule in der dreizehnten Klasse abgebrochen. Ich musste mich um mein Startup kümmern. Erschien mir logisch)