Mathematische Grundlagen
Als Sprache der naturwissenschaftlichen Modellbildung ist die Mathematik auch die Sprache der probabilistischen Datenwissenschaft der Psychologie. Die Funktion der Mathematik ist dabei die einer Vermittlerin zwischen intuitiver Wissenschaftssprache und der Vielfalt von Programmiersprachen, die zur Implementation datenwissenschaftlicher Analysen eingesetzt werden. Mathematische Begriffsbildungen erlauben es, Konzepte sehr genau und allgemein verständlich zu greifen und unabhängig von den Ungenauigkeiten der naturwissenschaftlichen Alltagsprache oder den Idiosynkratien verschiedener Programmiersprachen zu kommunizieren. Natürlich kann die mathematische Sprache diese Rolle nicht losgelöst von wissenschaftssprachlicher Intuition oder praktischer Anwendung einnehmen. Die Mathematik ist in der probabilistischen Datenanalyse also nie Selbstzweck, sondern immer als angewandte Mathematik zu verstehen.
In diesem Teil stellen wir nach einigen Gedanken zu den grundlegenden Konzepten der Mathematik (1 Sprache und Logik) mit den Mengen und den Funktionen (Definition 2.1 und 4 Funktionen) die beiden Grundpfeiler der modernen Mathematik in komprimierter Form dar. Wir ergänzen diese Darstellung durch einige im notationelle Aspekte in 3 Summen, Produkte, Potenzen. Eng verwoben mit dem Begriff der Funktion sind die Differentialrechnung und die Integralrechnung (6 Differenzialrechnung und 7 Integralrechnung). Auch hier geht es nicht um eine erschöpfende Darstellung, sondern insbesondere um die Erläuterung einiger Grundlagen, die für die datenwissenschaftlich zentralen Konzepte der Optimierung sowie dem Umgang mit Wahrscheinlichkeitsfunktionen zentral sind. Wir ergänzen diese Abschnitte mit einigen oberflächlichen Gedanken zu den analytischen Grundlagen der Differenzialrechnung und Integralrechnung in 5 Folgen, Grenzwerte, Stetigkeit. Im Umgang mit den großen Datenmengen der zeitgenössischen Wissenschaft hat sich die Matrixschreibweise als hilfreich erwiesen. Wir widmen uns diesem Teilbereich der linearen Algebra zunächst für einspaltige Matrizen in 14 Vektoren und dann ausführlich in 15.1 Matrizen, wiederrum mit dem Ziel, notationelle und rechnerische Grundlagen für spätere Abschnitte bereitzustellen.
Insgesamt dient dieser Teil also vor allem der Kurzeinführung von Grundlagen, die in anderen Teilen wieder aufgegriffen werden, und dabei vor allem auch der Einführung einer einheitlichen Notation. Je nach Bedarf und Interesse ist natürlich ein vertieftes Selbststudium der verschiedenen Inhalte angezeigt. In den folgenden Literaturhinweisen führen wir überblicksartig Quellen und Leseempfehlungen zu den hier betrachteten Inhalten.
Literaturhinweise
Bärwolff (2017) und Arens et al. (2018) bilden die primäre Grundlage für viele hier dargestellen Themen und bieten einen exzellenten und umfassenden Einstieg in die behandelte Materie. Auf internationaler Ebene geben Spivak (2008) und Strang (2009) sehr gut lesbare Einführungen in die Differenzialrechnung bzw. die lineare Algebra. Ein tieferes Verständnis insbesondere analytischer Konzepte liefern zum Beispiel Abbott (2015) und Chiossi (2021). Searle (1982) bietet eine kompakte Darstellung derjenigen Aspekte der Matrizenrechnung und linearen Algebra, die im Bereich der probabilistischen Datenanalyse hauptsächlich zum Einsatz kommen. Deisenroth et al. (2020) bietet einen Überblick über viele der hier behandelten Themen unter dem Moniker des maschinellen Lernens.