Scheinbar ist die sogenannte KI etwas, was nicht ganz so schnell wieder weg geht. Daher fangen wir in dieser Episode damit an, etwas genauer zu erklähren, was es damit auf sich hat. Im ersten Teil dieser Reihe geht es um die entferntere Geschichte, die zu dem geführt hat, was wir heute sehen.
12./13. Jhd: Ramon Llull legt sein Hauptwerk Ars generalis ultima vor, das erläutert, wie man durch mechanisches Kombinieren von Begriffen mittels einer von ihm erdachten "logischen Maschine" zu Erkenntnissen gelangt
Llull war sowohl Logiker als auch Theologe: "Die Große Kunst war Llull seinen Memoiren zufolge [...] 'von Gott offenbart' worden. Er wurde von da an auch Doctor illuminatus genannt."
1679: Leibniz stützt sich auf Llulls Arbeit und entwickelt ein "Alphabet der menschlichen Kognition", mit dem Argumente nach festen Regeln mechanistisch ableitbar sein sollen
aber auch 1676: Leibniz leitet als Teil seiner Grundlagenforschung der Analysis die Kettenregel her
theoretische Grundlage für das Training mehrschichtiger ML-Systeme
symbolische Tradition (seit dem Mittelalter, s.o.): "In diesem Ansatz stehen Symbole und Variablen für Abstraktionen; mathematische und logische Funktionen machen den Kern aus. [Symbolische] Systeme repräsentieren Wissen im Allgemeinen explizit, oft in Datenbanken, und verwenden klassische Programmiersprachen (oder sind komplett in diesen verfasst)."
konnektionistische Tradition (seit 1940/1950): "[Konnektivistische] Systeme sind statistisch, sehr lose von bestimmten Aspekten des Gehirns inspiriert (z.B. sind 'Knoten' in neuralen Netzwerken als Abstraktion von Neuronen gedacht), und für gewöhnlich auf großen Datensätzen trainiert. Große Sprachmodelle (LLM) entwuchsen dieser Tradition."
Marcus skizziert die Geschichte der KI-Forschung als eine Geschichte der Spannung zwischen diesen Denkschulen
Xyrill beobachtet, dass dieser Dualismus zu seinen Beobachtungen über den Dualismus der menschlichen Intelligenz kongruent ist (vgl. System 1/2 in Daniel Kahnemans "Schnelles Denken, langsames Denken"; aber Vorsicht bzgl. Replizierbarkeit)
nicht die erste wissenschaftliche Aktivität zu KI mit Computern, aber historischer Einfluss durch die hohe Konzentration wichtiger Vertreter des Feldes (analog zu den Solvay-Konferenzen in der Physik)
allein der erste Absatz des Förderantrags umreißt auch aus heutiger Sicht akkurat das ganze Feld (siehe Link unter "Durchführung")
Nathaniel Rochester: 1955 bei IBM Experimente mit Neuronalen Netzwerken, Mustererkennung, Spielprogrammen, etc.
Claude Shannon: Begründer der Informationstheorie; 1950 Konstruktion einer Robotermaus, die ein Labyrinth durchschreiten konnte
Ray Solomonoff: präsentierte auf der Konferenz ein Programm, dass "arithmetische Formeln durch Beispiele ohne eingreifende Aufsicht" lernen konnte
Oliver Selfridge: schlug 1958 eine Struktur für KI-Systeme als Netzwerk von Agenten ("Dämonen") vor, mit unterschiedlichen Arten von Agenten ("Feature Demons" für Mustererkennung, "Cognitive Demons" für Informationszusammenführung, "Decision Demons" für Entscheidungen)