Philosophie 7

Cards (13)

  • Kontextuelle Bedeutung
    Die Bedeutung von Symbolen hängt stark vom Kontext ab und kann nicht isoliert betrachtet werden
  • Intentionalität
    Bedeutungen basieren auf den Absichten der Sprecher, die Symbole allein nicht vollständig erfassen können
  • Regelgeleitetheit der Sprache
    Sprache ist durch komplexe Regeln und Konventionen strukturiert, die Symbole allein nicht wiedergeben können
  • Hebbsche Lernregel
    1. Wenn zwei Neuronen gleichzeitig aktiv sind, wird die Verbindung zwischen ihnen stärker
    2. Diese Regel bildet die Grundlage für das Verständnis, wie Lernen und Gedächtnis auf neuronaler Ebene funktionieren
  • Perceptron
    • Ein einfaches Modell für neuronale Netzwerke und ein früher Ansatz des Konnektionismus
    • Ein künstliches Neuron, das Eingaben (Inputs) mit Gewichten (Weights) multipliziert, summiert und durch eine Aktivierungsfunktion entscheidet, ob es feuert (Output)
    • Das Perceptron lernte durch Anpassung der Gewichte basierend auf Fehlern in den Ausgaben, was den Grundstein für maschinelles Lernen und neuronale Netzwerke legte
  • Neo-Konnektionismus (PDP- Parallel Distributed Processing)

    • Er umfasst fortgeschrittene neuronale Netzwerke mit mehreren Schichten (Deep Learning), die komplexen Muster und Beziehungen in Daten erkennen und lernen können
    • Hopfield-Netzwerk: Ein Netzwerk aus Neuronen, in dem jeder Knoten mit jedem anderen verbunden ist. Es dient als Modell für assoziatives Gedächtnis
    • Back Propogation: Ein Algorithmus zur Anpassung der Gewichte in einem neuronalen Netzwerk, indem der Fehler rückwärts durch das Netzwerk propagiert wird
  • Dynamizismus
    Ein Modell, das kognitive Prozesse als kontinuierlich veränderliche und interaktive Systeme beschreibt, die sich im Laufe der Zeit entwickeln
  • Konnektionismus
    • Kognitive Systeme besitzen eine Netzwerk- Architektur einfache Einheiten mit gewichteten Verbindungen
    • Neuronale Aktivierung
    • Veränderbarkeit der neuronalen Verbindungen (Plastizität Lern und Regenerationsfähigkeit, Hebbschen Lernen als neurophysiologische Grundlage)
    • Praktischen Erfolg künstlicher neuronaler Netze, assoziative Speicher, Mustererkennung, Klassifikationsprobleme etc.
  • Basisstruktur neuronaler Netze

    • Neuronale Zustände als Vektoren
    • Aktivierungsdynamik als Matrixmultiplikation
    • Update der synaptischen Gewichte gemäß Lernregeln
    • Subsymbolische und verteilte neuronale Repräsentationen
  • Repräsentation
    • Beispiele: Bilder, Landkarten piktoriell, strukturell, symbolisch, sprachlich
    • Repräsentationen stehen für etwas und referieren/denotieren (Bezugnahme)
    • Repräsentation als dreistellige Relation: A repräsentiert B als C
    • Repräsentation als normativer Term: Möglichkeit von Fehlerrepräsentationen
  • Klassisches Sandwich Modell der Kognition

    Perzeptueller Input Kognition (Informationsverarbeitung mittels interner, mentaler Repräsentationen) Motorischer Output
  • Mentale Repräsentationen
    • Sandwich-Modell und Praxis der Kognitions und Neurowissenschaften legen einen Realismus mentaler Repräsentationen näher. Steuerung von Verhalten auch unabhängig vom Vorliegen eines Stimulus.
    • Philosophie des Geistes, Repräsentation sind durch ihren Gehalt, also semantisch, individuiert
    • Ggf. gestuft nicht-begrifflich, begrifflich, propositional
    • Symbolismus und Konnektionismus sind repräsentational unabhängig davon, ob Syntax hinreichend für Semantik ist, verweisen aber auf unterschiedlichen Repräsentationsformate
  • Kontextuelle Bedeutung, Intentionalität, Regelgeleitetheit der Sprache
    Searles Argument gegen Symbolismus