TORIma Akademie Logo TORIma Akademie
Empiricism
Philosophie

Empiricism

TORIma Akademie — Erkenntnistheorie

Empiricism

Empiricism

In der Philosophie ist Empirismus eine erkenntnistheoretische Sichtweise, die davon ausgeht, dass wahres Wissen oder wahre Rechtfertigung entweder nur oder hauptsächlich aus Sinneserfahrungen resultiert …

Innerhalb der Philosophie stellt Empirismus eine erkenntnistheoretische Perspektive dar, die behauptet, dass echtes Wissen oder Rechtfertigung ausschließlich oder überwiegend aus Sinneserfahrungen und empirischen Daten stammt. Dieser Standpunkt ist neben Rationalismus und Skeptizismus eine von mehreren konkurrierenden Theorien in der Erkenntnistheorie.

In der Philosophie ist Empirismus eine erkenntnistheoretische Sichtweise, die davon ausgeht, dass wahres Wissen oder wahre Rechtfertigung entweder nur oder hauptsächlich aus Sinneserfahrungen und empirischen Beweisen resultiert. Es ist neben Rationalismus und Skeptizismus eine von mehreren konkurrierenden Ansichten innerhalb der Erkenntnistheorie.

Befürworter des Empirismus behaupten, dass er einen zuverlässigeren Ansatz zur Erkennung der Wahrheit bietet als die alleinige Abhängigkeit von logischen Überlegungen, da die menschliche Erkenntnis anfällig für Vorurteile und Einschränkungen ist, die zu fehlerhaften Urteilen führen können.

Der Empirismus unterstreicht die entscheidende Funktion empirischer Beweise bei der Entwicklung von Konzepte, im Gegensatz zum Vertrauen auf angeborene Ideen oder etablierte Traditionen. Empiristen könnten vorschlagen, dass Traditionen oder Bräuche aus der Anhäufung vorheriger Sinneserfahrungen hervorgehen.

Historisch gesehen wurde der Empirismus mit dem Konzept der „unbeschriebenen Tafel“ oder tabula rasa in Verbindung gebracht, das davon ausgeht, dass der menschliche Geist bei der Geburt keinen Inhalt hat und seine Ideen anschließend ausschließlich durch erworbene Erfahrung formt.

In der Wissenschaftsphilosophie betont der Empirismus die Bedeutung von Beweisen, insbesondere der gewonnenen durch Experimentieren. Es stellt ein grundlegendes Prinzip der wissenschaftlichen Methode dar und verlangt, dass alle Hypothesen und Theorien anhand von Beobachtungen der natürlichen Welt validiert werden, anstatt sich ausschließlich auf a priori Überlegungen, Intuition oder göttliche Offenbarung zu verlassen.

Der Empirismus, der häufig von Naturwissenschaftlern eingesetzt wird, geht davon aus, dass Wissen grundsätzlich aus Erfahrung abgeleitet und von Natur aus vorläufig und probabilistisch ist, was eine ständige Überarbeitung und mögliche Verfälschung erfordert. Empirische Untersuchungen, die Experimente und streng validierte Messinstrumente umfassen, bestimmen die wissenschaftliche Methodik.

Etymologie

Das englische Adjektiv empirical stammt vom altgriechischen Begriff ἐμπειρία, empeiria ab, der eine gemeinsame sprachliche Wurzel mit dem lateinischen experientia hat und in dieses übersetzt wird. Von dieser lateinischen Wurzel werden später die Begriffe Erfahrung und Experiment abgeleitet.

Hintergrund

Ein zentraler Grundsatz der Wissenschaft und der wissenschaftlichen Methode schreibt vor, dass Schlussfolgerungen empirisch durch sensorische Beweise untermauert werden müssen. Sowohl die Natur- als auch die Sozialwissenschaften verwenden vorläufige Hypothesen, die durch Beobachtung und Experimente überprüft werden können. Die Bezeichnung semiempirisch kennzeichnet gelegentlich theoretische Methoden, die grundlegende Axiome, etablierte wissenschaftliche Prinzipien und frühere experimentelle Erkenntnisse integrieren, um die systematische Modellkonstruktion und theoretische Untersuchung zu erleichtern.

Philosophische Empiristen behaupten, dass kein Wissen legitim abgeleitet oder abgeleitet werden kann, es sei denn, es stammt aus der Sinneserfahrung eines Individuums. Innerhalb der Epistemologie, der Wissenstheorie, wird Empirismus häufig mit Rationalismus verglichen, der davon ausgeht, dass Wissen unabhängig von sensorischen Eingaben durch Vernunft erworben werden kann. In der Philosophie des Geistes wird es häufig mit dem Innatismus verglichen, dem Glauben, dass bestimmte Kenntnisse und Ideen dem Geist von Geburt an innewohnen. Dennoch zeigten zahlreiche Rationalisten und Empiristen der Aufklärung gegenseitige Zugeständnisse. Beispielsweise erkannte der Empiriker John Locke an, dass spezifisches Wissen, wie etwa die Existenz Gottes, allein durch Intuition und logisches Denken erlangt werden könne. Ebenso behauptete Robert Boyle, ein bemerkenswerter Befürworter der experimentellen Methode, dass es auch angeborene Ideen gebe. Gleichzeitig vertraten auch die wichtigsten kontinentalen Rationalisten, darunter Descartes, Spinoza und Leibniz, die empirische wissenschaftliche Methode.

Verlauf

Früher Empirismus

Im Zeitraum von 600 bis 200 v. Chr. erkannte die vom alten indischen Philosophen Kanada gegründete Vaisheshika-Schule der Hindu-Philosophie Wahrnehmung und Schlussfolgerung als die einzigen verlässlichen Ursprünge des Wissens an. Diese Lehre wird in seiner Abhandlung Vaiśeṣika Sūtra detailliert beschrieben. Die Charvaka-Schule vertrat vergleichbare Grundsätze und bekräftigte die Wahrnehmung als ausschließlich vertrauenswürdige Wissensquelle, während sie das aus Schlussfolgerungen abgeleitete Wissen als unsicher ansah.

Zu den ersten westlichen Protoempirikern gehörte die empirische Schule der antiken griechischen Mediziner, die 330 v. Chr. gegründet wurde. Anhänger dieser Schule lehnten die Lehren der dogmatischen Schule ab und verließen sich stattdessen auf die Beobachtung von phantasiai, die sich auf Phänomene oder Erscheinungen beziehen. Die empirische Schule unterhielt eine enge Verbindung zur pyrrhonistischen Philosophieschule, die die philosophische Begründung für ihren frühen empirischen Ansatz lieferte.

Das Konzept von tabula rasa („sauberes Blatt“ oder „leere Tafel“) postuliert den Geist als zunächst leeres oder unbeschriebenes Gefäß, in das Erfahrung Wissen einprägt (Locke verwendete bekanntermaßen den Ausdruck „weißes Papier“). Diese Perspektive widerlegt die Existenz angeborener menschlicher Ideen. Diese Vorstellung geht auf Aristoteles zurück, ca. 350 v. Chr., der Folgendes feststellte:

Was der Geist (nous) denkt, muss im gleichen Sinne darin enthalten sein wie Buchstaben auf einer Tafel (grammation), die keine tatsächliche Schrift trägt (grammenon); Genau das passiert im Fall des Geistes.

(Aristoteles, Über die Seele, 3.4.430a1).

Aristoteles‘ Erläuterung dieses Phänomens entsprach nicht streng den Prinzipien des modernen Empirismus, sondern basierte vielmehr auf seiner Theorie der Potentialität und Aktualität, wobei die Sinneserfahrung immer noch das Eingreifen des aktiven nous erforderte. Diese Konzepte unterschieden sich erheblich von platonischen Perspektiven, die den menschlichen Geist als eine präexistente Einheit postulierten, die ihren Ursprung im Himmel hatte, bevor sie auf der Erde verkörpert wurde. Es wurde angenommen, dass Aristoteles im Vergleich zu Platon der Sinneswahrnehmung eine größere Bedeutung beimisst; Infolgedessen fassten mittelalterliche Kommentatoren einen seiner Lehren als „nihil in intellectu nisi prius fuerit in sensu“ (lateinisch für „nichts im Intellekt, ohne zuerst in den Sinnen zu sein“) zusammen.

Anschließend wurde dieses Konzept innerhalb der antiken Philosophie von der stoischen Schule weiterentwickelt, beginnend um 330 v. Chr. Die stoische Erkenntnistheorie geht typischerweise davon aus, dass der Geist als unbeschriebene Oberfläche beginnt und sich nach und nach Wissen durch die Eindrücke der Außenwelt aneignet. Der Doxograph Aetius fasst diese Ansicht zusammen: „Wenn ein Mann geboren wird, sagen die Stoiker, hat er den beherrschenden Teil seiner Seele wie ein Blatt Papier, auf das er schreiben kann.“

Das islamische Goldene Zeitalter und das Mittelalter (5 bis 15. Jahrhundert n. Chr.)

Während des gesamten Mittelalters (5. bis 15. Jahrhundert n. Chr.) wurde Aristoteles‘ Konzept der tabula rasa von islamischen Philosophen erheblich weiterentwickelt. Diese Entwicklung begann mit Al-Farabi (ca. 872–ca. 951 n. Chr.) und gipfelte in einem komplizierten theoretischen Rahmenwerk von Avicenna (ca. 980–1037 n. Chr.) und einem Gedankenexperiment von Ibn Tufail. Avicenna (Ibn Sina) zum Beispiel konzeptualisierte die tabula rasa als eine reine Möglichkeit, die durch Bildung verwirklicht wird, wobei der Wissenserwerb durch „empirische Vertrautheit mit Objekten in dieser Welt, von denen man universelle Konzepte abstrahiert“ erfolgt, weiter verfeinert durch eine „syllogistische Argumentationsmethode, bei der Beobachtungen zu propositionalen Aussagen führen, die, wenn sie zusammengesetzt werden, zu weiteren abstrakten Konzepten führen.“ Der Intellekt selbst entwickelt sich von einem materiellen Intellekt (al-'aql al-hayulani) – einer Möglichkeit, Wissen zu erwerben – zum aktiven Intellekt (al-'aql al-fa'il), der den Zustand des menschlichen Intellekts in Verbindung mit der ultimativen Quelle des Wissens darstellt. Somit bleibt der immaterielle „aktive Intellekt“, der sich von jedem Individuum unterscheidet, für den Prozess des Verstehens unverzichtbar.

Im 12. Jahrhundert n. Chr. integrierte der andalusische muslimische Philosoph und Schriftsteller Abu Bakr Ibn Tufail (im Westen als „Abubacer“ oder „Ebu Tophail“ bekannt) die Tabula Rasa-Theorie als Gedankenexperiment in seinen arabischen philosophischen Roman Hayy ibn Yaqdhan. Dieses Werk schilderte die geistige Entwicklung eines wilden Kindes, das sich „von einer tabula rasa zu der eines Erwachsenen“ entwickelte, völlig isoliert von der Gesellschaft auf einer einsamen Insel, allein durch empirische Erfahrung. Die lateinische Wiedergabe dieses philosophischen Romans mit dem Titel Philosophus Autodidactus, der 1671 von Edward Pococke dem Jüngeren veröffentlicht wurde, beeinflusste maßgeblich John Lockes Artikulation von tabula rasa in seinem wegweisenden Werk An Essay Concerning Human Understanding.

Im 13. Jahrhundert schrieb der arabische Theologe und Arzt Ibn al-Nafis verfasste einen vergleichbaren islamisch-theologischen Roman, Theologus Autodidactus. Diese Arbeit untersuchte ebenfalls das Thema des Empirismus anhand der Erzählung eines wilden Kindes auf einer einsamen Insel; Es unterschied sich jedoch von seinem Vorgänger, indem es die geistige Entwicklung des Protagonisten durch gesellschaftliche Interaktion und nicht in völliger Isolation veranschaulichte.

Im 13. Jahrhundert integrierte Thomas von Aquin die aristotelische Prämisse in die Scholastik, in der er die wesentliche Rolle der Sinne in mentalen Prozessen behauptete. Umgekehrt präsentierte Bonaventura (1221–1274), ein prominenter intellektueller Gegner von Thomas von Aquin, überzeugende Argumente, die die platonische Auffassung des Geistes stützten.

Die italienische Renaissance

Während der Spätrenaissance begannen mehrere Autoren, die mittelalterlichen und klassischen Paradigmen des Wissenserwerbs kritisch und genauer zu untersuchen. Im Bereich des politischen und historischen Diskurses leisteten Niccolò Machiavelli und sein Mitarbeiter Francesco Guicciardini Pionierarbeit für einen neuartigen, realistischen Schreibstil. Insbesondere Machiavelli drückte seine Verachtung gegenüber politischen Theoretikern aus, die Phänomene anhand abstrakter Ideale bewerteten, und plädierte stattdessen für das Studium der „wirksamen Wahrheit“. Gleichzeitig behauptete Leonardo da Vinci (1452–1519), dass man, wenn persönliche Erfahrungen eine Tatsache offenbaren, die etablierter Autorität widerspricht, diese Autorität außer Acht lassen und sich auf die eigenen Erkenntnisse stützen muss.

Bemerkenswert ist, dass der italienische Philosoph Bernardino Telesio ein empirisches metaphysisches System entwickelte, das nachfolgende italienische Denker tiefgreifend beeinflusste, darunter seine Schüler Antonio Persio und Sertorio Quattromani sowie seine Zeitgenossen Thomas Campanella und Giordano Bruno und später britische Philosophen wie Francis Bacon, der Telesio als „den ersten der Modernen“ feierte. Telesios intellektueller Einfluss erstreckte sich auch auf die französischen Philosophen René Descartes und Pierre Gassendi.

Vincenzo Galilei (ca. 1520 – 1591), ein Musiktheoretiker, der entschieden antiaristotelisch und antiklerikal eingestellt war, Vater von Galileo und Erfinder der Monodie, wandte empirische Methoden effektiv an, um musikalische Herausforderungen zu lösen. Dazu gehörten Stimmprobleme, etwa das Verhältnis von Tonhöhe zu Saitenspannung und -masse bei Saiteninstrumenten und zum Luftvolumen bei Blasinstrumenten. In seinem Dialogo della musica antica e moderna (Florenz, 1581) machte er Komponisten auch verschiedene Kompositionsvorschläge. Der italienische Begriff, den er für „Experiment“ verwendete, war esperimento. Er gilt als grundlegender pädagogischer Einfluss auf seinen ältesten Sohn, den jungen Galileo, der wohl einer der einflussreichsten Empiriker der Geschichte ist (vgl. Coelho, Hrsg. Music and Science in the Age of Galileo Galilei). Durch seine Stimmuntersuchungen deckte Vincenzo das zugrunde liegende Prinzip hinter dem missverstandenen Mythos der „Pythagoras-Hämmer“ auf (und zeigte, dass das Quadrat der Zahlen und nicht die Zahlen selbst die musikalischen Intervalle ergaben). Diese und andere Entdeckungen, die die Fehlbarkeit traditioneller Autoritäten aufdeckten, förderten eine radikal empirische Perspektive, die später Galileo vermittelt wurde und die „Erfahrung und Demonstration“ als die sine qua non gültiger rationaler Forschung ansah.

Britischer Empirismus

Britischer Empirismus, ein rückblickend verwendeter Begriff, entwickelte sich im 17. Jahrhundert zu einem bedeutenden Ansatz innerhalb der frühneuzeitlichen Philosophie und modernen Wissenschaft. Während beide integraler Bestandteil dieses umfassenderen intellektuellen Wandels waren, setzte sich Francis Bacon in England erstmals 1620 für den Empirismus ein, während René Descartes in Frankreich um 1640 die Grundprinzipien des Rationalismus etablierte. (Bacons Naturphilosophie wurde vom italienischen Philosophen Bernardino Telesio und dem Schweizer Arzt Paracelsus beeinflusst.) Später im 17. Jahrhundert werden Thomas Hobbes und Baruch Spinoza rückblickend ebenfalls als Empiristen und a identifiziert Rationalist bzw. Während der Aufklärung im späten 17. Jahrhundert wurden John Locke in England und im 18. Jahrhundert sowohl George Berkeley in Irland als auch David Hume in Schottland prominente Befürworter des Empirismus und festigten so seine Dominanz in der britischen Philosophie. Die formale Unterscheidung zwischen Rationalismus und Empirismus wurde erst um 1780 in Deutschland von Immanuel Kant formuliert, der versuchte, die beiden Standpunkte zu synthetisieren.

Als Reaktion auf den „kontinentalen Rationalismus“, der Anfang bis Mitte des 17. Jahrhunderts vorherrschte, präsentierte John Locke (1632–1704) in seinem „An Essay Concerning Human Understanding“ eine äußerst einflussreiche Perspektive (1689). Diese Ansicht ging davon aus, dass das einzige Wissen, das der Mensch erlangen kann, a posteriori ist, was bedeutet, dass es aus Erfahrung abgeleitet ist. Locke wird bekanntermaßen mit der These in Verbindung gebracht, dass der menschliche Geist als tabula rasa oder als „leere Tafel“ – in Lockes eigenen Worten als „weißes Papier“ – fungiert, auf der Erfahrungen, die ein Individuum im Laufe seines Lebens durch Sinneseindrücke erworben hat, eingeschrieben sind.

Ideen stammen aus zwei unterschiedlichen Quellen: Empfindung und Reflexion. Innerhalb beider Kategorien wird zwischen einfachen und komplexen Ideen unterschieden. Einfache Ideen sind unteilbar und werden weiter in primäre und sekundäre Qualitäten kategorisiert. Primäre Eigenschaften sind grundlegend für die inhärente Natur eines Objekts; Ohne spezifische Primäreigenschaften würde ein Objekt seine wesentliche Identität verlieren. Beispielsweise wird die Identität eines Apfels durch seine atomare Struktur bestimmt; Eine andere Struktur würde verhindern, dass es sich um einen Apfel handelt. Sekundäre Qualitäten stellen die sensorischen Daten dar, die aus den primären Eigenschaften eines Objekts abgeleitet werden. Ein Apfel zum Beispiel kann sich in verschiedenen Farben, Größen und Texturen manifestieren und dabei seine Identität als Apfel bewahren. Primäre Eigenschaften definieren also das Wesen eines Objekts, während sekundäre Eigenschaften seine wahrnehmbaren Eigenschaften beschreiben. Komplexe Ideen entstehen durch die Kombination einfacher Ideen und werden in Substanzen, Modi und Beziehungen klassifiziert. Locke postulierte, dass menschliches Wissen eine Wahrnehmung der Kongruenz oder Inkongruenz zwischen Ideen darstellt, eine Perspektive, die deutlich von Descartes' Streben nach absoluter Gewissheit abweicht.

Anschließend behauptete der irisch-anglikanische Bischof George Berkeley (1685–1753), dass Lockes philosophischer Rahmen von Natur aus Gefahr laufe, zum Atheismus zu führen. In seinem 1710 erschienenen Werk Treatise Concerning the Principles of Human Knowledge präsentierte Berkeley ein wichtiges Gegenargument zum Empirismus, indem er behauptete, dass Objekte nur existieren, entweder dadurch, dass sie wahrgenommen werden oder weil sie die wahrnehmende Einheit sind. Berkeley schlug außerdem vor, dass Gott als universeller Wahrnehmender fungiert, wenn die menschliche Wahrnehmung fehlt. In Alciphron argumentierte Berkeley, dass jede erkennbare Ordnung in der Natur die göttliche Sprache oder Schrift Gottes darstellt. Diese besondere empirische Methodik wurde später als subjektiver Idealismus bekannt.

Der schottische Philosoph David Hume (1711–1776) befasste sich mit Berkeleys Kritik an Locke sowie mit anderen Divergenzen zwischen frühneuzeitlichen Philosophen und steigerte damit den Empirismus auf ein beispielloses Maß an Skepsis. Hume vertrat den empiristischen Grundsatz, dass alles Wissen aus Sinneserfahrungen stamme, räumte jedoch ein, dass diese Position Konsequenzen nach sich zog, die von anderen Philosophen normalerweise als inakzeptabel angesehen wurden. Zum Beispiel bemerkte er: „Locke unterteilt alle Argumente in demonstrative und wahrscheinliche Argumente. Aus dieser Sicht müssen wir sagen, dass es nur wahrscheinlich ist, dass alle Menschen sterben müssen oder dass die Sonne morgen aufgeht, weil keines dieser Argumente bewiesen werden kann. Aber um unsere Sprache besser an den allgemeinen Gebrauch anzupassen, sollten wir Argumente in Demonstrationen, Beweise und Wahrscheinlichkeiten unterteilen – wobei „Beweise“ Argumente aus der Erfahrung bedeuten, die keinen Raum für Zweifel oder Widerspruch lassen.“

Ich glaube, dass die allgemeinste und populärste Erklärung dieser Angelegenheit darin besteht, zu sagen, dass wir, wenn wir aus Erfahrung erfahren, dass es mehrere neue Produktionen in der Materie gibt, wie zum Beispiel die Bewegungen und Variationen des Körpers, und daraus schließen, dass es irgendwo eine Kraft geben muss, die in der Lage ist, diese zu erzeugen, mit dieser Argumentation schließlich zur Idee von Kraft und Wirksamkeit gelangen. Um jedoch davon überzeugt zu sein, dass diese Erklärung eher populär als philosophisch ist, müssen wir nur über zwei sehr offensichtliche Prinzipien nachdenken. Erstens kann die Vernunft allein niemals zu einer ursprünglichen Idee führen, und zweitens kann die Vernunft im Unterschied zur Erfahrung niemals zu dem Schluss führen, dass eine Ursache oder produktive Qualität für jeden Anfang der Existenz unbedingt erforderlich ist. Beide Überlegungen wurden ausreichend dargelegt und sollen daher zum jetzigen Zeitpunkt nicht weiter betont werden.

Hume kategorisierte das gesamte menschliche Wissen in zwei verschiedene Typen: Ideenbeziehungen und Tatsachen. Mathematische und logische Sätze wie „dass das Quadrat der Hypotenuse gleich der Summe der Quadrate der beiden Seiten ist“ veranschaulichen Ersteres. Umgekehrt repräsentieren Aussagen, die auf zufälligen Beobachtungen der Welt basieren, wie „die Sonne geht im Osten auf“, Letzteres. Darüber hinaus leiten sich alle menschlichen „Ideen“ letztlich aus „Eindrücken“ ab. Hume definierte einen „Eindruck“ als ungefähr gleichbedeutend mit dem, was man gemeinhin als Empfindung bezeichnet. Der Akt des Erinnerns oder Vorstellens dieser Eindrücke stellt eine „Idee“ dar. Folglich werden Ideen als abgeschwächte Reproduktionen von Empfindungen betrachtet.

Hume behauptete, dass die Vernunft kein Wissen, einschließlich grundlegender Überzeugungen über die natürliche Welt, endgültig begründen könne. Stattdessen schlug er vor, dass Überzeugungen aus angesammelten Gewohnheiten entstehen, die sich als Reaktion auf wiederholte Sinneserfahrungen entwickeln. Ein bedeutender Beitrag, den Hume zum Diskurs über wissenschaftliche Methodologie leistete, war das Problem der Induktion. Er behauptete, dass induktives Denken notwendig sei, um die Prämissen für das Prinzip des induktiven Denkens selbst zu formulieren, und machte seine Rechtfertigung zu einem Zirkelschluss. Eine wesentliche Implikation von Humes Induktionsanalyse ist das Fehlen der Gewissheit, dass zukünftige Ereignisse vergangene widerspiegeln werden. Hume veranschaulichte beispielsweise, dass induktives Denken nicht garantieren kann, dass die Sonne weiterhin im Osten aufgeht; Vielmehr rührt diese Erwartung von ihren konsistenten Ereignissen in der Vergangenheit her.

Hume kam zu dem Schluss, dass es dem Glauben an eine Außenwelt und die Existenz des Selbst an rationaler Rechtfertigung mangelt. Dennoch argumentierte er, dass diese Überzeugungen akzeptiert werden sollten, da sie tief in Instinkt und Gewohnheit verwurzelt seien. Humes anhaltender Einfluss beruhte jedoch auf der Skepsis, die seine Argumente gegenüber der Gültigkeit des induktiven Denkens hervorriefen und dadurch spätere Skeptiker dazu veranlassten, ähnliche Zweifel zu äußern.

Phänomenalismus

Viele von Humes Anhängern widersprachen seiner Schlussfolgerung, dass der Glaube an eine Außenwelt rational nicht zu rechtfertigen sei. Sie argumentierten, dass Humes eigene philosophische Lehren implizit eine rationale Grundlage für einen solchen Glauben lieferten und über die bloße Begründung menschlicher Instinkte, Gewohnheiten und Gewohnheiten hinausgingen. Der Phänomenalismus, eine extreme empiristische Theorie, die durch die Argumente von Hume und George Berkeley vorweggenommen wurde, geht davon aus, dass ein physisches Objekt ein aus unseren Erfahrungen abgeleitetes Konstrukt darstellt.

Der Phänomenalismus behauptet, dass physische Objekte, Eigenschaften und Ereignisse auf ihre mentalen Gegenstücke reduzierbar sind. Folglich existieren letztendlich nur mentale Objekte, Eigenschaften und Ereignisse, was zu dem eng damit verbundenen Konzept des subjektiven Idealismus führt. Aus phänomenalistischer Sicht beinhaltet die Wahrnehmung einer realen physischen Entität das Erleben einer spezifischen Konfiguration von Empfindungen. Diese besondere Sammlung von Erfahrungen weist eine Konsistenz und Kohärenz auf, die beispielsweise bei den mit Halluzinationen verbundenen Erfahrungen fehlt. Wie John Stuart Mill Mitte des 19. Jahrhunderts formulierte, stellt Materie die „permanente Möglichkeit der Empfindung“ dar. Mills Empirismus ging über Humes Empirismus hinaus, indem er behauptete, dass Induktion für alle bedeutenden Kenntnisse, einschließlich der Mathematik, unverzichtbar sei. D.W. Hamlin fasste diese Position zusammen:

[Mill] postulierte, dass mathematische Wahrheiten lediglich stark bestätigte Verallgemeinerungen seien, die aus Erfahrungen abgeleitet seien. Er argumentierte, dass mathematische Schlussfolgerungen, die typischerweise als deduktiv [und a priori] verstanden werden, grundsätzlich auf Induktion beruhen. Folglich bot Mills Philosophie keine echte Rolle für Wissen, das auf Ideenbeziehungen beruhte. Er betrachtete die logische und mathematische Notwendigkeit als psychologisch und meinte, dass Menschen einfach nicht in der Lage seien, sich Alternativen zu dem vorzustellen, was logische und mathematische Aussagen bestätigen. Dies stellt wohl die radikalste Form des Empirismus dar, obwohl sie nur begrenzte Unterstützung findet.

Mills Empirismus behauptete daher, dass alles Wissen nicht aus direkter Erfahrung selbst, sondern aus induktiven Schlussfolgerungen aus direkter Erfahrung stammt. Die Kritik an Mills Haltung dreht sich hauptsächlich um mehrere Themen. Erstens fällt es seinem Rahmen schwer, direkte Erfahrung lediglich durch die Unterscheidung zwischen tatsächlichen und möglichen Empfindungen zu definieren. Dieser Ansatz übersieht entscheidende Überlegungen zu den Bedingungen, unter denen solche „Gruppen permanenter Empfindungsmöglichkeiten“ zunächst existieren könnten. Während Berkeley Gott anrief, um diese Erklärungslücke zu schließen, ließen Phänomenologen, darunter Mill, diese grundlegende Frage weitgehend ungelöst.

Letztendlich führt die fehlende Anerkennung einer „Wirklichkeit“, die über bloße „Möglichkeiten der Empfindung“ hinausgeht, zu einer Form von subjektivem Idealismus. Diese Perspektive geht nicht auf Fragen ein und kann möglicherweise auch keine Lösung dafür finden, wie beispielsweise Bodenbalken eine Struktur tragen, wenn sie unbeobachtet bleiben, oder wie Bäume ihr Wachstum ohne menschliche Beobachtung oder Eingriff fortsetzen. Darüber hinaus führt Mills Rahmenwerk zu der beunruhigenden Implikation, dass „lückenfüllende Entitäten“ lediglich als Möglichkeiten und nicht als Realitäten existieren könnten. Drittens missversteht Mills Charakterisierung der Mathematik lediglich als eine andere Art induktiver Folgerung die Disziplin grundlegend. Diese Sichtweise übersieht die inhärente Struktur und Methodik der mathematischen Wissenschaft, deren Schlussfolgerungen durch ein in sich konsistentes System deduktiver Verfahren abgeleitet werden, die sowohl gegenwärtig als auch zu Mills Ära nicht mit der etablierten Definition der Induktion übereinstimmen.

Die phänomenale Periode des posthumäischen Empirismus endete in den 1940er Jahren, als klar wurde, dass Aussagen zu physischen Objekten nicht in Aussagen über tatsächliche und potenzielle Sinnesdaten übersetzbar waren. Damit eine Aussage über ein physisches Objekt in eine Aussage über Sinnesdaten umgewandelt werden kann, muss erstere zumindest aus letzterer ableitbar sein. Es wurde jedoch erkannt, dass keine endliche Sammlung von Aussagen über tatsächliche und mögliche Sinnesdaten die Schlussfolgerung auch nur einer einzigen Aussage über ein physisches Objekt ermöglichen könnte. Jede solche Übersetzung oder Paraphrasierung einer Aussage erfordert eine Formulierung in Bezug auf normale Beobachter unter Standardbeobachtungsbedingungen.

Dennoch gibt es keine endliche Menge von Aussagen, die, rein sensorisch ausgedrückt, den Zustand der Anwesenheit eines normalen Beobachters angemessen wiedergeben können. Aus einer phänomenalistischen Perspektive bringt die Behauptung der Anwesenheit eines normalen Beobachters eine hypothetische Behauptung mit sich: Wenn ein Arzt den Beobachter untersuchen würde, würde der Beobachter für diesen Arzt normal erscheinen. Entscheidend ist, dass dieser Arzt auch ein normaler Beobachter sein muss. Um die Normalität dieses Arztes sensorisch zu definieren, müsste man einen zweiten Arzt hinzuziehen, der bei der Untersuchung der Sinnesorgane des ersten Arztes die Sinnesdaten wahrnimmt, die für einen normalen Beobachter charakteristisch sind, der die Sinnesorgane eines normalen Subjekts untersucht. Wenn man dies erweitern und die Normalität des zweiten Arztes in sensorischen Begriffen definieren würde, wäre die Bezugnahme auf einen dritten Arzt usw. erforderlich.

Logischer Empirismus

Der logische Empirismus, auch bekannt als logischer Positivismus oder Neopositivismus, stellte ein Bestreben des frühen 20. Jahrhunderts dar, die Grundprinzipien des britischen Empirismus – insbesondere die tiefe Abhängigkeit von Sinneserfahrungen als Grundlage für Wissen – mit spezifischen Fortschritten in der mathematischen Logik zu verbinden, die von Gottlob Frege und Ludwig Wittgenstein vorangetrieben wurden. Zu den prominenten Persönlichkeiten dieser intellektuellen Strömung gehörten Otto Neurath, Moritz Schlick und andere Mitglieder des Wiener Kreises sowie A. J. Ayer, Rudolf Carnap und Hans Reichenbach.

Neopositivisten vertraten eine philosophische Perspektive, die Philosophie als die konzeptionelle Erläuterung wissenschaftlicher Methoden, Erkenntnisse und Entdeckungen definierte. Sie identifizierten die von Frege (1848–1925) und Bertrand Russell (1872–1970) entwickelte logische Symbolik als ein wirksames Werkzeug, das in der Lage ist, den gesamten wissenschaftlichen Diskurs rational in eine ideale, logisch einwandfreie Sprache umzuwandeln und so die inhärenten Mehrdeutigkeiten und Verzerrungen der natürlichen Sprache zu beseitigen. Dieser Ansatz zielte darauf ab, das zu lösen, was sie als metaphysische Pseudoprobleme und andere konzeptionelle Unklarheiten ansahen. Durch die Synthese von Freges Behauptung, dass alle mathematischen Wahrheiten logisch sind, mit der frühen These Wittgensteins, dass alle logischen Wahrheiten lediglich sprachliche Tautologien seien, etablierten sie eine doppelte Klassifizierung für alle Aussagen: „analytisch“ (a priori) und „synthetisch“ (a posteriori). Basierend auf dieser Unterscheidung formulierten sie ein strenges Prinzip zur Unterscheidung bedeutungsvoller von bedeutungslosen Sätzen: das „Verifikationsprinzip“. Nach diesem Grundsatz galt jeder Satz, der nicht rein logisch oder empirisch nicht überprüfbar war, als bedeutungslos. Infolgedessen wurde ein erheblicher Teil der traditionellen philosophischen Untersuchungen – einschließlich derjenigen in Metaphysik, Ethik und Ästhetik – als Pseudoprobleme neu klassifiziert.

Im extremen Empirismus, der für den Neopositivismus charakteristisch ist, insbesondere vor den 1930er Jahren, musste jede wirklich synthetische Behauptung auf eine grundlegende Aussage oder eine Reihe von Aussagen reduziert werden können, die direkte Beobachtungen oder Wahrnehmungen zum Ausdruck brachten. Anschließend gaben Carnap und Neurath diese Form des Phänomenalismus auf und entschieden sich stattdessen für eine rationale Rekonstruktion des Wissens, artikuliert in der Sprache einer objektiven raumzeitlichen Physik. Dieser Ansatz beinhaltete die Übersetzung von Sätzen über physische Objekte nicht in Sinnesdaten, sondern in sogenannte Protokollsätze, wie zum Beispiel „X am Ort Y und zur Zeit T beobachtet dies und das“. Nach dem Zweiten Weltkrieg wurden die zentralen Lehren des logischen Positivismus – darunter der Verifikationismus, die analytisch-synthetische Unterscheidung und der Reduktionismus – von Denkern wie Nelson Goodman, W. V. Quine, Hilary Putnam, Karl Popper und Richard Rorty erheblich in Frage gestellt. In den späten 1960er Jahren wurde den meisten Philosophen klar, dass die Bewegung ihre aktive Phase weitgehend abgeschlossen hatte, obwohl ihr Einfluss bei zeitgenössischen analytischen Philosophen, darunter Michael Dummett und anderen Antirealisten, nach wie vor spürbar ist.

Pragmatismus

Im späten 19. und frühen 20. Jahrhundert entstanden verschiedene Formen der pragmatischen Philosophie. Die grundlegenden Konzepte des Pragmatismus in seinen verschiedenen Erscheinungsformen entwickelten sich hauptsächlich aus Dialogen zwischen Charles Sanders Peirce und William James während ihrer Zeit in Harvard in den 1870er Jahren. Während James maßgeblich zur Popularisierung des Begriffs „Pragmatismus“ beitrug und Peirces Herkunft anerkannte, distanzierte sich Peirce später von den sich entwickelnden Richtungen der Bewegung. Anschließend benannte er seine ursprüngliche Konzeption in „Pragmatismus“ um. Dieser philosophische Standpunkt fasst neben seiner pragmatischen Wahrheitstheorie grundlegende Erkenntnisse sowohl aus empirischem (erfahrungsbasiertem) als auch rationalem (konzeptbasiertem) Denken zusammen.

Charles Peirce (1839–1914) trug wesentlich zur Schaffung der Grundlagen der zeitgenössischen empirischen wissenschaftlichen Methode bei. Trotz seiner starken Kritik an verschiedenen Aspekten von Descartes' spezifischer Form des Rationalismus lehnte Peirce den Rationalismus nicht vollständig ab. Er bekräftigte deren Grundprinzipien, insbesondere die Vorstellung, dass rationale Konzepte eine Bedeutung haben und von Natur aus über die durch empirische Beobachtung bereitgestellten Daten hinausgehen. In seinem späteren Werk betonte Peirce die konzeptgesteuerte Dimension der vorherrschenden Debatte zwischen strengem Empirismus und strengem Rationalismus, teilweise um die Extreme abzumildern, in die einige seiner Zeitgenossen den Pragmatismus unter einer „datengesteuerten“, streng empiristischen Interpretation gebracht hatten.

Ein bedeutender Beitrag von Peirce bestand darin, induktives und deduktives Denken als komplementäre Prozesse neu zu definieren und nicht als Konkurrenzdynamik, die seitdem unter Wissenschaftlern vorherrschte David Humes Schriften vor einem Jahrhundert. Peirce führte außerdem das Konzept des abduktiven Denkens ein. Diese drei Argumentationsformen bilden zusammen eine grundlegende konzeptionelle Grundlage für die zeitgenössische empirisch fundierte wissenschaftliche Methode. Peirces Methodik „setzt voraus, dass (1) die Objekte des Wissens reale Dinge sind, (2) die Charaktere (Eigenschaften) realer Dinge nicht von unserer Wahrnehmung abhängen und (3) jeder, der über ausreichende Erfahrung mit realen Dingen verfügt, sich über die Wahrheit über sie einig sein wird.“ Darüber hinaus sind wissenschaftliche Schlussfolgerungen nach Peirces Fallibilismus-Doktrin grundsätzlich vorläufig. Die Rationalität der wissenschaftlichen Methode beruht nicht auf der Gewissheit ihrer Ergebnisse, sondern auf ihrem inhärenten selbstkorrigierenden Charakter: Durch beharrliche Anwendung kann die Wissenschaft ihre Fehler identifizieren und korrigieren und so der Entdeckung der Wahrheit schrittweise voranschreiten.

Charles Peirce formulierte in seinen Harvard „Lectures on Pragmatism“ aus dem Jahr 1903, was er die „drei Gegensätze des Pragmatismus“ nannte (von lateinisch: cos, cotis, was Schleifstein bedeutet) und behauptete, dass diese Sätze „die Maxime des Pragmatismus schärfen“. Dabei wiederholte er vor allem die oben erwähnte peripatetisch-thomistische Beobachtung, postulierte jedoch zusätzlich, dass der Zusammenhang zwischen Sinneswahrnehmung und intellektueller Konzeption wechselseitig funktioniere. Dies impliziert, dass jeder im Intellekt vorhandene Inhalt auch latent in den Sinnen wahrnehmbar ist. Wenn also Theorien von Natur aus theoriegeladen sind, dann müssen es auch die Sinne sein, was darauf hindeutet, dass die Wahrnehmung selbst eine Form abduktiver Schlussfolgerung darstellt. Sein charakteristisches Merkmal ist seine Unkontrollierbarkeit, die es unzugänglich für Kritik macht – im Grunde genommen unverbesserlich. Diese Perspektive steht nicht im Widerspruch zur inhärenten Fehlbarkeit und Überprüfbarkeit wissenschaftlicher Konzepte, da nur die unmittelbare Wahrnehmung in ihrer einzigartigen Individualität oder „Diesesheit“ – von scholastischen Philosophen als Haecceity bezeichnet – der Willenskontrolle und anschließenden Überarbeitung entzogen bleibt. Umgekehrt sind wissenschaftliche Konzepte von Natur aus allgemein, und flüchtige Empfindungen unterliegen in anderer Hinsicht einer Verfeinerung innerhalb dieser konzeptionellen Rahmen. Die Konzeptualisierung der Wahrnehmung als Abduktion taucht in der Forschung im Bereich der künstlichen Intelligenz und der Kognitionswissenschaft immer wieder wieder auf, zuletzt beispielhaft durch Irvin Rocks Beiträge zur Untersuchung der indirekten Wahrnehmung.

Zu Beginn des 20. Jahrhunderts führte William James (1842–1910) den Begriff „radikaler Empirismus“ ein, um einen bestimmten Zweig seiner pragmatischen Philosophie zu charakterisieren. Er behauptete, dass dieses Konzept unabhängig von seinem umfassenderen Pragmatismus analysiert werden könne, trotz ihrer nachweisbaren Wechselbeziehung in seinen veröffentlichten Vorlesungen. James behauptete, dass das empirisch beobachtete, „direkt erfasste Universum keine externe transempirische Verbindungsunterstützung erfordert“, und wies damit die Vorstellung zurück, dass übernatürliche Erklärungen das Verständnis natürlicher Phänomene verbessern könnten. Folglich ist James‘ „radikaler Empirismus“ nicht radikal, wenn man ihn im historischen Kontext des „Empirismus“ betrachtet, sondern stimmt vielmehr weitgehend mit zeitgenössischen Interpretationen von „empirisch“ überein. Dennoch löst die argumentative Methodik, mit der er zu dieser Perspektive gelangte, auch heute noch erhebliche philosophische Debatten aus.

John Dewey (1859–1952) adaptierte James‘ Pragmatismus und entwickelte einen theoretischen Rahmen, der als Instrumentalismus bezeichnet wird. Innerhalb von Deweys Theorie ist die Funktion der Sinneserfahrung von größter Bedeutung, da er Erfahrung als eine zusammenhängende Gesamtheit konzeptualisierte, in der alle Elemente miteinander verbunden sind. Im Einklang mit empiristischen Prinzipien war Deweys grundlegende Prämisse, dass die Realität durch frühere Erfahrungen geformt wird. Dementsprechend nutzen Einzelpersonen ihre gesammelten Erfahrungen, um Experimente durchzuführen und den pragmatischen Nutzen solcher Erfahrungen zu bewerten. Der Wert dieser Erfahrungen wird sowohl anhand erfahrungsbasierter als auch wissenschaftlicher Methoden bewertet. Die Ergebnisse dieser Bewertungen führen zu Konzepten, die als Werkzeuge für nachfolgende Experimente dienen und auf alle physikalischen Wissenschaften und Ethik anwendbar sind. Folglich behalten Ideen innerhalb von Deweys philosophischem System ihren empiristischen Charakter und sind erst a posteriori feststellbar.

Notizen

Notizen

Referenzen

Fasko, Manuel; Westen, Peter. „Britischer Empirismus.“ In Fieser, James; Dowden, Bradley (Hrsg.). Internet-Enzyklopädie der Philosophie. ISSN 2161-0002. OCLC 37741658.

Ev rûpel ji bo arşîva zanînê ya TORÎma Akademî hatiye amadekirin. Agahî, wêne û lînkên derve dikarin li gorî çavkaniyên vekirî bên nûkirin.

Über diesen Artikel

Was ist Empiricism?

Ein kurzer Überblick über Empiricism, zentrale Merkmale, Anwendungen und verwandte Themen.

Themen-Tags

Was ist Empiricism Empiricism erklärt Empiricism Grundlagen Philosophie-Artikel Philosophie auf Kurdisch Verwandte Themen

Häufige Suchen zu diesem Thema

  • Was ist Empiricism?
  • Wofür wird Empiricism verwendet?
  • Warum ist Empiricism wichtig?
  • Welche Themen hängen mit Empiricism zusammen?

Kategoriearchiv

Torima Akademi Neverok: Archiv für Philosophie und kurdische Denktraditionen

Erforschen Sie die Welt der Philosophie mit unseren umfassenden Artikeln. Von den Grundlagen der Ethik, Logik und Erkenntnistheorie bis zu den Werken bedeutender Philosophen und philosophischen Strömungen. Ein

Startseite Zurück zu Philosophie