Hi Ingo,
ok, also das würde heißen: Am Anfang war die Fluktuation. Das große Zittern, Rauschen,
Vibrieren, Schwanken. Denn sobald irgendein Esel daherkommt und sich auf nur zwei Optionen
fixiert, die sich gegenseitig ausschließen, aber gleichwohl überlebenswichtig sind, setzt
das Zittern aus, und der Esel sitzt fest. Alles Logische, Präzise, streng Fokussierte
würde dieses Risiko der Selbststillegung mit sich bringen. Nur wessen Aufmerksamkeit
schwankt, kann überhaupt aufmerksam sein.
Aber dann gibt es sicher auch Grenzwerte, oder? Wer nur ganz haltlos immer mit-fluktuiert,
kommt auch nicht voran, richtig? ADS wäre dann sowas wie die pathologisch überschrittene
Obergrenze der zuträglichen Aufmerksamkeitsschwankungs-Toleranz. Leben, Handeln,
Entscheiden ginge dann nur in einem Korridor von nicht zu viel und nicht zu wenig
„Fluktuation“. Wäre das korrekt? Und wie würde das in der einschlägigen Fachterminologie
beschrieben werden?
(Mir ist noch ein aktualisiertes Beispiel für den Buridan-Esel eingefallen: wir haben so
einen Billig-Saugroboter, der es tatsächlich manchmal schafft, sich „festzufahren“, der
fährt dann nur noch zwischen zwei nahen Möbelkanten hin- und her und läuft sich tot…Die
Psychologen würden wahrscheinlich von Wiederholungszwang reden.).
Joachim
Von: Ingo Tessmann über PhilWeb <philweb(a)lists.philo.at>
Gesendet: Donnerstag, 11. Juli 2024 15:27
An: philweb <philweb(a)lists.philo.at>
Cc: Ingo Tessmann <tessmann(a)tu-harburg.de>
Betreff: [PhilWeb] Re: Der Tod der Wahrheit (hjn)
Moin Joachim,
für eine vollkommene Eselei hielte ich es, von den allgegenwärtigen und grundlegenden
Fluktuationen abzusehen. Vom fluktuierenden Nullpunktsfeld über die elementare
Zitterbewegung, die Wärmebewegungen und die Brownsche Bewegung bis hin zum Nervenrauschen
und Augenzittern. Dazu gehören auch die ständigen Aufmerksamkeitsschwankungen, die
Säugetieren abweichende Orientierungen gestatten und die wir an uns selbst wahrnehmen
können. Deshalb favorisiere ich als Grundlagentheorie auch der Philosophie nicht die
Logik, sondern die Stochastik. Wie den Organismen abgeschaut, werden hinreichend autonome
Roboter ebenso wenig ohne Entscheidungs- und Bewegungs-Fluktuationen auskommen.
IT
Am 11.07.2024 um 14:30 schrieb Landkammer, Joachim über PhilWeb
<philweb@lists.philo.at<mailto:philweb@lists.philo.at>>:
Und wenn ich das – weiter soliloquirend, scheint offenbar keinen zu interessieren, aber
egal – kurz noch selber weiterspinnen darf: das Interessante ist ja vielleicht auch, daß
der Esel in Buridans Denkmodell ja gerade deswegen verhungert, weil er fressen WILL, weil
er tatsächlich hungrig ist. Wenn er es nicht wäre, würde er ja zwischen den beiden
Heuballen einfach durchgehen, sie gar nicht wahrnehmen, die für ihn so gefährliche
Patt-Situation gar nicht als solche auffassen und einfach weiter stumpf vor sich
hintrotten. Aber er WILL ja etwas essen, er braucht dringend Heu, und sieht eben die eine
und („gleichzeitig“) die andere Option, mit genau identischer Attraktivität. Und das wird
ihm zum Verhängnis.
Das hieße also: er müßte lernen (in der Lage sein zu lernen), daß er nicht fressen WILL,
sondern fressen MUSS, daß er also nicht seinem (zerrissenen, spaltbaren, von externen
Vorgaben abhängigen) Willen, sondern einer plumpen Notwendigkeit folgen muß, und dann
einfach irgendeine beliebige (also: nicht mehr „gewollte“) zu Option wählen hat. Damit er
wieder „wollen“ kann, muß er das „wollen“ verlernen. Er braucht also so etwas wie einen
„Willen zweiter Ordnung“, der vollkommen beliebig / random sein muß. (Gibt´s das nicht, in
der Informatik/Robotik/Kybernetik, solche „Notfall“-Algorithmen, die dann, wenn das System
riskiert, sich selbst lahmzulegen, also in eine solche Entscheidungs-Paradoxie gerät, das
System so „triggern“ können, daß es ihm sagt: „mach einfach IRGENDwas…“ ?)
Hat das irgendwie Sinn oder ist das vollkommene… Eselei?
J. I.A. Landkammer