Moin Joachim,
für eine vollkommene Eselei hielte ich es, von den allgegenwärtigen und grundlegenden
Fluktuationen abzusehen. Vom fluktuierenden Nullpunktsfeld über die elementare
Zitterbewegung, die Wärmebewegungen und die Brownsche Bewegung bis hin zum Nervenrauschen
und Augenzittern. Dazu gehören auch die ständigen Aufmerksamkeitsschwankungen, die
Säugetieren abweichende Orientierungen gestatten und die wir an uns selbst wahrnehmen
können. Deshalb favorisiere ich als Grundlagentheorie auch der Philosophie nicht die
Logik, sondern die Stochastik. Wie den Organismen abgeschaut, werden hinreichend autonome
Roboter ebenso wenig ohne Entscheidungs- und Bewegungs-Fluktuationen auskommen.
IT
Am 11.07.2024 um 14:30 schrieb Landkammer, Joachim
über PhilWeb <philweb(a)lists.philo.at>at>:
Und wenn ich das – weiter soliloquirend, scheint offenbar keinen zu interessieren, aber
egal – kurz noch selber weiterspinnen darf: das Interessante ist ja vielleicht auch, daß
der Esel in Buridans Denkmodell ja gerade deswegen verhungert, weil er fressen WILL, weil
er tatsächlich hungrig ist. Wenn er es nicht wäre, würde er ja zwischen den beiden
Heuballen einfach durchgehen, sie gar nicht wahrnehmen, die für ihn so gefährliche
Patt-Situation gar nicht als solche auffassen und einfach weiter stumpf vor sich
hintrotten. Aber er WILL ja etwas essen, er braucht dringend Heu, und sieht eben die eine
und („gleichzeitig“) die andere Option, mit genau identischer Attraktivität. Und das wird
ihm zum Verhängnis.
Das hieße also: er müßte lernen (in der Lage sein zu lernen), daß er nicht fressen WILL,
sondern fressen MUSS, daß er also nicht seinem (zerrissenen, spaltbaren, von externen
Vorgaben abhängigen) Willen, sondern einer plumpen Notwendigkeit folgen muß, und dann
einfach irgendeine beliebige (also: nicht mehr „gewollte“) zu Option wählen hat. Damit er
wieder „wollen“ kann, muß er das „wollen“ verlernen. Er braucht also so etwas wie einen
„Willen zweiter Ordnung“, der vollkommen beliebig / random sein muß. (Gibt´s das nicht, in
der Informatik/Robotik/Kybernetik, solche „Notfall“-Algorithmen, die dann, wenn das System
riskiert, sich selbst lahmzulegen, also in eine solche Entscheidungs-Paradoxie gerät, das
System so „triggern“ können, daß es ihm sagt: „mach einfach IRGENDwas…“ ?)
Hat das irgendwie Sinn oder ist das vollkommene… Eselei?
J. I.A. Landkammer