Am 09.01.2021 um 17:57 schrieb Ingo Tessmann:
Da Information als physikalische Größe auffassbar ist, ist das nicht
verwunderlich, gleichwohl sagt mir eine Herleitung der physikalischen
Entropie aus dem Kausalitätsprinzip naturphilosophisch eher zu.
aber lieb(st)er ingo, so höre doch,
- information ist eben nicht als physikalische größe auffassbar, da sie
ein detektoren-subjektivum darstellt
(damit fällt auch der ganze unsägliche quatsch weg "das weltall als
computer", "der gesamtinformationsgehalt der welt beträgt ...",
"informationsteilchen"= speziell dieses wäre wieder ein summe von
eigenschaften, Teilchen = summe{eigenschaften}, und jede einzelne
eigenschaft in der summe wäre wieder ein konvolut von dann
sub-informationen, usw ad infinitum)
die annahme, information sei eine eigenständige physikalische größe ist
derart auffallend prägnant, dass ich glaube zu wissen, woher diese
annahme stammt: aus dem platonischen denken nämlich,
in dem man gerne vielzahlen von irgendwas zusammenfasst zu einer
eigenständigen entität, der man dann realsein andichtet, wie "die rose
als ur-rose", aus der alle realen rosen dann angeblich nur ableitungen
sind. es gibt aber keine "rose an sich" deren lässliche kopien reale
rosen darstellen, sondern umgekehrt, alle realen rosen lassen sich -rein
sprachlich aus gründen der sprachökonomie- zusammenfassen, indem man
sagt "die rose" (zb hat stacheln), und ganz genauso verhält es sich mit
"information". es gibt real nur informationen als detektorensubjektiva,
daraus kann man rein sprachlich "die information an sich" bilden, der
aber keinerlei realsein zukommt, zb im sinne informationsteilchen, oder
das weltall als informationell aufgespanntes etwas, etc
information entsteht in detektoren und ist deshalb als funktion
nicht-physisch, wenn und falls diese ein physikalisches signal
auffangen, damit ENTSTEHT information jedesmal neu, falls signale und
detektoren für diese signale auf einer kommunikationsstrecke
zusammentreffen (wobei zu beachten: komm-strecken werden zb nicht
addiert, sondern (nichtlinear) multipliziert, rauschen-arten, usw)
- und im rahmen wechselwirkung gilt die kausalität nicht,
ursache-wirkung = actio=reactio, usw, da ww's nicht separabel = nicht
aufspaltbar sind = sozusagen und wenn man so ausdrücken will:
die ursache fällt mit der wirkung (zeiträumlich) zusammen. die übliche
(einfache) kausalität gilt offenbar nur im mesoskopischen bereich, womit
das ganze konstrukt ein skalierungs-phänomen wäre.
im mikroskopen bereich gilt sie nur "unter auflagen", und ob sie im
makroskopen bereich gelten mag (weltall usw) entzieht sich meiner kenntnis
- da entropie letztlich ein mikrophysikalisches "ding" ist, ist für mich
sehr fraglich, ob entropie irgendetwas mit dem mesoskopen
kausalitätsprinzip zu tun hat/ haben kann, auch wenn man das
naturphilosophisch "irgendwie" so sehen können mag
*
nimm schwarzen und weißen sand in ein gefäß und vermische diese beiden
von mir aus 10.000 jahre lang, du wirst nie dazu kommen, dass neben
jeden weißen korn ein schwarzes liegt, also
s-w-s-w-s-w ...
sondern die entropie besteht genau darin, dass die körner wirklich
stochastisch liegen, zb
a) s-s-w-w-w-w-s-w-w-s-s-s-s ...
= keine information
---
nun lässt du die körner körnereinzeln hintereinander durch eine schmale
rinne herauslaufen
sie kommen dann heraus zb
b) s-s-s-w-w-s-w-s-w-w-w-w-s ...
= keine information
---
nun setzt du einen detektor ans ende der rinne, durch den läuft dann obiges
b) s-s-s-w-w-s-w-s-w-w-w-w-s ...
= noch immer keine information
---
nun setzt du einen detektor mit wortverständnis vor die rinne,
s-w = wert/wort 1
s-s = wert/wort 2
s-s-s-w = wert/wort 3
usw
dann wird dieser detektor die obige körnerabfolge
b) s-s-s-w-w-s-w-s-w-w-w-w-s ...
in werte auflösen können,
und du erhälst durch die fähigkeit des detektors "informationen"
(worte/werte)
so und nur so funktioniert und das ist "information" (aus detektoren)
ich darf grüßen,
wh.
--
Diese E-Mail wurde von Avast Antivirus-Software auf Viren geprüft.
https://www.avast.com/antivirus