transmitted from iPad-Client
Am 11.01.2021 um 01:29 schrieb waldemar_hammel
<waha3103x(a)googlemail.com>om>:
Am 10.01.2021 um 16:59 schrieb Ingo Tessmann:
Hi Waldemar,
Deine fortwährenden Wiederholungen langweilen mich nur noch - und so steige ich auch hier
aus.
Ein Sokrates zugeschriebener Spruch gereicht mir als Wort zum Sonntag: „Der Kluge lernt
aus allem und von jedem, der Normale aus seinen Erfahrungen und der Dumme weiß alles
besser."
hihi, den spruch kenne ich immerhin besser:
gott denkt in den genies,
träumt in den dichtern,
und schläft im übrigen teil der menschheit
gute nacht,
wh.
Nun auch erst nochmal ein frohes und hoffentlich! gesundes Neues Jahr!
Da gibt es es also beliebige Sprüche, wie sich ein Gott so in dieser Welt darstellt:
Er schläft im Stein, träumt in der Pflanze, erwacht im Tier und lebt im Menschen.
Aber wir wollten ja ihn und die Geister hier außen vorlassen.
Doch nicht nicht nur Gott und Geister, sondern auch die Begrifflichkeit von Information
scheint die Gemüter zu entzweien.
It:“ Da Information als physikalische Größe auffassbar ist....“
Dem widerspricht Waldemar und liegt aus seiner Sichtweise heraus ebenso richtig, wie es
sich bei Ingo verhält.
Wir hatten hier schon so oft erörtert, dass die verabsolutierende Verwendung einer
Begrifflichkeit (hier also Information, dort Bewusstsein usf.), bezogen auf einen
komplexen Sachverhalt schlichtweg zu Missverständnissen führen muss.
Nie und nimmer kann man INFORMATION als Sammelbegriff für alle möglichen Erklärungsmodelle
einsetzen. Wollte man wirklich tiefer und einvernehmlich in einen zu betrachtenden
Sachverhalt eindringen, setzt das eine differenzierte Herangehensweise voraus. Information
betreffend also allemal einen „dynamischen Informationsbegriff“, wie von tf hier
angesprochen und mit Literaturhinweisen vorgestellt.
Alleine schon das von Waldemar dargestellte Abfolge-Prinzip
Signal->Information ->Nachricht
beruht auf seiner subjektiven Sicht auf diese Prozesse.
Will er mich beispielsweise über einen Sachverhalt informieren, wird er zunächst auf eine
in seinem Gehirn (PFC) gespeicherte Information zugreifen und diese als Signale (feuernde
Neuronen) über seine Sensorien bzw. Gliedmaßen als Nachricht zu Papier bringen (sprich
elektronische Umsetzung/Signal- Übertragung). Die Reihenfolge ist demnach:
Information(PFC)-Signal-Nachricht ->materieller
Datenträger->Nachricht-Signal(dedektoren)-Information(PFC).
Damit ist jedoch noch nichts über den Informationsgehalt bzw. -gewinn der Nachricht
ausgesagt.
Information in Verbindung mit Materie, quasi als physikalische Größe zu bringen, ist aus
anderer Perspektive gesehen, ebenso zulässig. Das heisst ja nicht, Information sei Materie
sondern sie ist damit verknüpft.
Die Bezüge zwischen Energie, Materie, Information und Entropie wurden hier bereits
erörtert und eben alle diese Begriffe stehen in enger Beziehung miteinander. Das denke
ich, will Ingo zum Ausdruck bringen.
Meine Sicht darauf und den damit irrtümlich verwendeten Informationsbegriff habe ich
ebenso hier schon dargelegt:
Information ist nicht Materie, da letztere (eines beliebig angenommenen Molekülverbunds)
zwar die Information seiner Gestaltgebung (FORMation gemäß eines bestimmten Bauplans) in
sich sich trägt, Materie selbst also nicht Information ist, sondern diese dort intrinsisch
eingebettet ist.
Letztlich ist es eine Frage des Maßstabs und der Betrachtungsweise: erst mit dem Blick
durch ein Elektronenmikroskop etc. erschließt sich die DNA-Sequenz eines Gegenstandes,
dessen mikroskopische Strukturinformation der Alltagssicht verborgen ist.
Geht man auf Teilchenebene, ist das Teilchen selbst keine Information hat aber sehr wohl
die Information über seinen Spin eingeprägt, was z.B. bei Quantenrechner-Prozessen
bedeutsam ist. Hier spielt Interaktion (WW) eine entscheidende Rolle (Dekoherenz).
Daher ist es kritisch, den Informationsbegriff unbedacht bzw. undifferenziert zu
benutzen.
Ach noch zu Entropie und Information: natürlich besteht da ein klarer Zusammenhang. Ich
dachte schon darüber hier geschrieben zu haben.
Nimmt man z.B. das Kartenspiel, wird man zu Beginn (nach gewissenhafter Kartenmischung und
-verteilung) ein Höchstmaß an Entropie haben, d.h. es existiert bei den Spielern keine
Information (kein Wissen) über die jeweiligen Karten der Mitspieler. Im Verlauf des Spiels
wächst das Wissen über abgelegte bzw. mit hoher Wahrscheinlichkeit in den Händen
befindliche Karten. Die Entropie sinkt und erreicht am Ende des Spiels ein Minimum durch
vollständige Kenntnis der gespielten Karten.
Soweit für den Augenblick- ich denke, Information wird uns noch eine ganze Weile hier
beschäftigen.
Bester Gruß in die Runde! - Karl
--
Diese E-Mail wurde von Avast Antivirus-Software auf Viren geprüft.
https://www.avast.com/antivirus