Am 16.06.2023 um 13:00 schrieb Joseph Hipp über
PhilWeb <philweb(a)lists.philo.at>at>:
Ich schreibe ganz dreist: Die Antwort auf meine Frage habe ich noch nicht bekommen, die
Antwort von den Kompetenten, auf die auch Claus Zimmermann vielleicht hoffte. Ist Claus
mit deiner Antwort zufrieden? Soll ich die Frage anders stellen, sie aufteilen?
Es ist nun etwas schwierig, die zuletzt hier vorgebrachten Stellungnahmen zum Thema
Künstlicher vs menschlicher Intelligenz, bzw. das auf die jeweilige Intelligenz
aufsetzende „Denken“, sowohl eines Automaten, als auch eines Menschen in eine gewisse
Kongruenz zu bringen, obgleich jeder Aspekt das Thema gültig trifft.
Zunächst nochmal ein Bezug auf meine Aussage, dass es zwischen menschlichem und
maschinellen Denken noch gravierende Unterschiede gibt. Joseph würde sich dieser
anschließen, sofern ich „noch“ und „gravierend“ daraus entfernte. Das würde auf die
nüchterne Feststellung hinauslaufen, dass zwischen diesen Denkformen schlichtweg ein
Unterschied besteht und somit dieser Satz ebenso nur einen zutreffenden Sachverhalt
beschreibt. Das Faktum dabei ist jedoch, dass damit nicht ausgesagt ist, wie groß der
Unterschied zwischen beiden Formen des Denkens ist und ob zu erwarten ist, dass dieser
Unterschied im Verlauf fortgeführter KI-Forschung bzw. -Entwicklung weiter verringert
werden wird.
Doch nun erst mal auf Josephs Frage zurückkommend, deren Beantwortung mir bislang
offensichtlich nicht gelungen ist:
jh: Meine Frage geht nun so: Wenn dieser Automat, der nur einen Rahmen bekommen hat,
Lösungen findet, weiß dann jemand, was in ihm vor sich geht? Das scheint ja der
Unterschied zu programmierten "Wesen" zu sein. Wenn im Nachhinein nicht
feststellbar ist, was in dem "Wesen" oder "Automat" geschah, auf
welcher Grundlage kann dann jemand sagen, dieses hätte nicht gedacht?
Ich interpretiere diese Frage nun wie folgt: Du, Joseph fragst, ob ein Automat, dem man
einen gewissen Handlungspielraum („Rahmen“) programmiert hat und der innerhalb dieser
Vorgabe „Lösungen“ findet, Rückschlüsse von außen ableiten lässt, dessen „inneres
Handlungsschema“ quasi als „Denkleistung“ zu deuten ist.
Sofern es sich nicht um einen selbstlernenden Automaten handelt, wird dieser streng nach
den ihm einprogrammierten Abläufen funktionieren, d.h. er wird hinreichend genau diese
„Lösungen“ erbringen, für die er programmiert wurde und der Entwickler/Programmierer
wird/sollte genau wissen, was in diesem Automaten vor sich geht, da dessen „Denkleistung“
lediglich eine Abbildung des vom Entwickler vorgedachten Programmablaufs ist.
Für den von Dir angenommenen Automat, Joseph, wurde jedoch kein striktes Ablaufschema
programmiert, sondern lediglich ein „Rahmenprogramm“ innerhalb dessen „Lösungen“ erbracht
werden sollen. Um das etwas abstrakte Denkmodell auf eine praktische Ebene zu bringen,
nehme ich meinen Staubsauger-Robot zum Beispiel:
Das Teil ist mit einem Antriebs- und Saugmotor, Laufrädern und Kameras ausgestattet. Sein
Innenleben besteht u.a. aus einer Elektronikplatine, die mit Prozessor, Arbeits- und
Datenspeicher, sowie entsprechender Elektronikperipherie samt Lautsprecher bestückt ist.
Damit ist dieser „Automat“ bestens ausgerüstet, um den Staub eines Wohnraums/Hauses mit
beliebigen Zimmern aufzusaugen. Die Funktionsweise des vorprogammierten Ablaufschemas hier
zu beschreiben, würde den Rahmen des Beitrags sprengen, bezogen auf Deine Frage kann man
jedoch die Unterscheidung zwischen der jeweiligen Betrachtungsebene auf dieses Teil
vornehmen:
Wenn meine schon etwas in die Jahre gekommene Nachbarin das Gerät sieht, vermutet sie
darin einen Art Geist, der das Teil durch die Räume schickt. Sie kann - sofern man es ihr
nicht näher erklärt – quasi „im Nachhinein“ nicht wissen, was in dem Automaten vor sich
geht, sondern sieht nur dessen „Lösungen“ und muss nahezu unausweichlich annehmen, das
Gerät könne denken. Und sie liegt ja nicht so falsch, was „maschinelles Denken“ anbelangt,
wenn man „maschinelles“ Denken – wie bereits erwähnt – als ein von Inspiration und
Intuition unabhängiges Ein-/Zuordnen von Wahrnehmungen (in diesem Fall durch Sensoren
vermittelte Gegenständlichkeiten) definiert. Diese Frau wird auf Grundlage von
Nichtkenntnis der inneren Vorgänge des Saugroboters annehmen, das Teil könne (wie ein
Mensch) denken.
Für mich, wie für alle (mehr oder weniger) technisch geschulte Personen, geschieht da
natürlich nichts von „Geisterhand“, sondern es erfolgt schlichtweg ein vorprogrammierter,
ggf. durch technische Interaktion (über Handy-App) zusätzlich gesteuerter Ablauf eines
Gerätes. Auf Grundlage dieses Wissens ist anzunehmen, dass dieser Robot nicht in der Lage
ist, wie Menschen zu denken, sondern nach deren vorgedachten Modellen ein Programm
abzuspulen.
Diese Unterscheidung wird für weit entwickelte KI-gesteuerte Automaten jedoch weitaus
schwieriger vorzunehmen sein. Und es wird noch mehr „Wirrwarr der Instanzen“ entstehen,
Fragen nach Vermögen auftauchen, deren Beantwortung nicht oder nur sehr bruchstückhaft
möglich sein wird.
Für mich stellt sich nun die Frage, ob ich Deine Frage nun beantworten konnte, sofern mein
Vermögen hierzu hinreichend war.
Bester Gruß an Dich und in die Runde! - Karl