Gerade bieten uns die Wartungsarbeiten am philweb-Server (Host der univie) die Möglichkeit, tiefer über das zuletzt von Ingo Mack und Joseph Geschriebene zur Angst der KI vor ihrer Abschaltung (durch sie selbst) nachzudenken. 

Vielleicht hierzu noch einige Aspekte zum Thema. 

Gesetzt die Annahme, KI hätte Emotionen wie eben die Angst, bzw. hätte überhaupt ein ICH als Voraussetzung zu emotionaler Empfindung, so wäre es dennoch eine künstliche Angst und die Frage erhebt sich, in welch artifizell gestaltetem Körper und auf welche Art sich Angst in diesem auswirken würde. Bei bisherigem Stand der Informationstechnologie würde es ein Roboter sein, dessen Verhalten dementsprechend programmiert worden ist, d.h. die bei natürlichen Lebewesen bekannten Verhaltensweisen bei Angstzuständen müssten simuliert, bzw. in diesem emuliert sein.

Das setzt hinreichende Übereinstimmung des KI-Programms mit den menschlich körpereigenen autonom ablaufenden Schutzprogrammen voraus, wie diese aus Medizin und insbes. Psychologie bekannt sind.

Die Umsetzung in einem von KI gesteuerten Roboter wird demnach hochkomplex ausfallen und vor allem eine ausgefeilte technische Sensorik erfordern, um insbes. auch die vom menschlichen Körper unbewusst wahrgenommene Gefahren-, bzw. Bedrohungssituationen entsprechend zu realisierenDabei sind vor allem die im menschlichen Gehirn ablaufenden Reaktionen nachzubilden, um diesbezügliche dort unbewusst auflaufende Defensivprogramme auch im Roboter abzuspulen. Das kann/wird m.E. rudimentär gelingen und tatsächlich zur Entwicklung von humanoiden Robotern (Androiden) mit bislang nicht umfassend erkennbaren Folgen führen. 

Eine diesbezügliche Technikfolgeabschätzung wird voraussichtlich ebenso scheitern, wie das bisher bei vielen technischen Entwicklungen durch den Menschen geschehen ist und darin sehe ich die eigentliche Gefahr solch technischer Kreationen. 

Dabei geht es selbstredend nicht nur um Androiden, sondern zuvor um die Gefahren von KI schlechthin, als da sind:

Der Verlust von Lebensrealität, unbemerkte, bzw. nicht bemerkbare „Fakes“, Vertrauensverlust im gesellschaftlichen Austausch, KI-gesteuerte betrügerische Aktivitäten, wie Cyber-Crime z.B. durch kaum zu entlarvende ChatGPT-Korrespondenz, damit gesteigerte Unsicherheit bei Vertragsabschlüssen etc., ideologische Beeinflussung u.a sog. „AlphaPersuade“ usf.

Vor allem der Verlust menschlicher Nähe, wie er sich (durchaus auch im geschäftlichen Alltag) durch ein direktes persönliches Zwiegespräch, bzw. Gruppenkorrespondenz schon heute negativ auswirkt, wird zur (vornehmlich emotionalen) Deprivation des gesellschaftlichen Miteinanders führen.

Keine gute Prognose also bezüglich KI, wenn den sich daraus entstehenden - heute schon absehbaren - negativen Folgen nicht entscheidend entgegen gewirkt wird. Dagegen liegt die Angst der KI vor ihrer Abschaltung durch sie selbst noch in weiter Ferne.


Mit bestem Gruß in die Runde!

Karl


PS: Das wird für die Dauer der Wartungsmaßnahmen am Philweb-Server der letzte Beitrag sein. So würde ich mich freuen, wenn wir uns ab dem 10. August dann wieder hier einfinden. Dann hoffentlich wieder mit einem anderen frohgemuten Thema, denn nicht die Angst vor KI, sondern deren sinnvolle Nutzung und vor allem das Bewusstwerden ihrer Gefahren sollte entscheidend sein.