3. Leseabschnitt: 5. und 6. Kapitel (S. 166 bis S. 244)

milkysilvermoon

Bekanntes Mitglied
13. Oktober 2017
1.803
5.061
49
Im dritten Teil rückt die Krimigeschichte rund um Peter Gorringe und Miranda mehr in den Vordergrund. Noch weiß ich nicht, ob es diesen Handlungsstrang in diesem Roman wirklich braucht. Mich jedenfalls stört es bisher eher und ich freue mich, wenn es dann wieder mehr um die Adam-Handlung und die damit verbundenen philosophischen Fragen geht.

Das war auch mein erster Gedanke, aber - ohne den Autor zu kennen - vermute ich, dass das schon einen triftigen Grund haben wird. Ich hoffe es zumindest, denn sonst wäre ich auch enttäuscht.


Adam entschuldigt sich später für diesen Übergriff. Er macht aber auch klar, dass er ein Abschalten nicht wieder zulassen wird:
"Ich verspreche, das kommt nie wieder vor. Doch wenn du das nächste Mal nach meinem Notschalter greifst, werde ich dir ohne zu zögern den ganzen Arm abreißen. MItsamt Gelenkpfanne." (S. 179).

Aber wäre es denn mit seiner Moral zu vereinbaren, einen Menschen so schwer zu verletzen? An dieser Stelle finde ich es nicht ganz logisch.

Der Gedanke Charlies, dass jemand wie Adam, der echte Liebe zu empfinden scheint, deshalb auch ein Bewusstsein besitzen muss, erscheint für mich sehr interessant. Ist das wirklich so?

Ich kaufe es Adam irgendwie nicht ab, dass er echte Liebe empfindet. Kann man so etwas programmieren?
 
  • Like
Reaktionen: Sassenach123

Mikka Liest

Bekanntes Mitglied
14. Februar 2015
1.513
2.403
49
Hilter am Teutoburger Wald
wordpress.mikkaliest.de
Aber wäre es denn mit seiner Moral zu vereinbaren, einen Menschen so schwer zu verletzen? An dieser Stelle finde ich es nicht ganz logisch.

Wenn er es als Notwehr gegen einen schwerwiegenden Übergriff bewertet, könnte das durchaus in sein Moralempfinden passen, denke ich?

Ich kaufe es Adam irgendwie nicht ab, dass er echte Liebe empfindet. Kann man so etwas programmieren?

Nein, programmieren nicht. Einige Robotik- und KI-Experten gehen davon aus, das Gefühle etwas sind, was sich von selbst entwickeln wird, sobald die Komplexität einer KI sich mit der Komplexität des menschlichen Gehirns messen kann. Bei uns sind Gefühle im Grunde das Ergebnis von neuronalen Verbindungen, die in unserem Gehirn aufgrund unserer Erlebnisse entstanden sind und sich auch aufgrund dieser Erlebnisse weiterentwickelt haben. Bei einer KI wäre es dann ähnlich, nur sind es dann keine Neuronen im Gehirn, die sich verbinden, sondern abgespeicherte Programmroutinen im Speicher, die sich aus den Erlebnissen der KI entwickelt haben. (Sorry, das war vor vielen Jahren mal das Thema einer Hausarbeit, die ich für die Uni geschrieben habe, und ich kriege das selber nur noch ganz rudimentär zusammen...)
 

milkysilvermoon

Bekanntes Mitglied
13. Oktober 2017
1.803
5.061
49
Wenn er es als Notwehr gegen einen schwerwiegenden Übergriff bewertet, könnte das durchaus in sein Moralempfinden passen, denke ich?

Sich wehren, ja. Aber einen ganzen Arm abreißen? Für mich geht das über Notwehr hinaus.

Nein, programmieren nicht. Einige Robotik- und KI-Experten gehen davon aus, das Gefühle etwas sind, was sich von selbst entwickeln wird, sobald die Komplexität einer KI sich mit der Komplexität des menschlichen Gehirns messen kann. Bei uns sind Gefühle im Grunde das Ergebnis von neuronalen Verbindungen, die in unserem Gehirn aufgrund unserer Erlebnisse entstanden sind und sich auch aufgrund dieser Erlebnisse weiterentwickelt haben. Bei einer KI wäre es dann ähnlich, nur sind es dann keine Neuronen im Gehirn, die sich verbinden, sondern abgespeicherte Programmroutinen im Speicher, die sich aus den Erlebnissen der KI entwickelt haben. (Sorry, das war vor vielen Jahren mal das Thema einer Hausarbeit, die ich für die Uni geschrieben habe, und ich kriege das selber nur noch ganz rudimentär zusammen...)

Okay, danke für die Erklärung.