„In einer Welt, die überflutet wird von belanglosen Informationen, ist Klarheit Macht.“ 

- Yuval Noah Harari

Chinas großes Funktionalismus-Experiment

Der Funktionalismus besagt, dass mentale Eigenschaften letztendlich funktionale Eigenschaften, d.h. komplett durch eine kausale Rolle bestimmt sind.

Wenn also gilt: Der Mensch M hat die mentale Eigenschaft E "Kopfschmerzen".

Dann gilt gemäß dem Funktionalismus auch: E wird realisiert, indem die Neuronen in M's Kopf eine bestimmte kausale Rolle spielen. D.h. sie reagieren auf einen (i) input mit einem (ii) output und gehen in einen (iii) neuen Zustand über.

Eine interessante Implikation des Funktionalismus ist, dass wenn er wahr ist, Systeme unabhängig von ihrer ontologischen Realisierung mentale Eigenschaften realisieren können. Denn natürlich können nicht nur kohlenstoffbasierte Menschen, sondern auch siziliumbasierte Roboter oder Aliens prinzipiell eine für C charakteristische kausale Rolle spielen und damit Kopfschmerzen haben.

Doch wenn der Funktionalismus wahr ist, dann müssen auch andere Systeme Bewusstsein haben können, die dem menschlichen Gehirn noch viel weniger ähnlich sind als Computer oder Aliengehirne. Tim Maudlin hat beispielsweise ein System aus Wassereimern vorgeschlagen, dass den gleichen funktionalen Zustand wie ein menschliches Gehirn einnehmen kann.[1] Nach dem Funk-tionalismus müsste dieses System aus Eimern denken und verstehen können.

Ein Gedankenexperiment von Jerry Fodor schlägt in eine ähnliche Kerbe[2]:  Angenommen, wir überreden die Regierung Chinas zu einem riesigen Funktionalismus-Experiment. Jeder der eine Milliarde Menschen in China bekommt ein spezielles Funkgerät, mit der er jeden anderen Chinesen kontaktieren kann. Koordiniert wird das Ganze über riesige Scheinwerfer, die Kommandos an die Wolkendecke projizieren. Ein solches System aus Menschen, Funkgeräten und Scheinwerfern könnte, so Block, zumindest für eine kurze Zeit jeden funktionalen Zustand einnehmen, die auch die Neuronen von M einnehmen. D.h. die Bevölkerung Chinas und die Neuronen von M sind funktional identisch.

Fodors Argument gegen den Funktionalismus ist diese reductio ad absurdum:

P1. Wenn der Funktionalismus wahr ist, dann müsste die Bevölkerung Chinas als kollektives Ganzes Kopfschmerzes empfinden.

P2. Es ist absurd anzunehmen, dass eine Milliarde Menschen als kollektives Ganzes Kopfschmerzen empfinden.

K1. Der Funktionalismus ist nicht wahr.

„Es ist keineswegs ausgemacht, dass dieses System aus der Bevölkerung Chinas und einem künstlichen Körper physikalisch unmöglich ist. Es könnte für eine kurze Zeit, sagen wir für eine Stunde, funktional äquivalent zu Dir sein.“
- Block 1978, 276)

Wer Fodor in seiner Argumentation zustimmt, der muss aber auch verneinen, dass Computer jemals Bewusstsein haben können. Denn Computer sind derzeit nichts weiter als Turing-Maschinen, die nichts weiter können als funktionale Zustände einnehmen.

Siehe auch

Einzelnachweise

[1] Tim Maudlin: Computation and Consciousness (1989)

[2] Jerry Fodor: Troubles with Functionalism (1978)

Kommentar schreiben

Kommentare: 0

Impressum | Datenschutz | Cookie-Richtlinie | Sitemap
Diese Website darf gerne zitiert werden, für die Weiterverwendung ganzer Texte bitte ich jedoch um kurze Rücksprache.