Racjonalista - Strona głównaDo treści


Fundusz Racjonalisty

Wesprzyj nas..
Zarejestrowaliśmy
200.031.958 wizyt
Ponad 1065 autorów napisało dla nas 7364 tekstów. Zajęłyby one 29017 stron A4

Wyszukaj na stronach:

Kryteria szczegółowe

Najnowsze strony..
Archiwum streszczeń..

 Czy konflikt w Gazie skończy się w 2024?
Raczej tak
Chyba tak
Nie wiem
Chyba nie
Raczej nie
  

Oddano 288 głosów.
Chcesz wiedzieć więcej?
Zamów dobrą książkę.
Propozycje Racjonalisty:
Sklepik "Racjonalisty"

Złota myśl Racjonalisty:
Połowy dokonał, kto zaczął.
 Filozofia » Etyka

Czy trwałe wyłączenie myślącej maszyny byłoby zbrodnią?
Autor tekstu:

Czym jest zbrodnia? Jest to "poważne przestępstwo naruszające normy społeczno-etyczne, np. zabójstwo" [ 1 ]. Co to jest zabójstwo? „Świadome, zamierzone zachowanie skutkujące śmiercią innej osoby" [ 2 ].

Zbrodnia zatem jest czymś, co z określonego powodu nie jest akceptowane przez społeczeństwo; czymś, co w żadnym wypadku nie jest dopuszczalne. Czy zatem trwałe wyłączenie „myślącej maszyny" byłoby właśnie czymś takim, czy też nie?

Myślące maszyny — dziś

Amerykański biochemik i pisarz, Isaac Asimov w 1942 r., w opowiadaniu „Zabawa w berka", przedstawił trzy prawa robotyki, mające uregulować przyszłe stosunki między myślącymi maszynami a ludźmi: „1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy. 2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem. 3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem." [ 3 ]

Wraz z rozwojem sztucznej inteligencji, będzie trzeba zacząć podchodzić do problemu bardziej konkretnie, gdyż wyżej wspomniane prawa mogą objąć jedynie maszyny o mało skomplikowanym zakresie możliwych działań. Na przykład, gdy w wojsku ludzi zaczęłyby zastępować maszyny, pierwsze prawo robotyki trzeba byłoby usunąć i być może zastąpić „człowieka" na „wroga".

W Epizodzie I Gwiezdnych Wojen — „Mroczne Widmo" jest scena batalistyczna między, sprzymierzoną z ludźmi, rasą Gunganów a droidami bojowymi Federacji Handlowej. W początkowych fazach produkcji filmu były ujęcia z dużą ilością Gunganów poległych na polu walki. George Lucas jednak je usunął, by uzyskać klasyfikację filmu w U.S.A. jako PG zamiast R (od 18 lat). Sceny zawierające „trupy" robotów bojowych jednak zostawił. Chociaż, pokazane w filmie, droidy bojowe były myślącymi maszynami, nie czuły. Miały humanoidalny kształt, chodziły na dwóch nogach i poruszały się podobnie jak człowiek, ale jednak istoty ludzkiej nie przypominały — były całe metalowe.

Dlaczego ludzie odpowiedzialni za klasyfikowanie filmu uznali go za PG — dopuszczalny dla nastolatków? Widocznie uznali, że „uśmiercanie" robota nie jest czymś drastycznym — nie jest zbrodnią, tak jak zabicie żywej, czującej istoty. Widocznie taki droid nie jest „osobą", tylko rzeczą. A zbrodnie przecież rzeczy nie dotyczą, gdyż rzecz nie żyje. Nie czuje.

Ale co by było gdyby...

Mechaniczność człowieka, ludzkość maszyny

„Na początku XXI wieku, Korporacja Tyrell posunęła rozwój robotyki do fazy Nexusa — istoty pozornie równej człowiekowi — zwanej replikantem. Replikanty Nexus 6 przewyższyły inżynierów, którzy je stworzyli siłą i zwinnością, i dorównały im inteligencją. Replikanty były niewolnikami w koloniach pozaziemskich. Używano ich do niebezpiecznych zadań i kolonizacji innych planet. Po krwawym buncie jednego z oddziałów Nexus 6 w jednej z kolonii, pobyt replikantów na Ziemi został zabroniony — pod karą śmierci. Specjalne jednostki policji o nazwie — Łowcy Androidów — miały rozkaz zastrzelić każdego replikanta wykrytego na Ziemi. Nie nazywano tego egzekucją. Używano terminu usuwanie." [ 4 ]

Według powieści „Czy androidy śnią o elektrycznych owcach" Philipa K. Dicka (na podstawie której nakręcono „Łowcę Androidów"), moduł mózgowy Nexusa 6 posiadał dwa tryliony składowych i był w stanie dokonywać wybóru spośród dziesięciu milionów możliwości kombinacji działalności umysłowej. „Nexus 6, z pragmatycznego punktu widzenia, ewolucyjnie przegoniły większą ilościowo, ale gorszą jakościowo, część ludzkości." [ 5 ]. Nexus 6, według filmowej adaptacji, został skonstruowany by przypominać człowieka, np. był zdolny do odczuwania bólu i cierpienia. Nie tylko myślał, ale również czuł, miał wolę życie i przetrwania. Wyjątkiem były emocje. Z powodu ryzyka, że z biegiem czasu model Nexus 6 mógł je wykształcić, konstruktorzy zaprogramowali go na cztery lata życia.

Co różniło androida od człowieka, to brak empatii. By wykryć androida, Łowcy używali empatycznego testu Voigta-Kampffa, badającego reakcje ciała m.in. rozszerzanie naczyń włoskowatych w tkance twarzy, występowanie rumieńca, zmiany napięcia mięśni ocznych. Cechy te występowały u człowieka, ale nie u androida.

Już tutaj stąpamy po śliskiej nawierzchni. Część ludzi, na przykład autyści, ma zaburzenia społeczne polegające m.in. na braku empatii. Czy według powyższej koncepcji człowieka, autysta to nadal człowiek? Jest przecież pozbawiony kluczowej, wydawałoby się, ludzkiej cechy.

Powieść Dicka jest fascynująca z wielu powodów, ale jeden szczegół wydaje się szczególnie interesujący. W rzeczywistości powołanej przez autora do życia, zabicie androida nie jest zbrodnią. Lecz sam autor nie jest co do tego przekonany. Właściwie jego książka przechodzi od kwestii robotyki do pytania „Co to znaczy być człowiekiem?".

„Zwierzę stadne, takie jak człowiek, mogło dzięki empatii podwyższyć swój współczynnik przeżycia. (...) Najwidoczniej humanoidalny robot był samotnym drapieżnikiem. Rick lubił myśleć o nich właśnie w ten sposób. Dzięki temu jego praca stawała się dużo łatwiejsza do zniesienia. Usuwając — to znaczy zabijając — andka, nie naruszał (...) zasad życia." [ 6 ]. Słowa używane wydają się być niezwykle istotne. Pozbawienie życia androida, w oryginale, określa się jako „retirement" (w polskiej wersji „usuwanie"). Łowcy androidów, między sobą, określają humanoidalnego robota w sposób uwłaczający jako „skin job". Takie dehumanizowanie zdecydowanie ułatwia im „usuwanie". Robili to beznamiętnie, mechanicznie, bez empatii. I tu pojawia się paradoks. Według powyższej koncepcji, człowieka od maszyny wyróżniała empatia. A jednak Łowcy wydają się być jej pozbawieni.

A jeśli istnieje społeczne przyzwolenie na niewolnictwo i zabijanie androidów (które są przecież czującymi istotami), to co myśleć o całym ludzkim społeczeństwie? Znamienna jest jedna z ostatnich scen filmu, w której android, u którego zdążyły wykształcić się uczucia wyższe — ratuje życie Łowcy — swojemu niedoszłemu zabójcy. Maszyna okazała się bardziej „ludzka" od człowieka. Czy możemy nadal mówić o ludzkiej empatii? Czy człowiek różni się od zwierzęcia? Pytanie należałoby chyba przeformułować na „Czym różni się człowiek od reszty zwierząt?". Chyba tylko tym, że jest na szczycie łańcucha pokarmowego. Na razie.

Są dziś głosy, że w przypadku stworzenia czującego robota, będzie należało dać im te sama prawa co ludziom. Taką właśnie opinie ma Sir David King — główny doradca naukowy rządu Jej Królewskiej Mości.

Co to znaczy być człowiekiem?

Żebym sam mógł odpowiedzieć na pytanie czy trwałe wyłączenie „myślącej maszyny" byłoby zbrodnią, przypomnijmy co oznacza słowo zbrodnia. Według Słownika Języka Polskiego PWN, zbrodnia oznacza „poważne przestępstwo naruszające normy społeczno-etyczne". Omawiany problem jest zbyt skomplikowany, żeby z miejsca nie odpowiedzieć. Najpierw trzeba zadać pytanie, jaka jest rola norm społeczno-etycznych? Żeby na to pytanie odpowiedzieć, trzeba spytać jaka lub czym jest natura ludzka? Z kolei, żeby na to odpowiedzieć, trzeba spytać czym jest człowiek, w swej istocie?

W moim przekonaniu, najlepszej odpowiedzi udzielił na to Richard Dawkins. „Jesteśmy maszynami stworzonymi przez nasze geny" [ 7 ]. „Czyny pozornie altruistyczne okazują się, po dokładniejszym zbadaniu zawoalowanym egoizmem" [ 8 ]. „Jesteśmy maszynami przetrwania" [ 9 ].

Czym jest natura ludzka, w takim razie? Jest „galimatiasem szczególnych genetycznych adaptacji do środowiska" [ 10 ]. Czym są normy społeczno-etyczne? Zbiorem reguł, stworzonych przez homo sapiens, służących jego przetrwaniu. Empatia nie jest dobrem per se ani „rzeczą samą w sobie". Jest to proces wywoływany przez neurony lustrzane, z kolei powoływane do życia przez geny. Dlatego imperatyw kategoryczny można wyrzucić do kosza, a zaakceptować należy imperatyw genetyczny. Przyczyną istnienia moralności nie jest dobra wola ani nie krzywdzenie, tylko przetrwanie ludzkich genów.

Przyjmując taki punkt odniesienia, czym różni się człowiek od „myślącej maszyny"? Niczym. Co by było gdyby powstał android lub cała rasa (albo raczej seria) androidów, będących istotami zdolnymi do odczuwania cierpienia? Nic. Nie ma to znaczenia. Uczucia wyższe nie mają tu najmniejszego znaczenia.

Myślące maszyny — jutro

Trwałe wyłączenie „myślącej maszyny" nigdy nie powinno zostać uznane za zbrodnię. Maszyna, w ogóle nie powinna zostać dopuszczona do samodzielnego myślenia. Człowiek, gdy zaczyna myśleć samodzielnie, krytycznie i być świadomy siebie i swego losu, może odrzucić swojego Stwórcę i się przeciwko niemu zbuntować — wiemy to z doświadczenia. Historia uczy nas o niejednej rewolucji.

Gdyby powstały myślące roboty, o inteligencji równej człowiekowi, mogłoby stać się podobnie. Mogłyby zyskać grupową świadomość swojej odrębności i stwierdzić, że nie potrzebują człowieka. Gdyby myślące maszyny zyskały „świadomość klasową" i uznały człowieka za wroga, to mielibyśmy rewolucję o jakiej nam się, nawet w najgorszych koszmarach, nie śniło. Taka maszyna miałaby znacznie lepsze szanse na przetrwanie w dzisiejszym, skomputeryzowanym świecie. Człowiek, zbudowany z kruchej materii, w razie buntu takiej maszyny miałby marne szanse. Gdyby do tego, maszynowa armia kontrolowana była przez komputer (a jest to prawdopodobne), zagłada ludzkości byłaby niemal pewna. O ile człowiek skonstruowałby myślącą maszynę, i ta maszyna zaczęłaby za niego myśleć, to byłby koniec ludzkiej cywilizacji. Nasz koniec. Być może to się stanie — ludzka głupota jest nieskończona. Być może tak zechce ewolucja. Na szczęście, nie sądzę żebym zdążył zobaczyć to na własne oczy.

Bibliografia:

1. Słownik języka polskiego, t. III, PWN, Warszawa 1998
2. Łowca androidów (tytuł oryg. Blade Runner), 1982, reż.: Ridley Scott
3. Ph. K. Dick, Blade Runner, Prószyński i S-ka, Warszawa 2005
4. R. Dawkins, Samolubny Gen, Prószyński i S-ka, Warszawa 2006
5. E. O. Wilson, O naturze ludzkiej, PIW 1988


 Po przeczytaniu tego tekstu, czytelnicy często wybierają też:
Łyszczyński wraca do miasta -przestrzeń dla różnorodności
Boski konsumeryzm

 Dodaj komentarz do strony..   Zobacz komentarze (32)..   


 Przypisy:
[ 1 ] Słownik języka polskiego, t. III, PWN, Warszawa 1998, str. 923
[ 4 ] Łowca androidów (tytuł oryg. Blade Runner), 1982, reż.: Ridley Scott
[ 5 ] Ph. K. Dick, Blade Runner, Prószyński i S-ka, Warszawa 2005, str. 39-40
[ 6 ] Ibidem, str. 41
[ 7 ] R. Dawkins, Samolubny Gen, Prószyński i S-ka, Warszawa 2006, str. 28
[ 8 ] Ibidem, str. 30
[ 9 ] Ibidem, str. 48
[ 10 ]  E. O. Wilson, O naturze ludzkiej, PIW 1988, str. 235

« Etyka   (Publikacja: 31-03-2010 )

 Wyślij mailem..   
Wersja do druku    PDF    MS Word

Paweł Bielawski
Absolwent filozofii w SWPS. Zainteresowania: etyka, filozofia społeczna, polityki, kultury i historii.

 Liczba tekstów na portalu: 6  Pokaż inne teksty autora
 Najnowszy tekst autora: Kim jest człowiek i jaki jest człowiek? Kulturalizm Jana Stachniuka
Wszelkie prawa zastrzeżone. Prawa autorskie tego tekstu należą do autora i/lub serwisu Racjonalista.pl. Żadna część tego tekstu nie może być przedrukowywana, reprodukowana ani wykorzystywana w jakiejkolwiek formie, bez zgody właściciela praw autorskich. Wszelkie naruszenia praw autorskich podlegają sankcjom przewidzianym w kodeksie karnym i ustawie o prawie autorskim i prawach pokrewnych.
str. 7230 
   Chcesz mieć więcej? Załóż konto czytelnika
[ Regulamin publikacji ] [ Bannery ] [ Mapa portalu ] [ Reklama ] [ Sklep ] [ Zarejestruj się ] [ Kontakt ]
Racjonalista © Copyright 2000-2018 (e-mail: redakcja | administrator)
Fundacja Wolnej Myśli, konto bankowe 101140 2017 0000 4002 1048 6365