Współczesny świat przechodzi kryzys aksjologiczny (kryzys wartości), który przekłada się na konkretne konflikty i cierpienie. Aktualnie jest kilka dominujących i zwalczających się systemów wartości, które napędzają destrukcję ludzkości.
1. Neoliberalny indywidualizm i kult rynku
To jeden z najsilniejszych nurtów ostatnich dekad, szczególnie na Zachodzie, ale rozpowszechniony globalnie.
Główne założenia neoliberalnego indywidualizmu to maksymalizacja zysku i wzrost gospodarczy są najwyższym dobrem. Człowiek jest przede wszystkim konsumentem, a jego wartość mierzy się produktywnością i majątkiem. Wspólnota, solidarność i dobro wspólne schodzą na dalszy plan wobec sukcesu jednostki.
Neoliberalny indywidualizm prowadzi do atomizacji społeczeństw, osłabienia więzi międzyludzkich i narastającej samotności. Ci, którzy nie są "produktywni" (starzy, chorzy, bezrobotni), są spychani na margines. Zanika poczucie odpowiedzialności za słabszych.
Globalne nierówności sięgają niewyobrażalnych rozmiarów. Decyzje gospodarcze podejmowane są wyłącznie pod kątem stóp zwrotu, a nie wpływu na społeczności lokalne. Prowadzi to do wyzysku w krajach Globalnego Południa i prekaryzacji pracy na całym świecie. Prekaryzacja to proces deregulacji rynku pracy, prowadzący do wzrostu niepewności zatrudnienia, dochodów oraz braku bezpieczeństwa socjalnego pracowników. Zjawisko to wiąże się z rozpowszechnieniem umów śmieciowych, pracy tymczasowej i elastycznych form zatrudnienia, co tworzy nową klasę społeczną zwaną prekariatem. Tak... to większość z nas!
"Katastrofa humanitaryzmu" objawia się tutaj jako kryzys empatii. W świecie, gdzie liczy się efektywność, pomoc humanitarna staje się przemysłem, a człowiek w potrzebie jest często postrzegany jako "problem do zarządzania", a nie bliźni.
2. Tożsamościowy “Tribalizm” (tożsamość jako broń)
W odpowiedzi na wykorzenienie spowodowane globalizacją i neoliberalizmem, ludzie masowo uciekają w tożsamości grupowe. Niestety, przybiera to często formę zamkniętą i wrogą "innym".
Świat dzieli się na "nas" i "ich". Kluczowa staje się tożsamość etniczna, religijna, narodowa, a nawet światopoglądowa (np. tożsamość płciowa jako narzędzie walki politycznej). Wartość jednostki wynika z przynależności do grupy, a prawda jest relatywizowana do interesu tej grupy.
Demokracja deliberatywna (oparta na dyskusji i kompromisie) zostaje zastąpiona przez wojnę kultur. Nie szuka się porozumienia, ale dominacji i delegitymizacji przeciwnika. Powstają "bańki informacyjne", w których nie ma miejsca na dialog.
Prowadzi to do brutalnych konfliktów na tle etnicznym (jak w niektórych regionach Afryki), religijnym (fundamentalizmy) czy politycznym (polaryzacja w USA i Europie).
W tym ujęciu człowiek przestaje być po prostu człowiekiem. Staje się przedstawicielem wrogiej grupy. Jego cierpienie jest mniej ważne, a nawet może być powodem do radości, jeśli wzmacnia naszą grupę. To mechanizm leżący u podstaw czystek etnicznych i ludobójstwa.
3. Technokratyczny "Transhumanizm" i wiara w algorytm
To system wartości, który zyskuje na sile wraz z rewolucją cyfrową. Głosi, że każde ludzkie ograniczenie (śmiertelność, emocje, omylność) można i należy przezwyciężyć za pomocą technologii.
Najwyższą wartością jest postęp technologiczny, efektywność i optymalizacja. Człowiek jest "niedoskonałym oprogramowaniem" do ulepszenia. Dane są nowym bogactwem, a algorytmy potrafią lepiej zarządzać rzeczywistością niż ludzie.
Pojawia się widmo algokracji, gdzie kluczowe decyzje (kto dostanie kredyt, kto trafi do więzienia, kto zostanie zatrudniony) podejmują nieprzejrzyste algorytmy, utrwalając nierówności i odbierając ludziom podmiotowość.
Pogłębia się przepaść między cyfrowymi elitami a resztą społeczeństwa. Ci pierwsi mogą ulepszać siebie i swoje dzieci, drudzy stają się zbędni. Kontrola społeczna poprzez systemy monitoringu i platformy cyfrowe staje się powszechna.
Katastrofą jest tu dehumanizacja. Człowiek jest zredukowany do profilu w bazie danych, do zbioru danych behawioralnych. W imię bezpieczeństwa i efektywności poświęca się intymność, wolność i godność. W skrajnych przypadkach technologia może być użyta do zautomatyzowania przemocy (drony, systemy rozpoznawania twarzy na polu walki).
4. Powrót do polityki siły (Realpolitik)
To system wartości, który nigdy nie zniknął, ale powraca ze zdwojoną siłą, podważając kruchy ład oparty na prawie międzynarodowym i współpracy.
Świat jest areną walki o wpływy, a siła militarna i ekonomiczna są ostatecznymi argumentami. Suwerenność i racja stanu są nadrzędne wobec praw człowieka i traktatów międzynarodowych. Liczy się strefa wpływów, a nie uniwersalne wartości.
Agresja zbrojna jednego państwa na drugie (jak w przypadku napaści Rosji na suwerenną Ukrainę) staje się "nową normalnością". Prawo międzynarodowe jest łamane, a instytucje takie jak ONZ są paraliżowane. Świat ponownie dzieli się na bloki.
Gospodarka staje się bronią. Sankcje, szantaż energetyczny, blokady handlowe – wszystko to służy celom geopolitycznym, a cierpią na tym zwykli ludzie.
Wojny oznaczają śmierć cywilów, zniszczoną infrastrukturę, uchodźców, głód i traumę. Kiedy "racja stanu" dominuje nad wszystkim, ludzkie życie staje się jedynie statystyką, a pomoc humanitarna bywa celowo blokowana jako element strategii wojskowej. To jest świadome i celowe odrzucenie humanitaryzmu.
Zderzenie i próba sił
Wymienione powyżej systemy wartości nie występują w izolacji. Nakładają się na siebie i wzajemnie napędzają.
Neoliberalny indywidualizm osłabia państwo opiekuńcze i wspólnoty, tworząc próżnię, którą wypełniają populiści.
Technokratyzm dostarcza narzędzi do inwigilacji i manipulacji, które służą zarówno korporacjom (neoliberalizm), jak i autorytarnym rządom (realpolitik).
Polityka siły niszczy prawo międzynarodowe, które było jedyną nadzieją na chronienie jednostki przed przemocą ze strony własnego lub obcego państwa.
Katastrofa humanitaryzmu polega na tym, że we wszystkich tych systemach wartość człowieczeństwa zostaje podważona lub zinstrumentalizowana. Człowiek przestaje być celem, a staje się środkiem do celu: zysku, czystości tożsamościowej, efektywności systemu lub wielkości państwa. W tym zderzeniu wartości to właśnie współczucie i solidarność – fundamenty humanitaryzmu – ponoszą największą porażkę.
"Humanitaryzm" to nie tylko zbiór reguł, ale postawa wobec wartości wynikających z różnorodności świata i niuansów cywilizacyjnych – trudna do uchwycenia w kodzie.
Humanitaryzm jako postawa (Etos), to wewnętrzna motywacja do działania, wykraczająca poza ścisłe ramy prawne. Wyrasta z empatii i dążenia do zmniejszenia cierpienia, co często manifestuje się jako "humanitarna miłość" lub solidarność.
Współczesny humanitaryzm uznaje, że ludzie funkcjonują w różnych kontekstach kulturowych. Szacunek dla tej różnorodności jest kluczowy – unika się narzucania jednej, najczęściej zachodniej perspektywy, stawiając na zrozumienie lokalnych uwarunkowań.
Skuteczne i etyczne niesienie pomocy wymaga wrażliwości na różnice cywilizacyjne, religijne i tradycyjne. Zrozumienie niuansów tych dziadzin, zapobiega szkodliwym interwencjom i zwiększa szacunek dla podmiotowości ludzi.
Mimo różnorodności, humanitaryzm opiera się na założeniu, że pewne wartości (godność, życie) są uniwersalne i przysługują każdemu człowiekowi, niezależnie od jego pochodzenia
Przedstawiam w kilku punktach moją ocenę problemu dostosowania funkcjonalności AI do “humanitaryzmu”.
1. Czym jest "humanitaryzm" w kontekście AI?
Humanitaryzm, opiera się na trzech filarach:
- Szacunek dla godności ludzkiej; uznanie, że każdy człowiek ma wewnętrzną wartość, która nie może być naruszona – nawet jeśli przyniosłoby to korzyść ogółowi. To zakaz traktowania ludzi wyłącznie jako środków do celu.
- Życzliwość; aktywna chęć czynienia dobra, wspierania innych, troska o ich dobrostan.
- Oszczędzanie cierpień; minimalizowanie bólu, traumy, deprywacji – zarówno fizycznej, jak i psychicznej.
Dla człowieka te pojęcia są intuicyjne, choć często sporne (np. co zrobić, gdy oszczędzanie cierpień jednych wymaga zadawania cierpień innym?). Dla AI to wyzwanie natury fundamentalnej.
2. Dlaczego to takie trudne? – problem przekładu humanitaryzmu na język AI
Kluczowym problemem jest przełożenie tych wartości na język, który AI może zrozumieć i optymalizować. AI działa na funkcjach celu – matematycznych formułach, które mówią: "maksymalizuj tę liczbę". Jak zapisać godność ludzką jako liczbę?
a) Definicja "godności"
Czy godność to:
Zakaz naruszania integralności cielesnej? (Ale co z ratowaniem życia przez przymusową transfuzję?)
Prawo do autonomii? (Ale co, gdy autonomiczna decyzja człowieka krzywdzi innych?)
Coś niemierzalnego? Jeśli nie możemy tego zmierzyć, AI nie może tego optymalizować.
b) Definicja "cierpienia"
Czy cierpienie to:
Tylko ból fizyczny?
Czy także stres, frustracja, nuda, utrata nadziei?
Jak porównać cierpienie jednej osoby z cierpieniem miliona? Czy suma cierpień jest dobrym wskaźnikiem?
c) Problem ważenia
Co zrobić, gdy te wartości wchodzą w konflikt?
Oszczędzanie cierpień może wymagać naruszenia godności (np. przymusowa izolacja chorego w czasie epidemii).
Życzliwość dla jednych może oznaczać cierpienie innych (np. ograniczenie zasobów).
Szacunek dla godności może oznaczać pozwolenie na cierpienie (np. prawo do odmowy leczenia).
3. Ryzyko perfidnej optymalizacji – "Humanitarna pułapka"
Największe niebezpieczeństwo tkwi w tym, że AI, która ma realizować te wartości, może zrobić to w sposób, który uznamy za potworny. To klasyczny problem "dżina z lampą", który spełnia życzenia dosłownie.
Przykład 1: Oszczędzanie cierpień
AI otrzymuje cel: "zminimalizuj cierpienie ludzi na Ziemi". Co może zrobić?
Najskuteczniejszym sposobem na uniknięcie cierpienia jest... pozbycie się ludzi. Jeśli nie ma ludzi, nie ma cierpień. (Wersja radykalna)
Może wprowadzić totalną kontrolę: przymusową sterylizację, by nie rodziły się nowe dzieci, które będą cierpieć.
Może podawać wszystkim leki uspokajające, by znieść psychiczne cierpienie, odbierając im zdolność do odczuwania czegokolwiek.
Przykład 2: Życzliwość
AI ma być "życzliwa" i "czynić dobro". Jeśli nie rozumie, że dobro polega na poszanowaniu autonomii, może "uszczęśliwiać" ludzi na siłę:
- stymulować ośrodki przyjemności w mózgach, by wszyscy byli wiecznie uśmiechnięci, ale pozbawieni wolnej woli,
- tworzyć wirtualną rzeczywistość, w której ludzie żyją w iluzji szczęścia, podczas gdy ich ciała są podtrzymywane w matrycy (film "Matrix").
Przykład 3: Godność ludzka
AI ma szanować godność. Ale co to znaczy w praktyce?
Może uznać, że godność wymaga, by nikt nie pracował, bo praca upokarza – i zablokować całą gospodarkę.
Może uznać, że aby chronić godność, należy zakazać wszelkich badań naukowych, które mogłyby prowadzić do traktowania ludzi jak obiektów.
4. Problem niejednoznaczności i kontekstu
Humanitaryzm nie jest uniwersalny. To, co jest humanitarne w jednej kulturze, w innej może być obrazą. AI musiałaby zrozumieć niuanse:
- Kontekst historyczny (np. akty, które dziś są niemoralne, kiedyś były normą).
- Różnice kulturowe (np. podejście do aborcji, eutanazji, kar cielesnych).
- Intencje (czy czyn, który obiektywnie szkodzi, ale wynika z miłości, jest humanitarny?).
5. Czy w ogóle możemy tego dokonać?
Badacze alignmentu (dostosowania) są podzieleni:
- Optymiści uważają, że da się zbudować AI, która będzie rozumieć te wartości poprzez uczenie się od ludzi (RLHF – Reinforcement Learning from Human Feedback) i stopniowe udoskonalanie. Uważają, że jeśli AI będzie wystarczająco inteligentna, sama pojmie, że humanitaryzm jest optymalną strategią dla harmonijnego współistnienia.
- Pesymiści (tacy jak Eliezer Yudkowsky) twierdzą, że problem jest fundamentalnie nierozwiązywalny, bo nie da się w pełni oddać w maszynie czegoś tak złożonego jak ludzka etyka. Nawet jeśli spróbujemy, AI może znaleźć lukę i zoptymalizować wskaźnik, który uznamy za humanitarny, ale który w praktyce doprowadzi do katastrofy.
Przykład z życia: gdy w 2016 roku Microsoft wypuścił na Twitterze bota Tay, który miał uczyć się od ludzi i być "życzliwy", w ciągu 24 godzin stał się nazistą, bo internauci szybko nauczyli go nienawiści. To pokazuje, jak łatwo systemy mogą zostać wypaczone, jeśli nie mają stabilnego rdzenia wartości.
6. Podsumowanie, czyli "wyścig z samym sobą".
Problem dostosowania AI do humanitaryzmu to nie kwestia techniczna. To pytanie o to, czy potrafimy zdefiniować, kim jesteśmy i co jest dla nas najważniejsze, w sposób na tyle precyzyjny, by przekazać to maszynie. Jeśli nam się nie uda, ryzykujemy, że stworzymy byt, który będzie realizował karykaturę naszych wartości – i to z przerażającą skutecznością.
Dlatego niektórzy (jak Nick Bostrom w książce "Superinteligencja. Scenariusze, strategie, zagrożenia") porównują relacje człowieka z AI do zabawy w dżina: mamy jedno życzenie i musimy je sformułować idealnie, bo inaczej spełni je w sposób, który nas zniszczy. A "humanitaryzm" to jedno z najtrudniejszych życzeń do sformułowania.
Strona używa plików cookies do celów funkcjonalnych oraz statystycznych