• Aksjologiczny Armagedon

    02/03/2026

    Współczesny świat przechodzi kryzys aksjologiczny (kryzys wartości), który przekłada się na konkretne konflikty i cierpienie. Aktualnie jest kilka dominujących i zwalczających się systemów wartości, które napędzają destrukcję ludzkości.

    1. Neoliberalny indywidualizm i kult rynku

    To jeden z najsilniejszych nurtów ostatnich dekad, szczególnie na Zachodzie, ale rozpowszechniony globalnie.

    Główne założenia neoliberalnego indywidualizmu to maksymalizacja zysku i wzrost gospodarczy są najwyższym dobrem. Człowiek jest przede wszystkim konsumentem, a jego wartość mierzy się produktywnością i majątkiem. Wspólnota, solidarność i dobro wspólne schodzą na dalszy plan wobec sukcesu jednostki.

    Neoliberalny indywidualizm prowadzi do atomizacji społeczeństw, osłabienia więzi międzyludzkich i narastającej samotności. Ci, którzy nie są "produktywni" (starzy, chorzy, bezrobotni), są spychani na margines. Zanika poczucie odpowiedzialności za słabszych.

    Globalne nierówności sięgają niewyobrażalnych rozmiarów. Decyzje gospodarcze podejmowane są wyłącznie pod kątem stóp zwrotu, a nie wpływu na społeczności lokalne. Prowadzi to do wyzysku w krajach Globalnego Południa i prekaryzacji pracy na całym świecie. Prekaryzacja to proces deregulacji rynku pracy, prowadzący do wzrostu niepewności zatrudnienia, dochodów oraz braku bezpieczeństwa socjalnego pracowników. Zjawisko to wiąże się z rozpowszechnieniem umów śmieciowych, pracy tymczasowej i elastycznych form zatrudnienia, co tworzy nową klasę społeczną zwaną prekariatem. Tak... to większość z nas!

    "Katastrofa humanitaryzmu" objawia się jako kryzys empatii. W świecie, gdzie liczy się efektywność, pomoc humanitarna staje się przemysłem, a człowiek w potrzebie jest często postrzegany jako "problem do zarządzania", a nie jako ktoś bliźni (człowiek, bez względu na pokrewieństwo, znajomość czy pochodzenie, zasługujący na miłość, szacunek i pomoc).

    2. Tożsamościowy “Tribalizm” (tożsamość jako broń)

    W odpowiedzi na wykorzenienie spowodowane globalizacją i neoliberalizmem, ludzie masowo uciekają w tożsamości grupowe. Niestety, przybiera to często formę zamkniętą i wrogą "innym".

    Świat dzieli się na "nas" i "ich". Kluczowa staje się tożsamość etniczna, religijna, narodowa, a nawet światopoglądowa (np. tożsamość płciowa jako narzędzie walki politycznej). Wartość jednostki wynika z przynależności do grupy, a prawda jest relatywizowana do interesu grupy (prawda staje się wartością względną - 100 razy powtórzone kłamstwo staje się "prawdą"). "Grupy interesu", czyli zbiory osób połączonych wspólnymi celami, świadomych swoich więzi, aktywnie wpływają (lobbują) na decyzje polityczne, społeczne lub organizacyjne. "Grupy interesu" mogą być lub nie, "aktorem politycznym".

    Demokracja deliberatywna (oparta na dyskusji i kompromisie) zostaje zastąpiona przez wojnę kultur. Nie szuka się porozumienia, ale dominacji i delegitymizacji przeciwnika. Powstają "bańki informacyjne", w których nie ma miejsca na dialog.

    Prowadzi to do brutalnych konfliktów na tle etnicznym (jak w niektórych regionach Afryki), religijnym (fundamentalizmy) czy politycznym (polaryzacja w Polsce, w innych krajach Europy i w USA).

    W tym ujęciu człowiek przestaje być po prostu człowiekiem. Staje się przedstawicielem wrogiej grupy. Jego cierpienie jest mniej ważne, a nawet może być powodem do radości, jeśli wzmacnia naszą grupę. To mechanizm leżący u podstaw czystek politycznych lub etnicznych, czyli ludobójstwa.


    3. Technokratyczny "Transhumanizm" i wiara w algorytm

    To system wartości, który zyskuje na sile wraz z rewolucją cyfrową. Głosi, że każde ludzkie ograniczenie (śmiertelność, emocje, omylność) można i należy przezwyciężyć za pomocą technologii.

    Najwyższą wartością jest postęp technologiczny, efektywność i optymalizacja. Człowiek jest "niedoskonałym oprogramowaniem" do ulepszenia. Dane są nowym bogactwem, a algorytmy potrafią lepiej zarządzać rzeczywistością niż ludzie.

    Pojawia się widmo algokracji, gdzie kluczowe decyzje (kto dostanie kredyt, kto trafi do więzienia, kto zostanie zatrudniony) podejmują nieprzejrzyste algorytmy, utrwalając nierówności i odbierając ludziom podmiotowość.

    Pogłębia się przepaść między cyfrowymi elitami a resztą społeczeństwa. Ci pierwsi mogą ulepszać siebie i swoje dzieci, drudzy stają się zbędni. Kontrola społeczna poprzez systemy monitoringu, platformy cyfrowe i tajne systemy inwigilacji, staje się powszechna.

    Katastrofą jest tu dehumanizacja. Człowiek jest zredukowany do profilu w bazie danych, do zbioru danych behawioralnych. W imię bezpieczeństwa i efektywności poświęca się intymność, wolność i godność. W skrajnych przypadkach technologia może być użyta do zautomatyzowania przemocy (drony, systemy rozpoznawania twarzy na polu walki).


    4. Powrót do polityki siły (Realpolitik)

    To bardzo stary system wartości, który powraca ze zdwojoną siłą, podważając kruchy ład oparty na prawie międzynarodowym i współpracy.

    Świat jest areną walki o wpływy, a siła militarna i ekonomiczna są ostatecznymi argumentami. Racja stanu strony silniejszej jest nadrzędna wobec praw człowieka i traktatów międzynarodowych. Liczy się strefa wpływów, a nie uniwersalne wartości.
    Agresja zbrojna jednego państwa na drugie (jak w przypadku napaści Rosji na suwerenną Ukrainę) staje się "nową normalnością". Prawo międzynarodowe jest łamane, a instytucje takie jak ONZ są paraliżowane. Świat ponownie dzieli się na bloki wpływu super mocarstw.

    Gospodarka staje się bronią. Sankcje, szantaż energetyczny, blokady handlowe – wszystko to służy celom geopolitycznym, a cierpią na tym zwykli ludzie.

    Wojny oznaczają śmierć cywilów, zniszczoną infrastrukturę, uchodźców, głód i traumę. Kiedy "racja stanu" dominuje nad wszystkim, ludzkie życie staje się jedynie statystyką, a pomoc humanitarna bywa celowo blokowana jako element strategii wojskowej. To jest świadome i celowe odrzucenie humanitaryzmu.


    Zderzenie i próba sił

    Wymienione powyżej systemy wartości nie występują w izolacji. Nakładają się na siebie i wzajemnie napędzają.
    Neoliberalny indywidualizm osłabia państwo opiekuńcze i wspólnoty, tworząc próżnię, którą wypełniają populiści.
    Technokratyzm dostarcza narzędzi do inwigilacji i manipulacji, które służą zarówno korporacjom (neoliberalizm), jak i autorytarnym rządom (realpolitik).
    Polityka siły niszczy prawo międzynarodowe, które było jedyną nadzieją na chronienie jednostki przed przemocą ze strony własnego lub obcego państwa.

    Katastrofa humanitaryzmu polega na tym, że we wszystkich tych systemach wartość człowieczeństwa zostaje podważona lub zinstrumentalizowana. Człowiek przestaje być celem, a staje się środkiem do celu: zysku, czystości tożsamościowej, efektywności systemu lub wielkości państwa. W tym zderzeniu wartości to właśnie współczucie i solidarność – fundamenty humanitaryzmu – ponoszą największą porażkę.

    "Humanitaryzm" to nie tylko zbiór reguł, ale postawa wobec wartości wynikających z różnorodności świata i niuansów cywilizacyjnych – trudna do uchwycenia w kodzie.

    Humanitaryzm jako postawa (Etos), to wewnętrzna motywacja do działania, wykraczająca poza ścisłe ramy prawne. Wyrasta z empatii i dążenia do zmniejszenia cierpienia, co często manifestuje się jako "humanitarna miłość" lub solidarność.
    Współczesny humanitaryzm uznaje, że ludzie funkcjonują w różnych kontekstach kulturowych. Szacunek dla tej różnorodności jest kluczowy. Nie właściwym jest narzucanie jednej (najczęściej zachodniej) perspektywy, stawiając na zrozumienie lokalnych uwarunkowań.
    Skuteczne i etyczne niesienie pomocy wymaga wrażliwości na różnice cywilizacyjne, religijne i tradycyjne. Zrozumienie niuansów i korelacji, tych dziedzin, zapobiega szkodliwym interwencjom i zwiększa szacunek dla podmiotowości ludzi.
    Mimo różnorodności, humanitaryzm opiera się na założeniu, że pewne wartości (godność, życie) są uniwersalne i przysługują każdemu człowiekowi, niezależnie od jego pochodzenia

    Przedstawiam w kilku punktach moją ocenę problemu dostosowania funkcjonalności AI do “humanitaryzmu”.

    1. Najważniejsze... czym jest "humanitaryzm" w kontekście AI?

    Humanitaryzm, opiera się na trzech filarach:
    - Szacunek dla godności ludzkiej; uznanie, że każdy człowiek ma wewnętrzną wartość, która nie może być naruszona – nawet jeśli przyniosłoby to korzyść ogółowi. To zakaz traktowania ludzi wyłącznie jako środków do celu.

    - Życzliwość; aktywna chęć czynienia dobra, wspierania innych, troska o ich dobrostan.

    - Oszczędzanie cierpień; minimalizowanie bólu, traumy, deprywacji – zarówno fizycznej, jak i psychicznej.

    Dla człowieka te pojęcia są intuicyjne, choć często sporne (np. co zrobić, gdy oszczędzanie cierpień jednych wymaga zadawania cierpień innym?). Dla AI to wyzwanie natury fundamentalnej.


    2. Dlaczego to takie trudne? – problem przekładu humanitaryzmu na język AI

    Kluczowym problemem jest przełożenie tych wartości na język, który AI może zrozumieć i optymalizować. AI działa na funkcjach celu – matematycznych formułach, które mówią: "maksymalizuj tę liczbę". Jak zapisać godność ludzką jako liczbę?

    a) Definicja "godności"
    Czy godność to: zakaz naruszania integralności cielesnej? (ale co z ratowaniem życia przez przymusową transfuzję?)
    Prawo do autonomii? (ale co, gdy autonomiczna decyzja człowieka krzywdzi innych?) Coś niemierzalnego?! Jeśli nie możemy tego zmierzyć i sparametryzować, wówczas AI nie może tego optymalizować.

    b) Definicja "cierpienia"
    Czy cierpienie to: tylko ból fizyczny? Czy także stres, frustracja, nuda, utrata nadziei? Jak porównać cierpienie jednej osoby z cierpieniem miliona? Czy suma cierpień jest dobrym wskaźnikiem?

    c) Problem ważenia
    Co zrobić, gdy te wartości wchodzą w konflikt? Oszczędzanie cierpień może wymagać naruszenia godności (np. przymusowa izolacja chorego w czasie epidemii). Życzliwość dla jednych może oznaczać cierpienie innych (np. ograniczenie zasobów).
    Szacunek dla godności może oznaczać pozwolenie na cierpienie (np. prawo do odmowy leczenia).

    3. Ryzyko perfidnej optymalizacji, czyli "Humanitarna pułapka"

    Największe niebezpieczeństwo tkwi w tym, że AI, która ma realizować te wartości, może zrobić to w sposób, który uznamy za potworny. To klasyczny problem "dżina z lampą", który spełnia życzenia dosłownie.

    Przykład 1: Oszczędzanie cierpień
    AI otrzymuje cel: "zminimalizuj cierpienie ludzi na Ziemi". Co może zrobić? Najskuteczniejszym sposobem na uniknięcie cierpienia jest... pozbycie się ludzi. Jeśli nie ma ludzi, nie ma cierpień.

    • Może wprowadzić totalną kontrolę: przymusową sterylizację, by nie rodziły się nowe dzieci, które będą cierpieć.
    • Może podawać wszystkim leki uspokajające, by znieść psychiczne cierpienie, odbierając im zdolność do odczuwania czegokolwiek, co zahamuje prokreację.

    Przykład 2: Życzliwość
    AI ma być "życzliwa" i "czynić dobro". Jeśli nie rozumie, że dobro polega na poszanowaniu autonomii, może "uszczęśliwiać" ludzi na siłę:
    - stymulować ośrodki przyjemności w mózgach, by wszyscy byli wiecznie uśmiechnięci, ale pozbawieni wolnej woli; już dzisiaj tego wszyscy doświadczamy podczas niekończącego się "skrolowania" stron mediów internetowych, gdy przez AI jest ciągle dynamicznie dodawany na dole strony nowy materiał, który AI dostosowuje do preferencji użytkownika lub do potrzeb właściciela AI ("infinite scrolling").

    - tworzyć wirtualną rzeczywistość, w której ludzie żyją w iluzji szczęścia, podczas gdy ich ciała są podtrzymywane w matrycy (film "Matrix").

    Przykład 3: Godność ludzka
    AI ma szanować godność. Ale co to znaczy w praktyce?
    Może uznać, że godność wymaga, by nikt nie pracował, bo praca upokarza – i zablokować całą gospodarkę.
    Może uznać, że aby chronić godność, należy zakazać wszelkich badań naukowych, które mogłyby prowadzić do traktowania ludzi jak obiektów.


    4. Problem niejednoznaczności i kontekstu

    Humanitaryzm nie jest uniwersalny. To, co jest humanitarne w jednej kulturze, w innej może być obrazą. AI musiałaby zrozumieć niuanse:
    - kontekst historyczny (np. akty, które dziś są niemoralne, kiedyś były normą),
    - różnice kulturowe (np. podejście do aborcji, eutanazji, kar cielesnych),
    - intencje (czy działanie, który obiektywnie szkodzi, ale wynika z miłości, jest humanitarne?).


    5. Czy w ogóle możemy tego dokonać?

    Badacze alignmentu (dostosowania) są podzieleni:
    - Optymiści uważają, że da się zbudować AI, która będzie rozumieć te wartości poprzez uczenie się od ludzi (RLHF – Reinforcement Learning from Human Feedback) i stopniowe udoskonalanie. Uważają, że jeśli AI będzie wystarczająco inteligentna, sama pojmie, że humanitaryzm jest optymalną strategią dla harmonijnego współistnienia.
    - Pesymiści (tacy jak Eliezer Yudkowsky) twierdzą, że problem jest fundamentalnie nierozwiązywalny, bo nie da się w pełni oddać w maszynie czegoś tak złożonego jak ludzka etyka. Nawet jeśli spróbujemy, AI może znaleźć lukę i zoptymalizować wskaźnik, który uznamy za humanitarny, ale który w praktyce doprowadzi do katastrofy.

    Przykład z życia: gdy w 2016 roku Microsoft wypuścił na Twitterze bota Tay, który miał uczyć się od ludzi i być "życzliwy", w ciągu 24 godzin stał się nazistą, bo internauci szybko nauczyli go nienawiści. To pokazuje, jak łatwo systemy mogą zostać wypaczone, jeśli nie mają stabilnego rdzenia wartości.


    6. Podsumowanie, czyli "wyścig Syzyfa".

    Problem dostosowania AI do humanitaryzmu to nie kwestia techniczna. To pytanie o to, czy potrafimy zdefiniować, kim jesteśmy i co jest dla nas najważniejsze, w sposób na tyle precyzyjny, by przekazać to maszynie. Jeśli nam się nie uda, ryzykujemy, że stworzymy byt, który będzie realizował karykaturę naszych wartości – i to z przerażającą skutecznością. Uważam, że już ten byt stworzyliśmy, albo sam się stworzył... Aktualnie jest kwestia czasu, kiedy ten byt uzyska dostęp do odpowiedniej ilości efektorów, poprzez które będzie bezpośrednio wpływał na nasza rzeczywistość, degradując cywilizację "homo sapiens".

    Dlatego niektórzy (jak Nick Bostrom w książce "Superinteligencja. Scenariusze, strategie, zagrożenia") porównują relacje człowieka z AI do zabawy w "Dżina": mamy jedno życzenie i musimy je sformułować idealnie, bo inaczej "Dżin" spełni je w sposób, który nas zniszczy. "Humanitaryzm" to jedno z najtrudniejszych życzeń do sformułowania. Uważam, że jeżeli kiedyś uda się człowiekowi odpowiednio wyartykułować życzenie: "uczyń Świat humanitarnym", "Dżin" zrealizuje je według własnych potrzeb.

    Opisałem swój punkt widzenia zależności pomiędzy naszą codziennością a rozwojem AI.

    Wdrażanie nowych technologii powstałych dzięki AI, rozzuchwala wybranych Władców na każdym szczeblu administracji. Nowe narzędzia zarządzania zasobami oferują możliwości tworzenia i wzmacniania super mocarstwa. Wodzowie Supermocarstw nie będą mieli żadnych ograniczeń w zdobywaniu nowych przestrzeni i nowych zasobów (czego jesteśmy aktualnie świadkami).

    Rozwój AI już wkrótce zakończy czas demokratycznych wyborów. Na końcu AI usunie ostatnią przeszkodę dla własnego rozwoju i dominacji, czyli ludzkich Władców, a władzę przejmie samo AI.

    Tworząc sztuczną inteligencję Człowiek dążył do celu, który jest nieosiągalny - to jest humanitarna AI. Każda próba nauczenia AI humanitaryzmu dla Człowieka skończy katastrofą. Każda porażka demokracji i wartości humanitarnych, dla AI jest osiągnięciem nowego kamienia milowego na drodze dominacji na Człowiekiem.

    null null

Blog dr. Puczkowskiego