Podstawy naturalizmu w naukach społecznych

utworzone przez | 24.12.2025 | Filozofia i światopogląd

Założenia potrzebne dla nauki z naturalizmu – co to właściwie znaczy?

Zastanawiasz się, jakie fundamentalne założenia leżą u podstaw naturalizmu w naukach społecznych i co to właściwie znaczy dla naszego rozumienia świata i człowieka? To pytanie, które od wieków nurtuje myślicieli, a jego zrozumienie jest kluczowe, by pojąć, jak kształtowały się dyscypliny takie jak ekonomia czy socjologia. Naturalizm, w swoich różnych odsłonach, próbował zdefiniować miejsce człowieka w kosmosie, a także sposób, w jaki powinniśmy badać jego zachowania i interakcje społeczne. Przygotuj się na fascynującą podróż przez filozoficzne i metodologiczne meandry, które doprowadziły nas do współczesnego pojmowania nauk o człowieku.

Od materii do świadomości

Na samym początku, w sercu naturalizmu leży ontologiczne założenie, że świat to nic innego jak materia, która wzajemnie na siebie oddziałuje przyczynowo i którą da się opisać za pomocą zasad mechaniki Newtona. Jeśli spojrzymy na człowieka jako immanentny element tego materialnego świata, musimy zaakceptować, że nasza substancja również jest materialna. Co więcej, materialne muszą być także „podłoża” wszelkich zjawisk, które wydają się niematerialne, a które tak często opisujemy językiem – mowa tu o świadomości, emocjach, wyobrażeniach czy wiedzy. Nawet źródła naszych społecznych interakcji i decyzji, które podejmujemy w ich ramach, muszą mieć charakter materialny.

Właśnie tak postrzegał to La Mettrie, który śmiało utożsamiał świadomość z konkretną strukturą biologiczną. Idąc tym tropem, znajdował podobieństwa w strukturach biologicznych małp, co pozwalało mu wnioskować o ich doświadczaniu świadomości. Przyznasz, to było odważne! Choć takie podejście, mimo swojej atrakcyjności, nie wyjaśniało samego doświadczenia świadomości ani związku między świadomością, decyzjami a ich oddziaływaniem na świat materialny. Te „dziury” eksplanacyjne nie przeszkodziły jednak w jego popularności.

Mechaniczna rewolucja i „scjentystyczny przesąd”

Sukces, jaki osiągnęła mechanika Newtona, oparta na empiryczno-matematycznej metodzie, sprawił, że bardzo szybko próbowano przenieść ją na grunt nauk o człowieku. Wydawało się to takie proste! Skoro działa w fizyce, to czemu nie w socjologii czy ekonomii? To właśnie tę „niewolniczą” imitację metod i języka nauk ścisłych w odniesieniu do nauk o człowieku Friedrich Hayek nazwał „scjentyzmem” lub „scjentystycznym przesądem”. Początków tego procesu upatrywał w końcu XVIII i na początku XIX wieku, a jego „ukoronowaniem” była filozofia pozytywna Augusta Comte’a i jego spadkobierców, którzy rozwijali nową naukę – socjologię.

Comte poszedł dalej, ekstrapolując naturalizm na obszar ludzkich zachowań. W jego rozumieniu, naturalizm oznaczał brak fundamentalnej, istotnej różnicy między przedmiotem badań nauk przyrodniczych a przedmiotem „fizyki społecznej” – bo tak początkowo nazywał socjologię. To implikowało, że metody badawcze powinny być tożsame lub bardzo podobne.

Warto na chwilę zanurzyć się w źródła tego przekonania, które miało ogromny wpływ na kontynentalną naukę. Dzieło Newtona wywołało w Europie szerokie reperkusje. Wielkim entuzjastą był Wolter, a za nim poszli inni myśliciele francuskiego Oświecenia – d’Alembert, Euler, Lagrange, Laplace, Lavoisier czy Buffon. Francja stała się tyglem, gdzie rozwijały się najbardziej śmiałe idee. Laplace w swoim ontologicznym naturalizmie poszedł tak daleko, że utożsamił go ze skrajnym determinizmem, tworząc ideę słynnego „demona Laplace’a”, hipotetycznej istoty zdolnej przewidzieć wszystkie przyszłe stany świata. Podobne rozumowanie bliskie było Condorcetowi, który wierzył, że rozwój nauk społecznych doprowadzi do przewidywalności wydarzeń historycznych, a to umożliwi projektowanie i kierowanie rozwojem społeczeństwa. Jego propozycja metodologiczna zakładała, że historia musi stać się historią mas, a nie jednostek, a jej główną metodą badawczą miała być systematyczna obserwacja.

École Polytechnique i wpływ Saint-Simona

Według Hayeka, prawdziwą „wylęgarnią” tych pomysłów stała się utworzona po rewolucji francuskiej École Polytechnique w Paryżu. Przez lata wykładano tam wyłącznie przedmioty ścisłe. Wszelkie przedmioty humanistyczne, „skażone” starą ideologią (jak moralność, religia, języki starożytne, literatura, gramatyka czy historia), były z założenia podejrzane. Ta edukacyjna „dziura” doprowadziła do pokoleniowej zmiany atmosfery intelektualnej. Absolwentami tej uczelni byli m.in. sam Comte i Enfantin.

Człowiekiem, który wywarł szczególny wpływ na kształtowanie się ich poglądów, był Henri de Saint-Simon. Jeśli kończyłeś szkołę średnią przed 1989 rokiem, jego nazwisko mogło kojarzyć Ci się z „socjalizmem utopijnym”. Saint-Simon próbował w swoich dziełach (często pisanych wspólnie z uczniami) podawać recepty na urządzenie doskonałego społeczeństwa. To, co istotne, to naiwna próba wykorzystania osiągnięć nauk ścisłych do formowania nowego ładu społecznego. Sprowadzało się to do umieszczania przedstawicieli różnych nauk ścisłych – zwłaszcza matematyków i fizyków – w organach rządzących światem. Choć Saint-Simon nie był absolwentem École Polytechnique, pozostawał z nią w bliskich stosunkach, a wielu jej absolwentów uważało go za swojego mistrza.

August Comte, z wykształcenia matematyk, twórca pojęcia „fizyka społeczna”, w swoim dziele System polityki pozytywnej przedstawił podstawy tej nowej nauki. Przyjął tam zasadę metodologiczną, która stała się wyrazem jego naturalizmu: zadaniem fizyki społecznej jest odkrywanie naturalnych i nieodwołalnych praw postępu cywilizacji, które – podobnie jak prawa fizyki – mają charakter niezmienny i konieczny. Co ciekawe, u Comte’a metoda deskryptywna mieszała się z normatywną, bo odkrywanie tych praw miało służyć reorganizacji społecznej.

W swoim największym dziele, Wykładzie filozofii pozytywnej, Comte przedstawił słynne trzy fazy rozwoju ludzkiej wiedzy:

  1. Faza teologiczna: poszukiwanie wyjaśnień w mocach nadprzyrodzonych.
  2. Faza metafizyczna: poszukiwanie wyjaśnień metodą rozumowej spekulacji.
  3. Faza pozytywna (naukowa): budowanie wiedzy poprzez obserwacje faktów i relacji między nimi.

Comte postulował zatem opracowanie „przyrodniczej nauki o społeczeństwie”, której główną cechą jest traktowanie wszelkich zjawisk jako podległych niezmiennym prawom przyrodniczym, których odkrycie jest celem wszelkich starań. Sformułował również hierarchię nauk – od najmniej złożonych (fizyka, matematyka) do najbardziej złożonych (fizyka społeczna), umieszczając tę ostatnią na szczycie. Wraz ze wzrostem złożoności, wzrastała też podatność danej dziedziny na modyfikacje wskutek ludzkiego działania.

Do innych twórców naturalizmu w naukach społecznych należy zaliczyć Queteleta, belgijskiego astronoma i statystyka, który znacząco przyczynił się do rozwoju metod statystycznych, oraz Le Paya, znanego jako przeciwnik indywidualizmu i liberalizmu ekonomicznego.

„Ponura nauka”: Kiedy ekonomia walczy z rzeczywistością

W języku angielskim ekonomia nader często bywa określana jako „dismal science” – ponura, a może trafniej, beznadziejna nauka. To określenie, przypisywane brytyjskiemu historykowi Thomasowi Carlyle’owi, po raz pierwszy pojawiło się w jego kontrowersyjnym eseju Occasional Discourse on Nigger Question. Carlyle przewrotnie dowodził, że zniesienie niewolnictwa w Indiach Zachodnich było błędem, zmuszając niewolników do uczestnictwa w grze rynkowej, o której nie mieli pojęcia, zamiast zapewnić im opiekę właścicieli. Przymiotnik „dismal” odnosił się do nauki społecznej opisującej ten rynek i był kontrapunktem do „gay science” – nauki radosnej, poprawiającej nasz materialny byt.

Carlyle krytykował aksjomaty ekonomii obowiązujące od czasów Adama Smitha: homo oeconomicus (jednostka egoistycznie dążąca do zaspokajania potrzeb, nieświadomie kształtująca dobrobyt powszechny), samorównoważący się rynek przez „niewidzialną rękę”, pełne wykorzystanie zasobów (prawo Saya) i nieustanny wzrost gospodarczy. Przez lata jednak „ponura nauka” zmieniła nieco swoje znaczenie.

Jeszcze w XIX wieku kształtowanie nauk społecznych na wzór nauk ścisłych wydawało się w zasięgu ręki. jednak kolejne teorie ekonomiczne nie przystawały do rzeczywistości, a następujące po sobie kryzysy ekonomiczne budziły sceptycyzm co do możliwości ugruntowania ekonomii na trwałych podstawach, niczym zasady dynamiki Newtona. Kiedy Robert Lucas, laureat Nagrody Nobla, pisze w „The Economist” artykuł In defence of the dismal science, nie broni złowróżbnego działania rynku, ale makroekonomii zdolnej do konstruowania spójnych teorii, mimo że żaden współczesny model nie przewidział kryzysu finansowego 2008/2009. W tym kontekście ekonomia stała się „beznadziejna”, bo nie radzi sobie ze złożoną, empirycznie postrzeganą rzeczywistością gospodarczą.

Empiryczna nieadekwatność ujawniała się przy każdym większym wstrząsie. Kryzys lat 30. XX wieku podważył samokształtującą się równowagę rynkową i prawo Saya. Kryzys lat 70. w Europie Zachodniej przyniósł stagflację (inflację połączoną z wysokim bezrobociem), zjawisko nieprzewidziane przez modele keynesowskie. Upadek gospodarek socjalistycznych zdawał się grzebać ideę centralnego planowania, a kryzys ostatnich lat podważył modele szacowania ryzyka inwestycyjnego. Wracają pytania: czy ekonomia to w ogóle nauka i czy jest w stanie cokolwiek wyjaśnić?

POLECANE  Teorie Religii i Zjawisko Wiary: Perspektywy Badaczy

Mimo to, potoczne postrzeganie ekonomii jest zupełnie inne. Przez ponad 150 lat istnienia nauki tej udało się wytworzyć przekonanie o jej solidnych fundamentach, opartych na trafnych, empirycznie adekwatnych założeniach, rozwijanych przy zastosowaniu złożonego aparatu matematycznego. Wyobrażenie przeciętnego odbiorcy, ukształtowane przez szeregi wykresów, danych i równań, pokazuje określone trendy, zależności i predykcje. Jeśli nawet, co zdarza się często, te predykcje okażą się fałszywe, winę ponoszą specjaliści, którzy nie potrafili prawidłowo zastosować teorii, a nie sama teoria. Niepowodzenia ekonomistów postrzegane są jako błąd w sztuce, a nie jako pochodne błędnej sztuki.

Przy bliższym poznaniu, ekonomia jawi się jednak jako plątanina często sprzecznych ze sobą szkół i teorii: klasyczna, neoklasyczna, keynesizm, monetaryzm, instytucjonalizm, ekonomia behawioralna, ewolucyjna, neuroekonomia, a nawet „freakonomia”. To nie są tylko odmienne podejścia do tych samych zagadnień. Nie ma zgody co do przedmiotu badań, metod, czy ma być deskryptywna czy normatywna, czy zajmować się jednostką czy agregatami, czy opierać się na danych empirycznych, czy na dedukcji z założeń.

Podejście teoretyczne (aprioryczne): Empiryzm fotelowy

Paradoksalnie, choć twórcy ekonomii dążyli do kształtowania jej na wzór nauk przyrodniczych, związków z doświadczeniem było w niej wyjątkowo mało. Zwłaszcza z tymi doświadczeniami, które są najbardziej kontrintuicyjne. Pomyśl o Izaaku Newtonie, który tworząc swoją teorię, „stał na barkach olbrzymów” – na tych, którzy wbrew potocznym wyobrażeniom głosili sądy trudne do zaakceptowania: przyciąganie się ciał, spadanie niezależnie od masy, kulista Ziemia. Wszystkie te twierdzenia miały dwie wspólne cechy: były silnie podbudowane obserwacjami i eksperymentami, a jednocześnie wydawały się sprzeczne z codziennym doświadczeniem.

Gdyby twórcy ekonomii zastosowali fizykalną analogię konsekwentnie, być może od początku powiązali by ją silniej z obserwacjami, a nie spekulacjami. Tak się jednak nie stało. Przeważył model nauki podobny do filozofii, silnie teoretyczny, oparty na subiektywnych obserwacjach i przekonaniach, często niefalsyfikowalnych.

Ten model, który po części jest aktualny do dziś, to tak zwany „empirycyzm zdroworozsądkowy” lub pogardliwie „empirycyzm fotelowy”. Polega on na odnoszeniu teorii do rzeczywistości poprzez bezpośrednią obserwację wydarzeń realnego świata, z minimalną pomocą statystyczną. Oglądasz świat dookoła siebie i decydujesz, czy odpowiada twoim pojęciom teoretycznym. Wyobraź sobie kogoś, kto siedzi przy biurku, rozwija teorię, a następnie selektywnie wybiera dane i wydarzenia, które ją podtrzymują.

Taka metoda dominowała w ekonomii aż do początków XX wieku, kiedy to postępująca matematyzacja, rozwój metod statystycznych i doświadczenie Wielkiego Kryzysu skłoniły do baczniejszego przyglądania się rzeczywistości gospodarczej, co dało początek ekonometrii.

Prekursorzy ekonomii – merkantyliści i fizjokraci – budowali swoje teorie bezkrytycznie na własnych intuicjach. Podobnie czynił Adam Smith, który podstawowy problem bogacenia się narodów rozwiązywał poprzez teoretyczną analizę, w znacznej mierze opartą na założeniach dotyczących „naturalnych” skłonności jednostki do pomnażania indywidualnego stanu posiadania. Ta intuicja, niepoparta żadnym doświadczeniem czy eksperymentem, ufundowała całą klasyczną ekonomię. Nikomu nie przychodziło do głowy kwestionować tego założenia – wydawało się oczywiste.

Problem niezgodności założeń klasycznej ekonomii z realnym przebiegiem wydarzeń gospodarczych objawił się dopiero w połowie XIX wieku. Dotyczył zwłaszcza dwóch teorii i ich empirycznych predykcji. Pierwszą była teoria Davida Ricarda, która przepowiadała długookresowy spadek przychodów w rolnictwie, uwarunkowany rosnącym kapitałem inwestycyjnym i siłą roboczą, a także ograniczonymi zasobami upraw. Dane dla gospodarki brytyjskiej nie potwierdziły jednak tych przewidywań. Drugą, do dziś przywoływaną, jest maltuzjańska teoria ludności Thomasa Roberta Malthusa z 1798 roku, która głosiła, że szybki wzrost liczby ludności nie idzie w parze ze wzrostem podaży żywności, skazując społeczeństwa na niedobory. Już jego pierwsi adwersarze, jak Nassau Senior, zwracali uwagę, że doświadczenie historyczne zdaje się przeczyć tej predykcji. Dalszy rozwój gospodarki potwierdził tę krytykę.

John Stuart Mill: Idealizacja i faktualizacja w ekonomii

W tych okolicznościach powstało dzieło Johna Stuarta Milla Zasady ekonomii politycznej, które na długie lata ukształtowało postrzeganie przedmiotu i metody ekonomii. Mill skomplementował podstawowe założenia klasyków i wzmocnił podejście teoretyczne (aprioryczne), jednocześnie mierząc się z narastającą nieadekwatnością empiryczną. Zamierzał uczynić ekonomię nauką jak najbardziej zbliżoną do przyrodniczych, ale jednocześnie wskazać na zasadnicze różnice, które stanowiły przyczynę jej empirycznych niepowodzeń.

Mill zdefiniował pojęcie homo oeconomicus (choć to jego krytycy użyli tego sformułowania po raz pierwszy) jako istotę, która „zajmuje się wyłącznie gromadzeniem bogactwa i jest zdolna do oceny porównawczej skuteczności środków dla osiągnięcia tego celu. Przewiduje tylko te zjawiska stanu społecznego, które zachodzą w konsekwencji dążenia do bogactwa. Całkowicie abstrahuje od każdej innej ludzkiej pasji czy motywu”. Mill zdawał sobie sprawę, że to redukcja, ale uważał, że właściwy sposób konstruowania nauki wymaga wyabstrahowania określonego stanu od szeregu czynników zakłócających. Z przyjętych, wyabstrahowanych założeń, dedukuje się prawa i dopiero ich konsekwencje można poddawać empirycznym testom. Ten proces abstrakcji nazwał idealizacją, a proces odwrotny – faktualizacją, polegającą na uwzględnianiu pominiętych pierwotnie przyczyn zakłócających. Im doskonalsza faktualizacja, tym trafniejsze predykcje.

Mill rozróżnił konstruowanie teorii a priori i a posteriori. Ekonomia polityczna, jego zdaniem, jest nauką abstrakcyjną posługującą się metodą a priori, w sensie podobieństwa do geometrii. Takie ujęcie pozwoliło uratować dorobek klasycznej ekonomii i wyjaśnić jej empiryczne niepowodzenia: jak w rzeczywistości fizycznej nie występują idealne linie, tak i w rzeczywistości społecznej nie ma idealnych egzemplarzy homo oeconomicus. To, że badacz nie staje się prorokiem, wynika z konieczności formułowania predykcji z przybliżeniem i prawdopodobieństwem, co prowadzi jedynie do określania dostrzeżonych tendencji, a nie ścisłych przewidywań. Mill w ten sposób uchronił klasyczną ekonomię od falsyfikacji – błędy można było zawsze tłumaczyć niedoskonałością w uchwyceniu wszystkich zakłócających przyczyn.

Podejście Milla miało jednak słabe punkty. Po pierwsze, koncepcja homo oeconomicus, oparta na zdroworozsądkowym doświadczeniu, wcale nie była tak oczywista. Wielu myślicieli, w tym późniejsi ekonomiści behawioralni, zakwestionowało instrumentalną racjonalność człowieka. Po drugie, Millowska synteza, oparta na naiwnym założeniu liniowości wzajemnych zależności w strukturach społecznych, nie oddawała złożoności rzeczywistości. Dziś wiemy, że zależności ekonomiczne rzadko mają charakter liniowy.

Max Weber: Rozumienie i obiektywność w naukach kulturowych

Max Weber, choć często ustawiany w gronie twórców socjologii, wyraźnie odróżniał się od Comte’a i klasycznych ekonomistów. Twierdził, że nie da się analizować rzeczywistości społecznej (historycznej) w podobny sposób jak fizykalnej. Analiza regularnie występujących relacji przyczynowych nie doprowadzi do ujawnienia praw, podobnych prawom fizyki, bo taki system praw po prostu nie istnieje w naukach społecznych.

Weber określał nauki społeczne mianem „nauk kulturowych” (Geisteswissenschaften), które zajmują się zjawiskami ze względu na ich znaczenie kulturowe. To znaczenie, które badający nadaje zdarzeniom, zawsze będzie poprzedzone sądami wartościującymi. System wartości badacza ostatecznie determinuje, czy dane zdarzenie będzie znaczące kulturowo. Badanie „czystych faktów” nie jest tu możliwe – i tym różnią się nauki społeczne od ścisłych.

W ekonomii, „prawo ekonomiczne” to nie bezwzględnie obowiązujący, empirycznie stwierdzalny wzorzec, ale raczej relacja przyczynowa wyrażona normatywnie, do której zastosowanie ma kategoria „obiektywnej możliwości”. Abstrakcyjne prawa w naukach ścisłych są uniwersalne i pożądane, ale w naukach historycznych takie prawa, pozbawione treści, nie mają żadnej wartości. Nie da się zredukować społecznej rzeczywistości do abstrakcyjnych praw, nie dlatego, że jest ona mniej rządzona przez nie, ale dlatego, że:

  1. Znajomość takich praw nie jest znajomością społecznej rzeczywistości, a jedynie wiedzą, która pomaga nam osiągnąć określone cele.
  2. Wiedza o zdarzeniach kulturowych jest niezrozumiała inaczej niż przez pryzmat konkretnej indywidualnej sytuacji, rozstrzyganej przez system wartości.

Innymi słowy, cała wiedza o rzeczywistości kulturowej jest zawsze prezentowana z określonego punktu widzenia. Twierdzenie przeciwne jest naiwnym samooszukiwaniem się badacza, nieświadomego wpływu jego sądów wartościujących.

Weber odrzucał to, co później Keynes nazwał „ekonomią normatywną”. Cel działania, wytyczony przez jednostki, jest tylko jednym z elementów, który musi być brany pod uwagę przy określaniu skutków działania. Jest jedną z wielu przyczyn wywołujących skutek, ale ze względu na silne uwarunkowania kontekstowe, nie da się zbudować nauki kulturowej jako zamkniętego systemu pojęć. Weber był krytykiem „naturalistycznego monizmu”, czyli budowania nauk społecznych na podobnych wzorcach jak nauki ścisłe.

POLECANE  Naturalizm Metafizyczny i Metodologiczny w Filozofii Nauki

Jest on twórcą pojęcia „typu idealnego” (Gedankenbild, ideal-type) – to myślowa utopia, narzędzie heurystyczne, które pozwala lepiej zrozumieć działanie określonego aspektu rzeczywistości, ale nie służy do tworzenia praw powszechnie obowiązujących.

Lionel Robbins: Ekonomia jako nauka o wyborach w obliczu niedoboru

Lionel Robbins, którego rozważania o naturze ekonomii są dzisiaj klasyczne, sformułował jedną z najbardziej trafnych i nadal obowiązujących definicji tej nauki. Był kontynuatorem myśli Milla, choć łączyło go z Weberem i szkołą historyczną odrzucenie ekonomii normatywnej oraz psychologii jako nauki mogącej wnieść coś do analizy ekonomicznej (poza „działaniem intencjonalnym”).

Czym zatem jest ekonomia? Aby odpowiedzieć na to pytanie, Robbins sięgał do jej źródeł, a zatem do człowieka, który musi dokonać podstawowego wyboru między poświęcaniem czasu na tworzenie dochodu a przyjemnością odpoczywania. Taki wyizolowany przedstawiciel, zdaje sobie sprawę z kilku warunków: potrzebuje zarówno zarabiać, jak i odpoczywać; zwykle nie dysponuje oboma zasobami tak, aby zaspokoić obie potrzeby; może dysponować swoim czasem, przeznaczając go na zarobkowanie albo na przyjemności; a jego potrzeby są zasadniczo rozbieżne. Z tego powodu musi dokonywać wyboru. Musi gospodarować swoim czasem, a to gospodarowanie ma aspekt ekonomiczny.

Robbins definiuje ekonomię jako „naukę, która bada ludzkie zachowanie jako relację między celami a rzadkimi środkami, które mają alternatywne zastosowania”. Wskazane cele są bez znaczenia dla ekonomii; jej zadaniem nie jest ich analizowanie czy określanie. Gdy środki do realizacji celów są ograniczone i możliwe jest ich alternatywne zastosowanie, powstaje konieczność wyboru i wkracza nauka ekonomii.

Robbins odrzucał dwie drogi formułowania twierdzeń ekonomii: indukcję historyczną i eksperyment kontrolowany (w jego czasach eksperymenty w ekonomii były jeszcze rzadkością). Twierdzenia ekonomii są dedukcjami z szeregu postulatów, z których najważniejsze to „proste i niepodważalne fakty doświadczenia” dotyczące niedoboru dóbr. Większość postulatów, zdaniem Robbinsa, jest niesporna – wymieniał m.in. postulat przechodniości preferencji (później częściowo sfalsyfikowany empirycznie) czy postulat niepewności przyszłych zasobów. Trafność teorii zależy od prawdziwości postulatów, uwzględnienia wszystkich istotnych z nich oraz spójności logicznej twierdzeń teorii.

Twierdzenia te, jego zdaniem, mają charakter ponadczasowy, nie są uzależnione od określonej sytuacji historycznej. Prawa ekonomii nie są ograniczone czasowo-przestrzennie. Ich charakter jest zbliżony do praw fizyki. Robbins występował tym samym jako przeciwnik instytucjonalizmu i szkoły historycznej. „Prawa ekonomii opisują nieuchronne implikacje. Jeśli dane, które postulują, są dane, to przewidywane przez nie konsekwencje koniecznie następują. W tym sensie są na tym samym gruncie co inne prawa naukowe i są równie mało zdolne do ‚zawieszenia’”.

Robbins twierdził również, że twierdzenia ekonomii pozostają niezależne od ustaleń jakiejkolwiek szkoły psychologicznej. Psychologia może dać nam wiedzę o ludzkich motywacjach, ale dla ekonomii pozostaje to bez znaczenia. Pochodną tej wiedzy jest jakiś system wartości i pożądane dobra – jeśli te dobra są ograniczone i mogą mieć alternatywne zastosowania, ekonomia zajmie się sposobem ich osiągania.

Nie jest jednak tak, że ekonomia będzie nauką identyczną z fizyką. Istnieje co najmniej jeden element psychologiczny, który musi zostać włączony w analizy – „działanie intencjonalne” (purposive conduct), typowe dla człowieka. Nie da się zrozumieć pojęcia „wyboru” czy relacji między środkami a celami, bazując tylko na obserwacji danych zewnętrznych. Wprowadzenie intencjonalnego działania nie podważa deterministycznego modelu rzeczywistości, wprowadza tylko dodatkowy element w łańcuch przyczynowy.

Analizy ekonomiczne są zawsze objęte warunkiem ceteris paribus (przy założeniu niezmienności innych czynników). To tłumaczy, dlaczego tak wiele analiz nie prowadzi do trafnych predykcji. Robbins twierdził, że nauka ekonomii pod tym względem nie różni się istotnie od nauk przyrodniczych, gdzie prawa przyrody też formułuje się pod tym warunkiem. Oczekiwanie, że ekonomia przewidzi rozwój każdej sytuacji gospodarczej, jest nieuzasadnione.

Ekonomia nie może być nauką normatywną. Nie wynika to z programowego ograniczenia obszaru jej badań, ale raczej z przyznanej, naukowej niedostępności pewnych fenomenów, do których Robbins, podobnie jak Weber, zaliczał wybory moralne. Subiektywność satysfakcji i brak obiektywnej miary sprawiają, że nie da się jej używać w analizach.

Ostatecznie, Robbins upatruje znaczenia ekonomii w tym, że chociaż nie pozwala na pełne predykcje i nie wskazuje, jakie cele powinny być obrane przez jednostkę, dostarcza wiedzy pozwalającej na bardziej świadome dokonywanie wyborów między różnymi alternatywami. Dzięki niej jesteśmy w pełni świadomi implikacji dokonywanych wyborów. Przynosi nam wiedzę. Umożliwia nam wyobrażenie sobie dalekosiężnych implikacji alternatywnych możliwości polityki. Nie pozwala nam uniknąć konieczności wyboru między alternatywami. Ale umożliwia nam zharmonizowanie naszych różnych wyborów. Nie może usunąć ostatecznych ograniczeń ludzkiego działania. Ale umożliwia w ramach tych ograniczeń działanie konsekwentne.

Robbins zauważa jednak, że w ekonomii mamy do czynienia z co najmniej jednym, zakładanym sądem wartościującym – przekonaniem, że racjonalność i zdolność do dokonywania wyborów na podstawie wiedzy są godne pożądania. To, jak ironicznie zauważył Popper, „irracjonalna wiara w racjonalność dobra”.

Frank Knight: Ludzkie działanie i wartości

Frank Knight wskazał, że u podstaw wszelkich sporów pomiędzy metodologami ekonomii leżą dwa zasadnicze problemy:

  1. Relacja między opisem a wyjaśnieniem naukowym, między faktami a ich krytyczną oceną. Jeśli elementem opisu jest ludzkie działanie, zwłaszcza w kontekście dokonywanych wyborów, to nieuniknionym jego elementem staje się „wolna wola” oraz bagaż indywidualnych wartości.
  2. Relacja między indywidualnym przedstawicielem a społeczeństwem.

Knight uważał, że jeśli motywacjom lub celom ludzkim mamy przypisać w ekonomii jakiekolwiek znaczenie, to nie może ono pełnić identycznej funkcji jak przyczyna w naukach przyrodniczych. Jeśli bowiem ustawi się je w ciągu przyczynowym, to trzeba będzie zakładać istnienie innych zdarzeń, które są ich przyczyną, czyniąc motywy i cele zbędnym superfluum. Pod tym względem Knight różnił się od Webera i Robbinsa. To fundamentalne rozróżnienie kieruje nas w stronę problemu interpretacji ludzkiego zachowania, dokonywanej w trzech kategoriach: częściowo poprzez naturalną przyczynowość, częściowo poprzez intencje lub potrzeby wyrażane przez jednostki (traktowane jako nieredukowalne fakty) oraz częściowo poprzez odwołanie do wartości, które jednostka realizuje, a które z kolei nie mogą być zredukowane do faktycznych potrzeb.

Knight odrzucał interpretację czysto behawioralną. Wskazywał, że ludzie deklarują dwa rodzaje motywacji: pożądanie dobra jako środka do realizacji innego celu oraz pożądanie dobra jako celu samego w sobie. W tym drugim przypadku próba redukcji do stanów faktycznych jest skazana na niepowodzenie; tu musimy odnosić się wyłącznie do uniwersum wartości. Cele same w sobie nie są tylko ekspresją woli poszczególnych jednostek, ale są silnie uwarunkowane społecznie (np. indywidualna wolność wyboru jest pochodną określonego układu społecznego).

W konsekwencji, każda dyskusja obejmująca „ekonomizację” realizacji założonych celów jest z gruntu polityczna i normatywna. Dyskutowanie sposobu realizacji celów presuponuje te cele, zawiera w sobie bagaż normatywny, którego nie sposób uniknąć. Rola ekonomisty zatem zawsze będzie zarówno rolą obserwatora rzeczywistości społecznej, jak i jej aktywnego uczestnika, składającego postulaty lub wspierającego pewne stanowiska.

Naturalizm w naukach społecznych: Niejednoznaczna podróż

Jak widzisz, założenia potrzebne dla nauki z naturalizmu – co to właściwie znaczy – to kwestia o wiele bardziej skomplikowana, niż mogłoby się wydawać na pierwszy rzut oka. Od śmiałych redukcji La Mettriego, przez wizje „fizyki społecznej” Comte’a, aż po niuanse Milla, Webera i Robbinsa, nauka ekonomii i innych nauk społecznych nieustannie poszukiwała swoich fundamentów. Czy możemy badać człowieka i społeczeństwo tak, jak badamy cząstki elementarne? Czy da się oddzielić fakty od wartości? A co z wolną wolą i złożonymi motywacjami, które zdają się wymykać czysto mechanicznym opisom?

Debata ta trwa do dziś, kształtując nie tylko metody badawcze, ale i nasze codzienne postrzeganie świata. Naturalizm, choć często krytykowany za swoją redukcjonistyczną naturę, wciąż stanowi potężne narzędzie analityczne, które pozwala nam dostrzegać uniwersalne mechanizmy. Jednocześnie, rosnąca świadomość wpływu kultury, wartości i subiektywnych doświadczeń zmusza nas do ciągłego redefiniowania granic i możliwości nauk społecznych. Przyznasz, że to podróż pełna wyzwań, ale i niezwykle fascynująca!