POLSKI    ENGLISH   

Internetowy Serwis Filozoficzny

przy Instytucie Filozofii    Uniwersytetu JagielloÅ„skiego

|  Forum |  Literatura |  Linki |  AktualnoÅ›ci
 


 

Wiold Marciszewski - Aktorzy globalizacji. Silni obliczalnościa i mocą obliczeniową - część II







3. Informatyczne pojęcie mocy obliczeniowej i jego odpowiednik u Friedricha Hayeka

3.1. Moc obliczeniowa w aspektach sprzętowym i algorytmicznym. Moc obliczeniowa jest właściwością urządzeń rozwiązujących problemy czyli wykonujących pewne zadania za pomocą obliczeń. Określa się ją na dwa dopełniające się wzajem sposoby. Jeden znany jest każdemu użytkownikowi komputera. Jeśli nawet nie używa on tego zwrotu, ma rzecz samą na myśli, gdy porównując swój komputer z innym, powiada, że jego ma szybszy procesor, większą pamięć operacyjną czy większą pamięć dyskową, a zatem większą moc. Jest to określenie mocy obliczeniowej od strony wyposażenia; to tak, jak gdy możliwości fizyczne sportowca charakteryzuje się przez opis jego umięśnienia, wydolności serca itp. Drugie podejście polega na określeniu wielkości problemów czyli zadań, które ktoś czy coś jest w stanie rozwiązywać. Tak moc fizyczną lekkoatlety określają dane o jego osiągnięciach: w jakim czasie przebiegnie 100 metrów, jak wysoko skoczy o tyczce itd. Wielkość zadań obliczeniowych mierzy się ich złożonością, tę zaś liczbą operacji niezbędnych w procesie rozwiązywania.

W informatyce interesuje nas tylko złożoność problemów rozstrzygalnych. Rozstrzygnięcie polega na obliczeniu wartości funkcji wyrażonej w jakiejś formule; w tym sensie rozstrzygalność utożsamia się z obliczalnością. Ale nie każdy problem, który w zasadzie jest obliczalny, okazuje się obliczalny praktycznie, to znaczy, dający się rozwiązać przy dostępnych zasobach czasu i pamięci. Czas to liczba kroków (operacji komputera) niezbędnych do rozwiązania problemu, a więc miara złożoności w podanym wyżej znaczeniu. Jako kryterium obliczalności praktycznej, gdy idzie o czas, przyjmuje się, że zachodzi ona wtedy, gdy do rozwiązania wystarcza czas wielomianowy; nie jest zaś praktycznie obliczalne to, co wymaga czasu wykładniczego. Wyjaśnienie tej różnicy ograniczę, dla krótkości, do przykładów.

Czas wielomianowy określa np. funkcja n3 która stanowi charakterystykę złożoności np. wielomianu 7n3 + 5n2 + 27. Przykładem algorytmu pracującego w czasie wielomianowym jest algorytm sortowania, który ma rząd złożoności mniejszy niż (biorąc z grubsza) n2.

Przykładu pracy w czasie wykładniczym dostarcza funkcja 2n, gdzie n jest liczbą danych wejściowych, np. liczby zmiennych w formule dwuwartościowego rachunku zdań. Do klasy zagadnień wymagających czasu wykładniczego należy problem spełnialności formuły rachunku zdań, zwany skrótowo SAT (od "satisfiability"). Mając daną formułę rachunku zdań, należy rozpoznać, czy istnieje taki układ przyporządkowań wartości logicznych symbolom zmiennym, który czyni tę formułę prawdziwą. Niech formuła ma 300 zmiennych; wtedy, w najgorszym przypadku, to jest, gdy przyporządkowania spełniające formułę (tj. czyniące je prawdziwą) napotka się dopiero przy końcu, rozwiązanie będzie wymagać 2300 kroków.

Inny przykład niewyobrażalnie wielkiego zapotrzebowania na czas to problem komiwojażera: mając dane położenia n miast, znaleźć najkrótszą trasę potrzebną do odwiedzenia każdego z nich dokładnie jeden raz. Niech n=20. Liczba tras wynosi wtedy 20!, bo tyle jest możliwych uporządkowań w zbiorze 20 elementów. Nie znaleziono dotąd algorytmu innego niż tego, który polega na wyliczeniu wszystkich kombinacji, zsumowaniu w każdej z kombinacji długości odcinków i rozpoznaniu najmniejszej z tych sum. Ponieważ

$20! = 2 432 902 008 176 640 000$


można sobie na tym przykładzie uprzytomnić, na czym polega nieobliczalność praktyczna. Jeśli nasz komputer potrafi wykonać milion kombinacji w ciagu sekundy, to sprawdzenie wszystkich tras musiałoby zająć 77.000 lat, a dorzućmy jeszcze kilka miast, to na liczenie nie starczyłoby dotychczasowego wieku wszechświata. Mamy tu do czynienia z algorytmem posługującym się ,,ślepą siłą'' ("brute force") czyli takim, który polega na mechanicznym zestawieniu wszystkich możliwości. Nie ma dla tego zagadnienia szybszego algorytmu, który dawałby równie pewny i dokładny wynik, ale jeśli zgodzimy się na wyniki przybliżone, czas algorytmicznego rozwiązywania problemu da się wydatnie skrócić.

3.2. Państwo inteligentne - aktor silny mocą obliczeniową. Nasza wycieczka w zagadnienia obliczalności toruje drogę do tytułowej kwestii aktorów globalizacji. Aktorami grającymi główne role są - przypomnijmy - współczesne państwa narodowe, wielkie ponadnarodowe korporacje oraz polityczne i ekonomiczne organizacje międzynarodowe. Każda z tych kategorii zasługuje na osobne studium, ale dla prześledzenia związków między obliczalnością, mocą obliczeniową i rolą w globalizacji, wystarczy poprzestać przykładowo na jednej z nich; a jeśli tak, to przede wszystkim, jako podstawową dla filozofii politycznej i gospodarczej, należy rozpatrzeć kategorię państw.9

Jeśli jakieś państwo ma coś wnieść do owoców globalizacji i samo z niej znacząco skorzystać, musi być państwem inteligentnym. Termin ,,inteligentne państwo'' jest w filozofii politycznej stosunkowo nowy; jego pojawienie się w tytułach i treści dwóch książek przypada (na ile mogłem rzecz wyśledzić) na rok 2001 10. Naturę inteligentnego państwa upatruje się w tym m.in., że jest ono zdecentralizowane i współdziała harmonijnie ze społeczeństwem obywatelskim. Stąd, nie należy się spodziewać, że inteligentnym mogłoby okazać się państwo o ustroju dyktatorskim, czy będzie to dyktatura w sferze politycznej czy ekonomicznej; istotnie, widać np. podczas klęsk żywiołowych, że akcje ratunkowe są mniej sprawne w systemach scentralizowanych i autokratycznych.

Tej koncepcji nie należy jednak absolutyzować, lecz odnosić do określonej epoki. Jest ona słuszna w czasach powszechnego oświecenia, podziału władz, rozlicznych partnerskich interakcji. Inaczej jednak rzecz się miała, powiedzmy, u progu średniowiecza, w ówczesnym odmęcie barbarzyństwa, które ucywilizować, czyli wydobyć ze stanu prymitywizmu plemiennego (ang. tribalism), mogła tylko silna władza centralna wspierająca się o wiedzę i umięjętności nielicznej elity umysłowej, jaką stanowiło duchowieństwo. 11

Mając na uwadze tę relatywizację, trzeba się zgodzić, że przytoczona wyżej definicja stanowi trop w dobrym kierunku. Idąc tym tropem w poszukiwaniu, by tak rzec, wysoce inteligentnej definicji państwa inteligentnego, sedno sprawy znajdujemy w pojęciach obliczalności i mocy obliczeniowej. Mając na uwadze, że chodzi o cechę stopniowalną, robimy użytek z wypracowanej w informatyce aparatury pojęciowej i definiujemy potrzebne nam pojęcie, jak następuje. Struktura społeczna, w szczególności państwo, jest tym bardziej inteligentna, im bardziej jest obliczalna oraz im większą ma moc obliczeniową.

3.3. Obliczalność skutkująca przewidywalnością jako fundamentalny warunek inteligencji i siły państwa. Biorąc na warsztat wymienione w naszej definicji cechy, obliczalność i moc obliczeniową, dostrzegamy, że pierwsza realizuje się, w szczególnym stopniu, poprzez praworządność czyli państwo prawa, druga zaś przez podział władz, demokrację przedstawicielską, społeczeństwo obywatelskie i wolny rynek. W przypadku drugiej, spostrzeżenie to nie jest może z miejsca oczywiste, ale okaże się takim po wprowadzeniu paru pojęć informatycznych.

Co się tyczy praworządności, mamy do czynienia z warstwami informacyjną i motywacyjną. Motywacyjna polega na przekonaniu, że praworządność jest dla społeczeństwa wartością wielkiej wagi ze względów moralnych oraz ze względu na techniki zarządzania i kooperacji. Za takim przekonaniem idzie wola ustanawiania i przestrzegania praw zarówno przez rządzonych jak rządzących.

Warstwa informacyjna jest po części zależna od motywacyjnej, bo żeby stanowić prawo umiejętnie, na podstawie odpowiedniego potencjału informacyjnego, trzeba tego chcieć. W części zaś jest to atrybut niezależny, biorący się z odpowiedniej kompetencji, na którą składa się nie tylko technika legislacyjna, lecz także kultura logiczna i językowa oraz znajomość materii życia społecznego (prawo rodzinne wymaga wiedzy o rodzinie, prawo bankowe wiedzy o bankach itd.). Na swoją miarę winni taką kompetencję mieć prawodawcy i wykonawcy prawa (sędziowie, prokuratorzy etc.), a na swoją miarę ogół obywateli.

Jeśli sobie wyobrazimy, że ów stan wielce pożądany ma gdzieś miejsce, nasz eksperyment myślowy podpowie dwie rzeczy: (1) społeczeństwo, które stan taki osiągnęło jest w zachowaniach jednostkowych i grupowych wysoce przewidywalne oraz, co za tym idzie, (2) posiada jeden z istotnych elementów mocy obliczeniowej. Są to kluczowe atuty państwa w jego polityce wewnętrznej i zewnętrznej.

W polityce wewnętrznej przewidywalność zachowań najwyższych organów władzy, urzędów wszelkiego szczebla jak i poszczególnych obywateli jest podstawą wzajemnego zaufania, które dla życia społecznego jest niezbędne jak tlen dla organicznego. A zarazem, przewidywalność zachowań społecznych jest podstawą racjonalnego planowania działalności gospodarczej, politycznej, społecznej, kulturalnej, badawczej, edukacyjnej. Groźną nieobliczalnością rodzącą nieprzewidywalność i dezorganizację życia gospodarczego jest zaskakiwanie nagłymi zmianami w przepisach podatkowych, ubezpieczeniowych, celnych itd. Na taką nieobliczalność bardziej są narażone ustroje dyktatorskie niż demokratyczne. W demokratycznych bowiem są procedury, które nawet jeśli niedoskonałe, to pozwalają coś przewidywać, a jeśli nie wyjdzie dobrze, to korygować. Nieprzewidywalność skrajna występuje tam, gdzie sprawy zależą od kaprysu samodzierżcy, nie liczącego się nawet z prawem ustanowionym przez siebie; takie państwo nie zasługuje żadną miarą na miano inteligentnego.

Ów brak inteligencji skutkujący nieprzewidywalnością jest nie mniej brzemienny w skutki w relacjach państwa z partnerami zewnętrznymi. Widać to jasno w procesach globalizacji. Do samego rdzenia globalizacji należy zaostrzanie się konkurencji ekonomicznej w skali całego globu, co każe stawiać czoła wielu silnym konkurentom. By temu sprostać, trzeba wysiłków na różnych polach, jak badania naukowe, podnoszenie poziomu edukacji, wzrost wydajności pracy, rezygnacja z rozbudowanych świadczeń socjalnych (żeby obniżyć koszty siły roboczej) i tak dalej. Wśród tych strategicznych wyzwań jest pozyskiwanie na wielką skalę inwestycji zagranicznych bezpośrednich (to kluczowy termin techniczny: foreign direct investment). Inwestycje takie, w odróżnieniu od portfelowych, są dla krajów rozwijających się nieodzowne, żeby dojść do czołówki krajów rozwiniętych. 12

Inwestycje bezpośrednie dają nieodzowny zastrzyk kapitału, którego brakuje krajom dopiero startującym w globalnej konkurencji. Dają też zatrudnienie miejscowej ludności, nową wiedzę i umiejętności w technologii wytwarzania i w zarządzaniu, licencje przemysłowe, wreszcie wyrobione już zagraniczne rynki zbytu i międzynarodowe powiązania kooperacyjne. Wobec tak wielostronnych korzyści, które czynią z inwestycji bezpośrednich nieodzowny czynnik rozwoju dla krajów do rozwoju pretendujących, są one upragnionym celem zabiegów. Ich skuteczność zależy tyleż od cech danego społeczeństwa, jak jego wykształcenie, siła nabywcza i taniość pracy, co od polityki władz państwowych, które powinny stwarzać silną motywację do lokowania inwestycji przez politykę podatkową czy zapewnienie struktury transportowej i telekomunikacyjnej, a przede wszystkim poprzez przejrzystość, precyzyjność i stabilność prawa dotyczącego inwestorów.

Nie ma więc wątpliwości, że na miano inteligentnego zasłuży państwo tylko wtedy, gdy będzie aktorem w globalnych procesach gospodarczych dzięki obliczalności obowiązującego w nim prawa. To właśnie miał na myśli Max Weber, gdy mówiąc o obliczalności widział w niej źródło sukcesów gospodarki kapitalistycznej i całej cywilizacji zachodniej. Weber zamiast przymiotnika ,,inteligentne'' używał raczej ,,racjonalne'', ale chodziło o tę samą cechę. Pozostajemy też w zgodzie z ideą Webera, gdy za wzorzec tego rodzaju inteligencji czy racjonalności przyjmiemy postępowanie algorytmiczne. Nie jest ono w pełni możliwe w funkcjonowaniu struktur społecznych, ale można do niego bardziej lub mniej się przybliżać. Możliwie największe przybliżenie osiągalne w danych realiach społecznych daje tytuł do znalezienia się państwa na najwyższym podium inteligencji

3.4. Jak sobie radzić z praktyczną nieobliczalnością. Gdy obliczalnośćjest tylko przybliżona, a więc przybiera różne stopnie, da się zauważyć zależność między poziomem obliczalności i poziomem mocy obliczeniowej: im większa ta pierwsza, tym (caeteris paribus) większa ta druga. Powód jest prosty. Obliczanie to znajdowanie wartości funkcji, a więc pewnego obiektu jednoznacznie przyporządkowanego jakiemuś innemu. Brakuje takiego przyporządkowania w sytuacjach obniżających obliczalność społeczną, jak wieloznaczność czy niejasność prawa.

Kwestie mocy obliczeniowej wiążą się z podanym wyżej pojęciem obliczalności praktycznej, ugruntowanym (przypomnijmy) w rozróżnieniu dwóch typów problemów: rozwiązywalnych w czasie wielomianowym i tych, do których rozwiązania konieczny jest algorytm pracujący w czasie wykładniczym. Jak sobie radzić w tym drugim przypadku? Jeden sposób polega na tym, że rezygnujemy z doskonałego algorytmu, który dawałby rozwiązania zupełne i pewne lecz w czasie dla nas nieosiągalnym. Szukamy wtedy innych algorytmów, pracujących znacznie szybciej, lecz za cenę wyników tylko przybliżonych lub tylko prawdopodobnych. Takie rozwiązania stosuje też przyroda, obdarzywszy nasze mózgi programami do rozwiązywania problemów, które nie spełniają warunków teoretycznej niezawodności, ale pozwalają żyć, rozwijać się i rozmnażać dostatecznie licznym zbiorom osobników.

Odpowiednikiem owych rozwiązań ewolucji przyrodniczej są osiągnięcia ewolucji społecznej, która w wyniku długich procesów uczenia się metodą prób i błędów wyposażyła jednostki i grupy w schematy zachowań pozwalające na przetrwanie i rozwój. Należą do tych takich rozwiązań reguły językowe, zasady komunikacji społecznej, kodeksy moralne i obyczajowe. Z docenienia tych praw ewolucji bierze się to, co jest racjonalnym jądrem orientacji konserwatywnej. Skoro w tradycji jest utrwalony taki potencjał doświadczeń, to - powiadają konserwatyści - nie należy pochopnie jej się pozbywać.

Drugi kierunek działania, niezależny od pierwszego, ale nie wykluczający się z nim (co pozwala stosować je łącznie), polega na tym, że w sposób istotny zmniejszamy złożoność zadania przez odpowiednią organizację procesu przetwarzania informacji, czyli procesu obliczeniowego. Są w tym względzie dostępne conajmniej trzy kierunki działania, znowu niezależne wzajem od siebie, a dające się, gdy trzeba, stosować łącznie. Jak zobaczymy, takie łączne zmasowane ich działanie jest możliwe w życiu politycznym dzięki demokracji, a w gospodarczym dzięki właściwościom wolnego rynku. Trzy wspomniane rozwiązania można ująć w trzech pojęciach informatycznych: interaktywność, analogowość, dystrybutywność.

Podobnie jak pojęcie obliczalności wystąpiło niezależnie w informatyce i w myśli socjologicznej Maxa Webera (1864 - 1920), tak pojęcia dystrybutywności oraz interaktywności pojawiają się niezależnie w informatyce i w myśli socjologicznej Friedricha Hayeka (1899 - 1992). Zajmiemy się najpierw interaktywnością i związaną z nią w tym zagadnieniu cechą analogowości. Następnie podejmiemy kwestię dystrybutywności.

3.5. Interaktywność i analogowość. Interaktywność polega na tym, że zamiast wyposażać układ w wielką liczbę programów potrzebnych na różne ewentualności, wyposaża się go w receptory, np. kamery, umożliwiające pobieranie danych z otoczenia oraz w program kierujący uczeniem się. Układ uczy się, jak wykonywać zadanie przy tych danych wejściowych, które zostały pobrane z otoczenia, jako że tylko te są niezbędne do rozwiązania problemu w danych aktualnie okolicznościach. Jest to realizacja zasady samosterowania (podstawa działania np. samosterujących rakiet).

Pojęcie samosterowania to dobry klucz do określenia takich koncepcji ustrojowych, jak samorządność w administracji i polityce czy wolność działań w sferze gospodarki. W odróżnieniu od zarządzania odgórnego sprawowanego przez jeden podmiot centralny, który nie pobiera danych w sposób doświadczalny z otoczenia lecz polega na słanych zdalnie raportach i zdalnie śle polecenia (czasem już nieaktualne po dotarciu do odbiorcy), podmioty lokalne reagują bezpośrednio na zmiany w otoczeniu i nie tracą czasu ani energii na słowne (a więc bardziej niedołężne niż bezpośrednia percepcja) zapisywanie informacji, ich przesyłanie do centrali, a potem odbiór i wreszcie interpretację poleceń. Niszczenie takich interaktywnych, będących w bezpośrednim zwarciu z otoczeniem, układów lokalnych jest tym, co czyni każdą dyktaturę, czy to gospodarczą (centralne planowanie) czy polityczną, systemem niewydolnym i w dłuższym dystansie skazanym na upadek. Na tej podstawie, co bardziej przenikliwi obserwatorzy przewidywali upadek Związku Radzieckiego.

Są to zalety percepcji bezpośredniej. Ona nie tylko zapewnia większą wiarogodność i szybkość niż ta, która cechuje zdalne raporty słowne, lecz także łączy się z innym niż symboliczny sposobem przetwarzania danych. Jest to przetwarzanie analogowe, które jest niezastąpione, gdy trzeba przetwarzać dane tak złożone, że za nimi daleko nie nadąża możliwość opisu słownego.

W taki analogowy sposób żeglarz reaguje na stany wiatru, poruszając żaglami i kołem sterowym. Wyobraźmy sobie, na wzór centralnego planowania, że nie wolno mu wykonać żadnego ruchu, póki nie dokona słownego opisu stanu wiatru i nie prześle go do Centralnego Zarządu Żeglarstwa, gdzie urzędnicy przeanalizują raport i na tej podstawie zakomenderują, jakie ruchy należy wykonać. Morał tej groteski leży w tym, że żaden język nie dysponuje środkami słownymi do oddania niuansów nieskończenie wielu możliwych podmuchów wiatru, jak i w tym, że sporządzenie opisu słownego, gdyby nawet było możliwe, zajęłoby jakąś absurdalną wielokrotność tego czasu, w jakim powinna nastąpić reakcja.

Na to rzekłby może obrońca centralizacji, iż wprawdzie słowny opis, gdy ma być należycie dokładny i szybki, jest tu istotnie niewykonalny, ale można by zrobić rzecz następującą. Zamontować na łodzi czujniki wiatru, które będą reagować analogowo, bo na tym polega odwzorowanie jednej wielkości fizycznej w inną (np. natężenia wiatru w natężenie prądu w czujniku), one zaś przetworzą sygnał analogowy na cyfrowy, prześlą go do centrali, a ta wyśle polecenia zakodowane jako impulsy cyfrowe, które zadziałają bezpośrednio na żagle i koło sterowe. Taka obrona centralizmu ujawniłaby tylko, jak bardzo jest on surrealistyczny. Nawet gdyby opisana procedura była wykonalna, to po co przetwarzać sygnały analogowe w cyfrowe, a potem cyfrowe w analogowe, ponosząc koszty aparatury i pracy urzędników w centrali, jeśli nie gorzej sprawi się bezpośrednia reakcja analogowa ruchów żeglarza na odczucia wiatru? Konieczna też okazałaby się w tym systemie sterowania eliminacja żeglarza, bo jego odbiornik (mózg) nie jest takim urządzeniem do dekodowania sygnałów cyfrowych, jak automat zamontowany przy sterze. Gdy idzie o czynności umysłu, a te stanowią o procesach społecznych, jesteśmy bardzo dalecy od możliwości pomiaru ujmowanych analogowo wielkości, jak siła popytu na pewien produkt w danym miejscu i czasie, czy stopień gotowości do ustępstw u partnera negocjacji; a przecież pomiar taki byłby niezbędny do przekształcania sygnałów analogowych w cyfrowe.

Nie wspomniałem w tym kontekście nazwiska Hayeka, ale wisi ono, by tak rzec, w powietrzu. Przytoczyłem bowiem własnymi słowami pewien nerw argumentacji przeciw socjalistycznej doktrynie centralnego planowania. Jest to sposób argumentacji cechujący nie tylko Hayeka, lecz cały ten nurt myśli społecznej, który określa się mianem Austriackiej Szkoły Ekonomicznej, przeciwny interwencji państwa w gospodarkę nie tylko w skrajnej formie centralnego planowania (bronionej żarliwie przez Oskara Langego w jego trwającej trzy dekady polemice z Hayekiem), lecz przeciwny także projektom dyrygowania gospodarką przez państwo wedle projektu tzw. trzeciej drogi czy zbliżonego doń Keynesizmu. 13

3.6. Dystrybutywność a sprawność przetwarzanie informacji. Hayek upatrywał podstawy ekonomii w teorii wiedzy. Da się to obrazowo przedstawić na przykładzie mrowiska. Jest wiedza pojedynczej mrówki i wiedza całego mrowiska. Ludzki obserwator, patrząc na jego funkcjonowanie ma nieprzeparte wrażenie, że twór ten działa według przemyślanego planu, precyzyjnego jak program komputerowy, który począłby się w jednym ogarniającym całość umyśle programisty. Wiemy jednak, że nie ma takiego programisty.

Zagadnieniem tym zajęli się informatycy i poczęli tworzyć imitujące funkcjonowanie mrowiska programy zwane systemami mrówkowymi. Definiują oni system mrówkowy jako taki, który realizuje algorytmy równoległe, jest rozproszony (dystrybutywny), wieloagentowy, probabilistyczny, z dodatnim sprzężeniem zwrotnym. Cechy te występują także w funkcjonowaniu ludzkich struktur społecznych, w szczególności wolnego rynku. Zwróćmy najpierw uwagę na cechę dystrybutywności, która przyciągała w szczególny sposób uwagę Hayeka 14. Dał temu wyraz w następującym pytaniu,br> Jak to jest możliwe, że łączenie fragmentów wiedzy istniejących w umysłach różnych osób składa się na tego rodzaju całość, że gdyby miało do niej dochodzić w sposób zamierzony, rzecz wymagałaby od kierującego tym procesem umysłu takiej wiedzy, jakiej nie posiada żadna poszczególnaosoba? 15

Odpowiedź Hayeka bierze się z następujących obserwacji na temat funkcjonowania rynku. (1) Każdy uczestnik rynku potrzebuje dla rozwiązywania swych problemów tylko niewielkiego fragmentu wiedzy o gospodarce, w odróżnieniu od centralnego planisty, który musi ogarniać całość gospodarki, a wtedy ma do czynienia z najwyższą złożonością, nie dająca się opanować żadnym algorytmem. (2) Działania poszczególnych uczestników są koordynowane w większą całość za pomocą systemu sygnałów, tworzącego zwartą sieć komunikacyjną (w mrowisku działania mrówek są koordynowane przez sieć sygnałów chemicznych - feromonów).

Tego rodzaju sygnałami są ceny produktów. Każda cena jest funkcją niezliczonych i nieprzewidywalnych czynników (np. cena ropy może nagle podskoczyć w wyniku strajków u eksporterów). Ale nabywca produktu nie musi o tych złożonych splotach zależności wiedzieć, wystarczy że zna wynik końcowy w postaci ceny - jako sygnał, który wysyła mu sprzedawca. Odbiorca zaś ropy, kalkulując cenę wytwarzanych przezeń produktów z tego surowca, wysyła w postaci ceny sygnały do swoich nabywców. Sygnały takie stanowią czynnik koordynujący niezliczone poczynania uczestników rynku w jeden sprawnie działający system. 16

Mamy więc niewatpliwie do czynienia z tym, co informatycy zaliczają do kategorii przetwarzania danych rozproszonego lub równoległego (terminy te bywają używane zamiennie). Przetwarzanie rozproszone polega na jednoczesnej pracy wielu komputerów nad jednym problemem. W uproszczeniu wygląda to tak, że komputery pobierają pewną porcję danych z serwera, wykonują zaprogramowane obliczenia, po czym przesyłają rezultaty swojej pracy z powrotem do serwera.

W tym modelu przetwarzania, gdy go zastosować do rynku, poszczególne komputery odpowiadają przedsiębiorcom, odpowiednikiem zaś serwera jest jakiś segment rynku. Można go przykładowo skonkretyzować w postaci giełdy, gdzie ceny akcji są wynikową funkcją ogromnej liczby zmiennych wejściowych dostarczanych do serwera przez poszczególnych graczy w postaci decyzji zakupu lub sprzedaży papierów.

Te same zalety, które przypisuje się przetwarzaniu rozproszonemu dadzą się odnieść do atrybutów wolnego rynku pojętego jako kolektywny procesor danych ekonomicznych. Oto niektóre z tych zalet:

(a) szybszy dostęp do informacji użytkownik końcowy pracując jedynie z podzbiorem informacji, ma szybszy do nich dostęp niż do zasobów w modelu centralnym;

(b) szybsze przetwarzanie - system rozproszonych baz danych umożliwia przetwarzanie danych w różnych miejscach;

(c) możliwość rozbudowy - dodawanie nowych węzłów odbywa się bez zaburzeń dla istniejącej struktury przetwarzania;

(d) ułatwiona komunikacja - ośrodki lokalne, będąc jednostkami mniejszymi i znajdującymi się w terenie, którego dotyczy przetwarzanie danych mają lepszy dostęp do informacji;

(e) odporność na awarie - o ile w modelu centralnym uszkodzenie głównego systemu powoduje załamanie się całego systemu informatycznego, o tyle w przetwarzaniu rozproszonym awaria jednego węzła nie wpływa na pracę pozostałych. 17 Każdy z powyższych punktów coś wnosi do charakterystyki przetwarzania informacji w procesach rynkowych.

3.7. Globalna pomyślność a światopogląd informatyczny. Pomyślność należy rozumieć szeroko, odpowiednio do treści angielskiego wellbeing. Składa się na nią dobrobyt materialny, praworządność, bezpieczeństwo, wolność, wykształcenie, uczestnictwo w kulturze, możliwości rozwoju duchowego. Pomyślność globalna zależy od współpracy międzynarodowej pod egidą takich instytucji, jak Światowa Organizacja Handlu czy Bank Światowy, ale bardziej jeszcze od tego, jak inteligentne są państwa będące aktorami globalizacji.

Inteligentne państwo może zaistnieć tylko wtedy, gdy rzesza obywateli i elita władzy odznaczają się wysoką kulturą informatyczną. Na tę kulturę składa się nie tylko wiedza teoretyczna i praktyczne umiejętności, lecz także filozofia, dla której stosowne będzie określenie: światopogląd informatyczny. Jego metafizyczny fundament można odnaleźć w zdaniu Leibniza wziętym za motto tego eseju: gdy Bóg rachuje, staje się świat. Kto nie chce wzywać imienia Boga nadaremno, może zastąpić podmiot tego zdania jakąś inną nazwą; Stanisław Lem mawia o mocy obliczeniowej przyrody, czym zasila krąg rzeczników światopoglądu informatycznego. Jego istotą jest przekonanie, iż rzeczywistość stanowi system obliczeniowy, przy czym w jednej wersji tej filozofii (Ed Fredkin, Frank Tipler, Stanisław Lem) system ten wykonuje tylko obliczenia algorytmiczne, wedle innych - także superalgorytmiczne. Prekursorska względem tej wizji świata jest Monadologia Leibniza, wedle której rzeczywistość składa się z nieskończonej liczby monad, to jest, doskonale skoordynowanych między sobą wzajem automatów do przetwarzania informacji.

Na czym polega udział światopoglądu informatycznego w rozwiązywaniu głównego problemu globalizacji, którym jest najbardziej efektywna w skali globalnej alokacja zasobów ekonomicznych?

Jest on u podstaw propozycji ustroju gospodarczego, które w uproszczeniu da się sprowadzić do dwóch. Jedną z nich jest liberalizm, postulujący maksymalizację wolności jako warunek wzrostu obliczalności i mocy obliczeniowej, drugą jest etatyzm, mający odmianę socjalistyczną i odmianę nacjonalistyczną. 18

W formułowaniu i rozwiązywaniu zagadnień składających się na ów spór trzeba uwzględnić kilka zdumiewających osiągnięć nauki dwudziestego wieku powiązanych, jak zobaczymy, ze światopoglądem informatycznym. Trzy z nich biorą początek z idei i wyników jednego i tego samego Johna von Neumanna (1903 - 1957), matematyka, logika i fizyka urodzonego w Budapeszcie, jednym z najżywszych wtedy umysłowo miast Europy, w żydowskiej rodzinie bankierskiej (bank ojca finansował inwestycje w automatyzację przemysłu), ukształtowanego naukowo w Niemczech (logiczna Szkoła Hilberta), którego karierę uwieńczyły niezwykłe osiągnięcia, zaliczane do nauki amerykańskiej. Są to następujące konstrukcje i teorie.

(1) Maszyna cyfrowa, dziś zwana komputerem, skonstruowana nie bez inspiracji drugiego ,,ojca komputerów'' Alana Turinga.

(2) Matematyczne ujęcie gier, w tym hazardowych, zastosowane jako model interakcji społecznych, w szególności ekonomicznych, dokonane wspólnie z Oskarem Morgensternem, przedstawicielem (jak Hayek) Austriackiej Szkoły Ekonomicznej. 19

(3) Stworzona wespół z polskim matematykiem Stanisławem Ulamem teoria automatów komórkowych, które tak jak maszyna Turinga potrafią rozwiązywać wszelkie problemy matematyczne (w zakresie tzw. Funkcji obliczalnych), a znacznie efektywniej niż ona wywiązują się z modelowania procesów ewolucyjnych w przyrodzie i społeczeństwie.

Teoria gier, zainicjowana w 17 wieku w związku z zagadnieniami prawdopodobieństwa, jest od ponad pół wieku głównym i standardowym narzędziem modelowania matematycznego procesów gospodarczych i społecznych. Choć data jej pojawienia się bliska jest dacie narodzin komputera, zrazu te dwa nurty rozwijały się niezależnie, gdyż pierwsze komputery z ich nikłą mocą obliczeniową nie były w stanie odtwarzać zawrotnej złożoności zjawisk społecznych.

Z czasem wzrosła możliwość stosowania komputerów do symulacji zjawisk społecznych z pomocą modeli matematycznych, w tym modelu teoriogrowego, ale eksplozja badań i wyników nastąpiła dopiero od momentu, gdy automaty komórkowe okazały się być znakomitym narzędziem modelowania ewolucji. Stało się to za sprawą Gry w Życie, którą wymyślił brytyjski matematyk John Conway (publikacja w październiku 1970 w Scientific American). Polega ona na stosowaniu określonych reguł dla każdego kwadratu reprezentującego komórkę na płaszczyźnie, którą można sobie wyobrazić na wzór szachownicy. Są to następujące reguły. 20

Każdy czarny kwadracik (komórka) jest żywy. Każda biała komórka jest martwa. - Każda komórka ma ośmiu sąsiadów. - Każda komórka może jako żywa przejść do następnej generacji, jeżeli jej dwóch lub trzech sąsiadów to żywe komórki. - Jeśli więcej niż trzy (zatłoczenie) lub mniej niż dwie (izolacja) sąsiednie komórki są żywe, to komórka umiera. - Każda martwa komórka może zostać ożywiona, jeżeli jej trzech sąsiadów to żywe komórki.

Takie proste reguły określają proces będący modelem losów kolejnych pokoleń komórek, a więc proces ewolucyjny. Gra Conwaya nie pretenduje do tego, żeby symulować prawa rządzące realnym życiem. Ma ona podpowiedzieć metodę takich symulacji, które będzie się tworzyć, odpowiednio formułując reguły na miarę posiadanej wiedzy biologicznej; ma także uświadomić (co czyni imponująco), jak wielką złożoność i jak nieoczekiwane wyniki da się uzyskać stosując tych kilka reguł. Automat komórkowy jest równoważny maszynie Turinga, ale dalece góruje nad nią sprawnością w modelowaniu procesów ewolucyjnych.

Gra w życie dała początek rozległemu działowi informatyki pod nazwą Sztuczne Życie, a ten utorował drogę kolejnemu działowi - Sztuczne Społeczeństwo. W tym drugim modeluje się procesy społeczne, których aktorzy, indywidualni lub grupowi, są reprezentowani przez komórki, a dotyczące ich reguły są zasadami interakcji społecznych. I tu spotyka się von Neumanna teoria automatów z von Neumanna teorią gier jako modelem społecznych interakcji, w tym walki i konkurencji (choć sam von Neumann spotkania tego nie przewidział).

I jeszcze nurt trzeci. Jak rzeka potężniejąca dzięki nowym dopływom. informatyka rozrasta się jeszcze w ten sposób, że z technologią Sztucznego Życia łączy technologię programów wieloagentowych. Ich związek powstaje stąd, że reguły interakcji tak się dobiera, żeby agentom (aktorom), kreowanym przez odpowiednie oprogramowanie, zapewniały kooperatywność czyli zdolność do współdziałania z innymi agentami oraz autonomiczność czyli zdolność do samodzielnego rozwiązywania problemów; a to są szczególnie pożądane cechy aktorów globalizacji. 21

Programy wieloagentowe znalazły zastosowanie szczególnie w ekonomii, gdzie reguły interakcji są bardziej uchwytne niż w innych naukach społecznych; stąd powstała na przecięciu z informatyką nowa gałąź ekonomii zwana ACE - Agentbased Computational Economics. W tym punkcie następuje spotkanie z myślą Friedricha Hayeka. Autorzy praktykujący ACE powołują się na inspirację Hayeka, powiadając, że jest to gałąź ekonomii, w której znajdują zastosowanie jego intuicje metodologiczne (an application of Hayek's methodological insights). 22

Na gruncie tych osiągnięć wyrastają kolejne pytania. Czy to, co było dotąd przedmiotem intuicji (jak u Hayeka) da się sprawdzić eksperymentalnie metodą komputerowej symulacji operującej modelem automatów Komórkowych, w którym komórki reprezentujące Agentów zachowywałyby się wedle reguł matematycznej teorii Gier i decyzji? Oznaczmy taką procedurę obliczeniowoeksperymentalną skrótem KAG (od wyrazów wskazanych inicjałami). Czy przy całej swej zmyślności KAG wystarczy, żeby definitywnie rozstrzygnąć spór między liberalną myślą Hayeka i innych a podejściem etatystycznym Oskara Langego (wersja komunistyczna) czy Maynarda Keynesa (wersja socjaldemokratyczna), czy wreszcie aktualnych nurtów nacjonalistycznych? 23

To, że arbitraż historii przesądza zdaniem wielu na rzecz Hayeka, nie wystarcza do rozstrzygnięcia sporu ani na płaszczyźnie akademickiej ani politycznej. Rzecznicy innych rozwiązań zawsze wynajdą jakieś niedoskonałości modelu liberalnego, poczem posłużą się argumentem ,,gdybającym'', że gdyby po zdobytych doświadczeniach i w nowych warunkach realizować ich idee, odniosłyby one sukces (tak czynią np. Cottrell i Cockshott, cytowani w przypisie 23 ). Otóż - i tu jest nowa szansa nauk społecznych - pozwólmy opcji etatystycznej realizować się w rzeczywistości wirtualnej za pomocą procedury KAG. Oczywiście, analogiczna symulacja dotyczyłaby opcji liberalnej; wtedy mielibyśmy wiarygodne porównanie wyników bez abstrahującego od realnych zaszłości gdybania. Jeśli dałoby się opisany eksperyment przeprowadzić, a zarazem istniałby elektorat na tyle wykształcony, żeby wyniki te rozumieć, to przy urnach wybierałby opcję wygrywającą w owym modelowym pojedynku. Czy jednak można spodziewać się wiarogodnych modeli, bez deformujących uproszczeń, skoro gigantyczna złożoność realnego życia nigdy dotąd nie pozwoliła na uzyskanie modeli w pełni realistycznych? Spróbujmy rozważyć tę rzecz raz jeszcze, tym razem w świetle prawa Moore'a.

3.8. Szansa na pokonanie złożoności przez nieograniczony wzrost mocy obliczeniowych. Prawo Moore'a a światopogląd informatyczny. Z punktu widzenia ekonomii warte namysłu jest spostrzeżenie św. Augustyna, że zaspakajanie potrzeb materialnych osiąga próg nasycenia kładący tym potrzebom kres, podczas gdy dla potrzeb duchowych żaden taki kres nie istnieje. Rzeczy tak się mają nie tylko w sferze wzrostu potrzeb lecz także wzrostu możliwości.

Co się tyczy ograniczenia wzrostu możliwości w sferze materialnej, klasycznym przykładem jest wzrost liczbowy populacji zwierzęcej limitowany zasobami możliwej do zdobycia żywności, partnerów, przestrzeni itp. Nie ma natomiast takiego limitu na wzrost tego, co było tu wcześniej (fragment 1.1) nazwane potencjałem informatycznym, a więc wiedzy, umiejętności, mocy obliczeniowej. Tej drugiej sfery dotyczy prawo Moore'a.

Zostało ono pierwotnie sformułowane tylko w odniesieniu do lawinowego wzrostu mocy obliczeniowej, ale w miarę postępującej nad nim refleksji dokonuje się uogólnienie dotyczące całości tego, co zostało wyżej określone jako potencjał informatyczny. Gordon Moore to wynalazca obwodów scalonych i szef Intela, słynnego producenta procesorów. Już w roku 1958, choć komputery były jeszcze w powijakach, Moore ogłosił wynik swych obliczeń, że wielkość tranzystorów zmniejsza się w sposób wykładniczy: co roku dwa razy więcej tranzystorów mieści się na takiej samej płytce procesora, co podwaja moc obliczeniową. W aktualnej postaci prawo Moore'a powiada, że moc obliczeniowa maszyn liczących podwaja się co dwa lata, zarazem podwaja się szybkość ich działania (przy tej samej cenie).

Uogólnienie prawa Moore'a, obejmujące nie tylko elektroniczne maszyny cyfrowe (jak u samego Moore'a) lecz wszelkie urządzenia do przetwarzania informacji w okresie 1900 - 2000, dał Ray Kurzweiler. Zauważył on, że zachodzi nawet przyspieszenie przyspieszenia, bo na początku wieku podwajanie następowało co trzy lata, w okresie 1950 - 1970 co dwa lata, a obecnie co półtora roku. 24

Zestawmy to z badaniami tej szkoły historyków nauki, której inicjatorem był Derek J. de Sollo Price. Pochodzi od niego prawo w tym podobne do prawa Moore'a, że też dotyczy dziedziny informacji, mianowicie wiedzy naukowej, i też stwierdza w tej dziedzinie wzrost wykładniczy. To znaczy (mówiąc swobodnie) taki, że im liczba rosnąca jest większa, tym szybciej rośnie (por. wyżej uwagi o algorytmach pracujących w czasie wykładniczym, fragm. 3.1). Sprawdza się to na każdym wskaźniku z historii nauki, jak przyrost liczby uczonych, publikacji, tytułów czasopism itd. Np. poczynając od roku 1750 liczba periodyków naukowych w świecie wzrastała dziesięciokrotnie w ciągu każdego półwiecza. W USA wszelkie wskaźniki liczbowe charakteryzujące stan nauki podwajają się co dziesięć lat. 25

Gdy wzrost wykładniczy jest cechą procesu fizycznego, wnet napotyka bariery ze strony czynników środowiskowych, np. brak żywności dla rozmnażającego się stada, toteż zachodzi on tylko w pewnych przedziałach czasu, niekiedy periodycznie. Wzrost cechujący procesy informatyczne jest znacznie mniej hamowany przez czynniki fizyczne. Z tej jednak racji, że wymaga zasobów czasu, przestrzeni etc., a te są ograniczone, także on podlegałby konieczności zwolnienia lub wyhamowania. Ta oczywistość jednak ma przeciw sobie zadziwiające fakty. Na przykład, gdy idzie o wzrost nauki, za istotny czynnik limitujący uznawano pół wieku temu rosnącą trudność znajdowania danych naukowych przy lawinowym napływie produkowanych informacji. W najbardziej wybujałych marzeniach nie przychodziło ludziom do głowy, że programy internetowe będą dostarczać natychmiast wiadomości na każdy wybrany temat, przeglądając w sekundach miliony dokumentów w zasobach informacyjnych całego globu.

Pytanie, czy podobne przełomy, które zapobiegłyby załamaniu się wzrostu wykładniczego, mogą się zdarzyć w przyroście mocy obliczeniowej, stanowi żywotny problem metodologii nauk. Wiadomo, że miniaturyzacja procesorów zderzy się z ograniczeniami fizycznego świata, jak ziarnistość materii. Ale oto pojawiają się w polu widzenia nowe technologie, które będą napędzać wzrost mocy obliczeniowej inaczej niż drogą miniaturyzacji. Są w perspektywie komputery optyczne, krystaliczne, pracujące na DNA, wreszcie kwantowe (których moc obliczeniowa przekracza najśmielszą wyobraźnię).

Czy w którymś punkcie tego wzrostu moc stanie się tak wielka, że podoła wyzwaniu, jakim jest gigantyczna złożoność procesów społecznych? Jeśli tak, to przyjdzie czas, gdy spór liberalizmu i etatyzmu da się traktować eksperymentalnie procedurą KAG (zob. wyżej, fragment 3.7) czy jeszcze inną, która powstanie do tego czasu. Jakkolwiek bowiem wielka byłaby złożoność zjawisk społecznych, rodząca na danym etapie nieobliczalność praktyczną, wyraża się ona liczbą skończoną. A wtedy w którymś punkcie niekończącego się wzrostu mocy obliczeniowej, moc ta okaże się dostatecznie wielka, żeby owej złożoności należycie sprostać, choć uchodziła ona dotąd za źródło praktycznej nieobliczalności.

Skąd jednak brać przekonanie, że gdy moc obliczeniowa ma się zmierzyć ze złożonością, której przy danych czynnikach, limitujących wykładniczy wzrost mocy pokonać się już nie da, to jakieś nowe odkrycie czy wynalazek pozwoli znowu próg ów pokonać? Przekonanie to jest częścią takiego światopoglądu informatycznego, w którym funkcjonuje pojęcie mentalnych programów superalgorytmicznych. To one uzdalniają umysł ludzki, w momentach, gdy możliwości algorytmiczne i materialnotechniczne zdają się wyczerpywać, do znajdowania nowych niespodziewanych rozwiązań i w abstrakcyjnej sferze algorytmów i w materialnej sferze techniki.

Popatrzmy, jakie byłyby tego praktyczne konsekwencje dla aktorów globalizacji, w szczególności dla państw, ich elit decydenckich oraz elektoratów. Spór między liberalizmem i etatyzmem, rozpisany na szczegółowe kwestie (podatki, ubezpieczenia itd.) dotyczy - zgódźmy się - materii tak złożonej, że w obecnym stanie mocy obliczeniowych nie da się ująć adekwatnie w żadnym modelu obliczeniowym. Ale przy wykładniczym wzroście mocy obliczeniowej, który nam zapewnia prawo Moore'a wsparte przekonaniem filozoficznym, iż limitujące go co pewien czas progi będą pokonywalne, możemy być spokojni, że spór zostanie rozstrzygnięty ekperymentalnie w świecie wiernie oddających rzeczywistość modeli obliczeniowych, przestając być kwestią ideologiczną. Zamiast eksperymentów na żywym ciele społeczeństwa, z okrucieństwem rewolucji i klęskami poronionych projektów, rzecz rozsądzi, i to konkluzywnie, eksperyment odwzorowujący w modelach cyfrowych konkurencyjne rozwiązania ustrojowe.

Państwo realizujące wzorzec ustrojowy, który zwycięży w takim eksperymencie okaże się państwem inteligentniejszym niż to, które postawi na wzorzec przeciwny. A że państwa grają główne role w koncercie gospodarki globalnej, im więcej takich aktorów wniesie doń wysoką inteligencję, czyli wysoką obliczalność i moc obliczeniową, z tym większą dla wszystkich stron korzyścią będzie on się rozgrywać. Przybliżyć świat do tego stanu - oto wyzwanie dla nauk społecznych, gdy zostaną wyposażone w potężną technologię obliczeniową. Do takiej technologii jest jeszcze może daleko, a i świadomość jej potrzeby jest wśród badaczy nikła (zwłaszcza w kraju Sarmatów). Co do pierwszej obiekcji, mamy podstawy wierzyć, że góra lodowa praktycznej nieobliczalności będzie coraz bardziej topnieć dzięki nieograniczonemu rośnięciu w sposób wykładniczy mocy obliczeniowej.

Co się zaś tyczy drugiej, to nadzieja w sztafecie pokoleń. Przyszłe generacje badaczy zjawisk społecznych będą w zagadnieniach przetwarzania informacji czuć się jak u siebie w domu. Wspomnijmy więc na koniec, jak to w erze przedinformatycznej, gdy umysł i potencjał informacyjny nazywano duszą, apelował poeta do ówczesnej nowej generacji:

Szukajcie nowych nieodkrytych dróg!
Za każdym krokiem w tajniki stworzenia
Coraz siÄ™ dusza ludzka rozprzestrzenia ...

Dziś wiemy, że rozprzestrzenia się według wzoru na nieograniczony wzrost wykładniczy.

PRZYPISY

9. Na motto dla tego ustępu dobrze nadaje się zdanie, które napisał Javier Solana, Sekretarz Generalny Rady UE: The quality of international society depends on the quality of the governments that are its foundation. Artykuł Jointly does it [w:] The World in 2005, wydanie specjalne The Economist, 2004, s.85. Powrót do tekstu.

10. B. Kliksberg (Ed.), Towards an Intelligent State, Volume 15 International Institute of Administrative Sciences Monographs, 2001. Zob. też Michael Connors, Race to the Intelligent State: Charting the Global Information Economy Into the 21st Century, John Wiley and Sons, 2001. Powrót do tekstu.

11. W odniesieniu do historii Anglii przekonująco i barwnie, przywołując postacie takich mnichów jak św. Beda i Alkuin, opisuje wiek siódmy i następne G.M.Trevelyan w A Shortened History of England, Longmans, Green and Co., New York 1942. Zob. Book One, Ch.IV, ss. 63nn. wg wydania 1976. Powrót do tekstu.

12. Jest to rozróżnienie ważne dla kształtowania świadomości ekonomicznej obywateli, których znaczna masa przejawia skłonności ksenofobiczne wobec kontrahentów zamożniejszych, podejrzewanych o chęć użycia swej siły dla wyzyskania słabszego. Tendencja ta znajduje pozory uzasadnienia w negatywnych skutkach napływu inwestycji portfelowych, czyli takich, które polegają na wykupie papierów wartościowych danego kraju. W warunkach globalizacji, sprzyjających błyskawicznym transakcjom, daje to możliwość nagłej sprzedaży papierów, a więc wycofania tak zainwestowanego kapitału z danego kraju. Przy wielkiej skali wyprzedaży grozi to kryzysem walutowym, a wobec chaotycznej natury tego rodzaju procesów (wyzwala je np. plotka polityczna) może stać się dla kraju katastrofalne. Takich zagrożeń nie stwarzają inwestycje bezpośrednie, których wielostronnie trwały charakter (budowa fabryk, wchodzenie w wieloletnie powiązania kooperacyjne) zapobiega nieprzewidywalnym spekulacjom finansowym. Powrót do tekstu.

13. Ujawnia się przy tej okazji zamęt myślowy biorący się z określeń ,,prawica, lewica, centrum'', z czym łączy się mówienie o stanowiskach prawicowym i lewicowym jako skrajnych lub radykalnych; w tym zaś domyślna jest pochwała umiarkowania mającego cechować centrum. Taka politologiczna geometria podpowiada mylnie, że w centrum znajduje się coś takiego, jak trzecia droga, co dawałoby jej patent na kojarzoną z centrowością rozwagę. Trudno jednak projekt tak utopijny - chcący przedsiębiorców zastąpić biurokratami - zaliczać do rozważnych. Rozważny jest natomiast, choćby z racji wsparcia się na wiedzy informatycznej, pogląd skrajny, postulujący daleko posuniętą wolność rynku, maksymalną autonomię samorządów itd. Powrót do tekstu.

14. Cecha wieloagentowości jest omówiona dalej, przy końcu tego fragmentu. Probabilistyczność i dodatnie sprzężenie zwrotne także odnoszą się do funkcjonowania rynku, ale ich omówienie nie mieści się w ramach tego eseju. Powrót do tekstu.

15. >>How can the combination of fragments of knowledge existing in different minds bring about results which, if they were to be brought about deliberately, would require a knowledge on the part of the directing mind which no single person can possess?<< F.A.Hayek Economics and Knowledge in: F.A.Hayek (Ed.) Individualism and Economic Order, Chicago University Press, Chicago 1948, strona 54. Powrót do tekstu.

16. Oto jak Hayek pisze o tym procesie. >>In abbreviated form, by a kind of symbol, only the most essential information is passed on only to those concerned. It is more than a metaphor to describe the price system as a kind of machinery for registering change, or a system of telecommunications which enables individual producers to watch merely the movement of a few pointers, as an engineer might watch the hands of a few dials, in order to adjust their activities to changes of which they may never know more than is reflected in the price movement.<< Individualism and Economic Order, University of Chicago Press, Chicago 1948, strona 86n. Termin ,,distributed knowledge'' został wprowadzony przez innych autorów, ale z intencją oddania myśli Hayeka.Powrót do tekstu.

17. Zob. Piotr Kowalski, Przetwarzanie centralne czy rozproszone? [w:] Informatyka, nr 3/1998. Powrót do tekstu.

18. Rozróżnienie tych odmian, choć skądinąd znaczące, w obecnych rozważaniach nie będzie dalej potrzebne. Obie formacje etatystyczne głoszą podobne projekty interwencji państwa w gospodarkę, z tym że tzw. Prawica (nacjonalistyczna) postuluje także interwencję państwa w sferę wyznawanych przez obywateli wartości, gdy tzw. nowa lewica (odżegnująca się od komunizmu) optuje na rzecz pluralizmu i tolerancji. Powrót do tekstu.

19. John von Neumann and Oskar Morgenstern, Theory of Games and Economic Behavior, 1944. Powrót do tekstu.

20. Zobacz www.alife.pl/portal/articles/p/piwowarczyk1.html, jak również stronę www.math.com/students/wonders/life/life.html. W sprawie zastosowań w naukach społecznych zob. www.calculemus.org/neumann. Summę wiedzy o automatach komórkowych i ich zastosowaniach stanowi monumentalna książka Stephena Wolfram A New Kind of Science, Wolfram Research, 2002. Powrót do tekstu.

21. Por. M.Wooldridge and N.Jennings, Intelligent agents: Theory and practice [w:] The Knowledge Engineering Review, 10(2), 1995. Powrót do tekstu.

22. Nicolaas J. Vriend, Was Hayek an Ace? [w:] Southern Economic Journal 2002, 68(4), 811840, strona 1. www.qmul.ac.uk/~ugte173/abs/abs.sej.html. Powrót do tekstu.

23. Twórczość Oskara Langego, wybitnego polskiego ekonomisty orientacji socjalistycznej, jest dla obecnych rozważań szczególnie znacząca, ponieważ to u niego, zwłaszcza w tekstach polemizujących z Hayekiem, centralną rolę pełni pojęcie mocy obliczeniowej. Lange bronił tezy, ze centralne planowanie socjalistyczne jest praktycznie wykonalne pod warunkiem dysponowania przez planistę odpowiednio wielką mocą obliczeniową, którą spodziewał się uzyskać dzięki komputerom - takim, jakie znał w latach 60tych. Ten ważny wątek jedynie sygnalizuję, szersze omówienie przekraczałoby ramy niniejszego tekstu. Założenia teorii Langego zawiera jego praca On the Economic Theory of Socialism [w:] Review of Economic Studies 4(1): 5371, October 1936, oraz 4(2): 123142, February 1937; w formie książkowej wydane przez University of Minnesota Press, 1938, przedruk McGrawHill, 1964. Obszerne omówienie dyskusji wokół Langego, dokonane z pozycji jego zwolenników, zawiera artykuł: Alin Cottrell W.Paul Cockshott: Calculation, Complexity and Planning: The Socialist Calculation Debate Once Again [w:] Review of Political Economy, vol.5, no.1, July 1993, 73112. Powrót do tekstu.

24. Do tego miejsca dane o prawie Moore'a są zaczerpnię Ryszkiewicza Życie wieczne wirtualne [w:] Wiedza i Życie, luty 2005, nr 2. Powrót do tekstu.

25. Zob. Derek J. de Sollo Price, Węzłowe problemy historii nauki, PWN, Warszawa 1965, seria Omega, tłum. Halina Krahelska, rozdział 5. Oryginał: Science since Babylon, Yale University Press, 1961. Prawidłowości te dały się zauważyć także w Polsce, zarówno w okresie 1918 - 1939, jak 19441974; omawiam je w artykule Przemiany koncepcji uniwersytetu w okresie trzydziestolecia PRL [w:] Roczniki Uniwersytetu Warszawskiego, 1975. Powrót do tekstu.

  1. Informatyczne pojęcie mocy obliczeniowej i jego odpowiednik u Friedricha Hayeka
powrót
 
webmaster © jotka