3.1. Moc obliczeniowa w aspektach sprzętowym i algorytmicznym. Moc obliczeniowa jest właściwością urządzeń rozwiązujących problemy czyli wykonujących pewne zadania za pomocą obliczeń. Określa się ją na dwa dopełniające się wzajem sposoby. Jeden znany jest każdemu użytkownikowi komputera. Jeśli nawet nie używa on tego zwrotu, ma rzecz samą na myśli, gdy porównując swój komputer z innym, powiada, że jego ma szybszy procesor, większą pamięć operacyjną czy większą pamięć dyskową, a zatem większą moc. Jest to określenie mocy obliczeniowej od strony wyposażenia; to tak, jak gdy możliwości fizyczne sportowca charakteryzuje się przez opis jego umięśnienia, wydolności serca itp. Drugie podejście polega na określeniu wielkości problemów czyli zadań, które ktoś czy coś jest w stanie rozwiązywać. Tak moc fizyczną lekkoatlety określają dane o jego osiągnięciach: w jakim czasie przebiegnie 100 metrów, jak wysoko skoczy o tyczce itd. Wielkość zadań obliczeniowych mierzy się ich złożonością, tę zaś liczbą operacji niezbędnych w procesie rozwiązywania.
W informatyce interesuje nas tylko złożoność problemów rozstrzygalnych. Rozstrzygnięcie polega na obliczeniu wartości funkcji wyrażonej w jakiejś formule; w tym sensie rozstrzygalność utożsamia się z obliczalnością. Ale nie każdy problem, który w zasadzie jest obliczalny, okazuje się obliczalny praktycznie, to znaczy, dający się rozwiązać przy dostępnych zasobach czasu i pamięci. Czas to liczba kroków (operacji komputera) niezbędnych do rozwiązania problemu, a więc miara złożoności w podanym wyżej znaczeniu. Jako kryterium obliczalności praktycznej, gdy idzie o czas, przyjmuje się, że zachodzi ona wtedy, gdy do rozwiązania wystarcza czas wielomianowy; nie jest zaś praktycznie obliczalne to, co wymaga czasu wykładniczego. Wyjaśnienie tej różnicy ograniczę, dla krótkości, do przykładów.
Inny przykład niewyobrażalnie wielkiego zapotrzebowania na czas to problem komiwojażera: mając dane położenia n miast, znaleźć najkrótszą trasę potrzebną do odwiedzenia każdego z nich dokładnie jeden raz. Niech n=20. Liczba tras wynosi wtedy 20!, bo tyle jest możliwych uporządkowań w zbiorze 20 elementów. Nie znaleziono dotąd algorytmu innego niż tego, który polega na wyliczeniu wszystkich kombinacji, zsumowaniu w każdej z kombinacji długości odcinków i rozpoznaniu najmniejszej z tych sum. Ponieważ
Tej koncepcji nie należy jednak absolutyzować, lecz odnosić do określonej epoki. Jest ona słuszna w czasach powszechnego oświecenia, podziału władz, rozlicznych partnerskich interakcji. Inaczej jednak rzecz się miała, powiedzmy, u progu średniowiecza, w ówczesnym odmęcie barbarzyństwa, które ucywilizować, czyli wydobyć ze stanu prymitywizmu plemiennego (ang. tribalism), mogła tylko silna władza centralna wspierająca się o wiedzę i umięjętności nielicznej elity umysłowej, jaką stanowiło duchowieństwo. 11
Mając na uwadze tę relatywizację, trzeba się zgodzić, że przytoczona wyżej definicja stanowi trop w dobrym kierunku. Idąc tym tropem w poszukiwaniu, by tak rzec, wysoce inteligentnej definicji państwa inteligentnego, sedno sprawy znajdujemy w pojęciach obliczalności i mocy obliczeniowej. Mając na uwadze, że chodzi o cechę stopniowalną, robimy użytek z wypracowanej w informatyce aparatury pojęciowej i definiujemy potrzebne nam pojęcie, jak następuje. Struktura społeczna, w szczególności państwo, jest tym bardziej inteligentna, im bardziej jest obliczalna oraz im większą ma moc obliczeniową.
3.3. Obliczalność skutkująca przewidywalnością jako fundamentalny warunek inteligencji i siły państwa. Biorąc na warsztat wymienione w naszej definicji cechy, obliczalność i moc obliczeniową, dostrzegamy, że pierwsza realizuje się, w szczególnym stopniu, poprzez praworządność czyli państwo prawa, druga zaś przez podział władz, demokrację przedstawicielską, społeczeństwo obywatelskie i wolny rynek. W przypadku drugiej, spostrzeżenie to nie jest może z miejsca oczywiste, ale okaże się takim po wprowadzeniu paru pojęć informatycznych.
Co się tyczy praworządności, mamy do czynienia z warstwami informacyjną i motywacyjną. Motywacyjna polega na przekonaniu, że praworządność jest dla społeczeństwa wartością wielkiej wagi ze względów moralnych oraz ze względu na techniki zarządzania i kooperacji. Za takim przekonaniem idzie wola ustanawiania i przestrzegania praw zarówno przez rządzonych jak rządzących.
Warstwa informacyjna jest po części zależna od motywacyjnej, bo żeby stanowić prawo umiejętnie, na podstawie odpowiedniego potencjału informacyjnego, trzeba tego chcieć. W części zaś jest to atrybut niezależny, biorący się z odpowiedniej kompetencji, na którą składa się nie tylko technika legislacyjna, lecz także kultura logiczna i językowa oraz znajomość materii życia społecznego (prawo rodzinne wymaga wiedzy o rodzinie, prawo bankowe wiedzy o bankach itd.). Na swoją miarę winni taką kompetencję mieć prawodawcy i wykonawcy prawa (sędziowie, prokuratorzy etc.), a na swoją miarę ogół obywateli.
Jeśli sobie wyobrazimy, że ów stan wielce pożądany ma gdzieś miejsce, nasz eksperyment myślowy podpowie dwie rzeczy: (1) społeczeństwo, które stan taki osiągnęło jest w zachowaniach jednostkowych i grupowych wysoce przewidywalne oraz, co za tym idzie, (2) posiada jeden z istotnych elementów mocy obliczeniowej. Są to kluczowe atuty państwa w jego polityce wewnętrznej i zewnętrznej.
W polityce wewnętrznej przewidywalność zachowań najwyższych organów władzy, urzędów wszelkiego szczebla jak i poszczególnych obywateli jest podstawą wzajemnego zaufania, które dla życia społecznego jest niezbędne jak tlen dla organicznego. A zarazem, przewidywalność zachowań społecznych jest podstawą racjonalnego planowania działalności gospodarczej, politycznej, społecznej, kulturalnej, badawczej, edukacyjnej. Groźną nieobliczalnością rodzącą nieprzewidywalność i dezorganizację życia gospodarczego jest zaskakiwanie nagłymi zmianami w przepisach podatkowych, ubezpieczeniowych, celnych itd. Na taką nieobliczalność bardziej są narażone ustroje dyktatorskie niż demokratyczne. W demokratycznych bowiem są procedury, które nawet jeśli niedoskonałe, to pozwalają coś przewidywać, a jeśli nie wyjdzie dobrze, to korygować. Nieprzewidywalność skrajna występuje tam, gdzie sprawy zależą od kaprysu samodzierżcy, nie liczącego się nawet z prawem ustanowionym przez siebie; takie państwo nie zasługuje żadną miarą na miano inteligentnego.
Ów brak inteligencji skutkujący nieprzewidywalnością jest nie mniej brzemienny w skutki w relacjach państwa z partnerami zewnętrznymi. Widać to jasno w procesach globalizacji. Do samego rdzenia globalizacji należy zaostrzanie się konkurencji ekonomicznej w skali całego globu, co każe stawiać czoła wielu silnym konkurentom. By temu sprostać, trzeba wysiłków na różnych polach, jak badania naukowe, podnoszenie poziomu edukacji, wzrost wydajności pracy, rezygnacja z rozbudowanych świadczeń socjalnych (żeby obniżyć koszty siły roboczej) i tak dalej. Wśród tych strategicznych wyzwań jest pozyskiwanie na wielką skalę inwestycji zagranicznych bezpośrednich (to kluczowy termin techniczny: foreign direct investment). Inwestycje takie, w odróżnieniu od portfelowych, są dla krajów rozwijających się nieodzowne, żeby dojść do czołówki krajów rozwiniętych. 12
Inwestycje bezpośrednie dają nieodzowny zastrzyk kapitału, którego brakuje krajom dopiero startującym w globalnej konkurencji. Dają też zatrudnienie miejscowej ludności, nową wiedzę i umiejętności w technologii wytwarzania i w zarządzaniu, licencje przemysłowe, wreszcie wyrobione już zagraniczne rynki zbytu i międzynarodowe powiązania kooperacyjne. Wobec tak wielostronnych korzyści, które czynią z inwestycji bezpośrednich nieodzowny czynnik rozwoju dla krajów do rozwoju pretendujących, są one upragnionym celem zabiegów. Ich skuteczność zależy tyleż od cech danego społeczeństwa, jak jego wykształcenie, siła nabywcza i taniość pracy, co od polityki władz państwowych, które powinny stwarzać silną motywację do lokowania inwestycji przez politykę podatkową czy zapewnienie struktury transportowej i telekomunikacyjnej, a przede wszystkim poprzez przejrzystość, precyzyjność i stabilność prawa dotyczącego inwestorów.
Nie ma więc wątpliwości, że na miano inteligentnego zasłuży państwo tylko wtedy, gdy będzie aktorem w globalnych procesach gospodarczych dzięki obliczalności obowiązującego w nim prawa. To właśnie miał na myśli Max Weber, gdy mówiąc o obliczalności widział w niej źródło sukcesów gospodarki kapitalistycznej i całej cywilizacji zachodniej. Weber zamiast przymiotnika ,,inteligentne'' używał raczej ,,racjonalne'', ale chodziło o tę samą cechę. Pozostajemy też w zgodzie z ideą Webera, gdy za wzorzec tego rodzaju inteligencji czy racjonalności przyjmiemy postępowanie algorytmiczne. Nie jest ono w pełni możliwe w funkcjonowaniu struktur społecznych, ale można do niego bardziej lub mniej się przybliżać. Możliwie największe przybliżenie osiągalne w danych realiach społecznych daje tytuł do znalezienia się państwa na najwyższym podium inteligencji
3.4. Jak sobie radzić z praktyczną nieobliczalnością. Gdy obliczalnośćjest tylko przybliżona, a więc przybiera różne stopnie, da się zauważyć zależność między poziomem obliczalności i poziomem mocy obliczeniowej: im większa ta pierwsza, tym (caeteris paribus) większa ta druga. Powód jest prosty. Obliczanie to znajdowanie wartości funkcji, a więc pewnego obiektu jednoznacznie przyporządkowanego jakiemuś innemu. Brakuje takiego przyporządkowania w sytuacjach obniżających obliczalność społeczną, jak wieloznaczność czy niejasność prawa.
Kwestie mocy obliczeniowej wiążą się z podanym wyżej pojęciem obliczalności praktycznej, ugruntowanym (przypomnijmy) w rozróżnieniu dwóch typów problemów: rozwiązywalnych w czasie wielomianowym i tych, do których rozwiązania konieczny jest algorytm pracujący w czasie wykładniczym. Jak sobie radzić w tym drugim przypadku? Jeden sposób polega na tym, że rezygnujemy z doskonałego algorytmu, który dawałby rozwiązania zupełne i pewne lecz w czasie dla nas nieosiągalnym. Szukamy wtedy innych algorytmów, pracujących znacznie szybciej, lecz za cenę wyników tylko przybliżonych lub tylko prawdopodobnych. Takie rozwiązania stosuje też przyroda, obdarzywszy nasze mózgi programami do rozwiązywania problemów, które nie spełniają warunków teoretycznej niezawodności, ale pozwalają żyć, rozwijać się i rozmnażać dostatecznie licznym zbiorom osobników.
Odpowiednikiem owych rozwiązań ewolucji przyrodniczej są osiągnięcia ewolucji społecznej, która w wyniku długich procesów uczenia się metodą prób i błędów wyposażyła jednostki i grupy w schematy zachowań pozwalające na przetrwanie i rozwój. Należą do tych takich rozwiązań reguły językowe, zasady komunikacji społecznej, kodeksy moralne i obyczajowe. Z docenienia tych praw ewolucji bierze się to, co jest racjonalnym jądrem orientacji konserwatywnej. Skoro w tradycji jest utrwalony taki potencjał doświadczeń, to - powiadają konserwatyści - nie należy pochopnie jej się pozbywać.
Drugi kierunek działania, niezależny od pierwszego, ale nie wykluczający się z nim (co pozwala stosować je łącznie), polega na tym, że w sposób istotny zmniejszamy złożoność zadania przez odpowiednią organizację procesu przetwarzania informacji, czyli procesu obliczeniowego. Są w tym względzie dostępne conajmniej trzy kierunki działania, znowu niezależne wzajem od siebie, a dające się, gdy trzeba, stosować łącznie. Jak zobaczymy, takie łączne zmasowane ich działanie jest możliwe w życiu politycznym dzięki demokracji, a w gospodarczym dzięki właściwościom wolnego rynku. Trzy wspomniane rozwiązania można ująć w trzech pojęciach informatycznych: interaktywność, analogowość, dystrybutywność.
Podobnie jak pojęcie obliczalności wystąpiło niezależnie w informatyce i w myśli socjologicznej Maxa Webera (1864 - 1920), tak pojęcia dystrybutywności oraz interaktywności pojawiają się niezależnie w informatyce i w myśli socjologicznej Friedricha Hayeka (1899 - 1992). Zajmiemy się najpierw interaktywnością i związaną z nią w tym zagadnieniu cechą analogowości. Następnie podejmiemy kwestię dystrybutywności.
3.5. Interaktywność i analogowość. Interaktywność polega na tym, że zamiast wyposażać układ w wielką liczbę programów potrzebnych na różne ewentualności, wyposaża się go w receptory, np. kamery, umożliwiające pobieranie danych z otoczenia oraz w program kierujący uczeniem się. Układ uczy się, jak wykonywać zadanie przy tych danych wejściowych, które zostały pobrane z otoczenia, jako że tylko te są niezbędne do rozwiązania problemu w danych aktualnie okolicznościach. Jest to realizacja zasady samosterowania (podstawa działania np. samosterujących rakiet).
Pojęcie samosterowania to dobry klucz do określenia takich koncepcji ustrojowych, jak samorządność w administracji i polityce czy wolność działań w sferze gospodarki. W odróżnieniu od zarządzania odgórnego sprawowanego przez jeden podmiot centralny, który nie pobiera danych w sposób doświadczalny z otoczenia lecz polega na słanych zdalnie raportach i zdalnie śle polecenia (czasem już nieaktualne po dotarciu do odbiorcy), podmioty lokalne reagują bezpośrednio na zmiany w otoczeniu i nie tracą czasu ani energii na słowne (a więc bardziej niedołężne niż bezpośrednia percepcja) zapisywanie informacji, ich przesyłanie do centrali, a potem odbiór i wreszcie interpretację poleceń. Niszczenie takich interaktywnych, będących w bezpośrednim zwarciu z otoczeniem, układów lokalnych jest tym, co czyni każdą dyktaturę, czy to gospodarczą (centralne planowanie) czy polityczną, systemem niewydolnym i w dłuższym dystansie skazanym na upadek. Na tej podstawie, co bardziej przenikliwi obserwatorzy przewidywali upadek Związku Radzieckiego.
Są to zalety percepcji bezpośredniej. Ona nie tylko zapewnia większą wiarogodność i szybkość niż ta, która cechuje zdalne raporty słowne, lecz także łączy się z innym niż symboliczny sposobem przetwarzania danych. Jest to przetwarzanie analogowe, które jest niezastąpione, gdy trzeba przetwarzać dane tak złożone, że za nimi daleko nie nadąża możliwość opisu słownego.
W taki analogowy sposób żeglarz reaguje na stany wiatru, poruszając żaglami i kołem sterowym. Wyobraźmy sobie, na wzór centralnego planowania, że nie wolno mu wykonać żadnego ruchu, póki nie dokona słownego opisu stanu wiatru i nie prześle go do Centralnego Zarządu Żeglarstwa, gdzie urzędnicy przeanalizują raport i na tej podstawie zakomenderują, jakie ruchy należy wykonać. Morał tej groteski leży w tym, że żaden język nie dysponuje środkami słownymi do oddania niuansów nieskończenie wielu możliwych podmuchów wiatru, jak i w tym, że sporządzenie opisu słownego, gdyby nawet było możliwe, zajęłoby jakąś absurdalną wielokrotność tego czasu, w jakim powinna nastąpić reakcja.
Na to rzekłby może obrońca centralizacji, iż wprawdzie słowny opis, gdy ma być należycie dokładny i szybki, jest tu istotnie niewykonalny, ale można by zrobić rzecz następującą. Zamontować na łodzi czujniki wiatru, które będą reagować analogowo, bo na tym polega odwzorowanie jednej wielkości fizycznej w inną (np. natężenia wiatru w natężenie prądu w czujniku), one zaś przetworzą sygnał analogowy na cyfrowy, prześlą go do centrali, a ta wyśle polecenia zakodowane jako impulsy cyfrowe, które zadziałają bezpośrednio na żagle i koło sterowe. Taka obrona centralizmu ujawniłaby tylko, jak bardzo jest on surrealistyczny. Nawet gdyby opisana procedura była wykonalna, to po co przetwarzać sygnały analogowe w cyfrowe, a potem cyfrowe w analogowe, ponosząc koszty aparatury i pracy urzędników w centrali, jeśli nie gorzej sprawi się bezpośrednia reakcja analogowa ruchów żeglarza na odczucia wiatru? Konieczna też okazałaby się w tym systemie sterowania eliminacja żeglarza, bo jego odbiornik (mózg) nie jest takim urządzeniem do dekodowania sygnałów cyfrowych, jak automat zamontowany przy sterze. Gdy idzie o czynności umysłu, a te stanowią o procesach społecznych, jesteśmy bardzo dalecy od możliwości pomiaru ujmowanych analogowo wielkości, jak siła popytu na pewien produkt w danym miejscu i czasie, czy stopień gotowości do ustępstw u partnera negocjacji; a przecież pomiar taki byłby niezbędny do przekształcania sygnałów analogowych w cyfrowe.
(a) szybszy dostęp do informacji użytkownik końcowy pracując jedynie z podzbiorem informacji, ma szybszy do nich dostęp niż do zasobów w modelu centralnym;
(b) szybsze przetwarzanie - system rozproszonych baz danych umożliwia przetwarzanie danych w różnych miejscach;
(c) możliwość rozbudowy - dodawanie nowych węzłów odbywa się bez zaburzeń dla istniejącej struktury przetwarzania;
(d) ułatwiona komunikacja - ośrodki lokalne, będąc jednostkami mniejszymi i znajdującymi się w terenie, którego dotyczy przetwarzanie danych mają lepszy dostęp do informacji;
(e) odporność na awarie - o ile w modelu centralnym uszkodzenie głównego systemu powoduje załamanie się całego systemu informatycznego, o tyle w przetwarzaniu rozproszonym awaria jednego węzła nie wpływa na pracę pozostałych. 17 Każdy z powyższych punktów coś wnosi do charakterystyki przetwarzania informacji w procesach rynkowych.
3.7. Globalna pomyślność a światopogląd informatyczny. Pomyślność należy rozumieć szeroko, odpowiednio do treści angielskiego wellbeing. Składa się na nią dobrobyt materialny, praworządność, bezpieczeństwo, wolność, wykształcenie, uczestnictwo w kulturze, możliwości rozwoju duchowego. Pomyślność globalna zależy od współpracy międzynarodowej pod egidą takich instytucji, jak Światowa Organizacja Handlu czy Bank Światowy, ale bardziej jeszcze od tego, jak inteligentne są państwa będące aktorami globalizacji.
Inteligentne państwo może zaistnieć tylko wtedy, gdy rzesza obywateli i elita władzy odznaczają się wysoką kulturą informatyczną. Na tę kulturę składa się nie tylko wiedza teoretyczna i praktyczne umiejętności, lecz także filozofia, dla której stosowne będzie określenie: światopogląd informatyczny. Jego metafizyczny fundament można odnaleźć w zdaniu Leibniza wziętym za motto tego eseju: gdy Bóg rachuje, staje się świat. Kto nie chce wzywać imienia Boga nadaremno, może zastąpić podmiot tego zdania jakąś inną nazwą; Stanisław Lem mawia o mocy obliczeniowej przyrody, czym zasila krąg rzeczników światopoglądu informatycznego. Jego istotą jest przekonanie, iż rzeczywistość stanowi system obliczeniowy, przy czym w jednej wersji tej filozofii (Ed Fredkin, Frank Tipler, Stanisław Lem) system ten wykonuje tylko obliczenia algorytmiczne, wedle innych - także superalgorytmiczne. Prekursorska względem tej wizji świata jest Monadologia Leibniza, wedle której rzeczywistość składa się z nieskończonej liczby monad, to jest, doskonale skoordynowanych między sobą wzajem automatów do przetwarzania informacji.
Na czym polega udział światopoglądu informatycznego w rozwiązywaniu głównego problemu globalizacji, którym jest najbardziej efektywna w skali globalnej alokacja zasobów ekonomicznych?
Na gruncie tych osiągnięć wyrastają kolejne pytania. Czy to, co było dotąd przedmiotem intuicji (jak u Hayeka) da się sprawdzić eksperymentalnie metodą komputerowej symulacji operującej modelem automatów Komórkowych, w którym komórki reprezentujące Agentów zachowywałyby się wedle reguł matematycznej teorii Gier i decyzji? Oznaczmy taką procedurę obliczeniowoeksperymentalną skrótem KAG (od wyrazów wskazanych inicjałami). Czy przy całej swej zmyślności KAG wystarczy, żeby definitywnie rozstrzygnąć spór między liberalną myślą Hayeka i innych a podejściem etatystycznym Oskara Langego (wersja komunistyczna) czy Maynarda Keynesa (wersja socjaldemokratyczna), czy wreszcie aktualnych nurtów nacjonalistycznych? 23
To, że arbitraż historii przesądza zdaniem wielu na rzecz Hayeka, nie wystarcza do rozstrzygnięcia sporu ani na płaszczyźnie akademickiej ani politycznej. Rzecznicy innych rozwiązań zawsze wynajdą jakieś niedoskonałości modelu liberalnego, poczem posłużą się argumentem ,,gdybającym'', że gdyby po zdobytych doświadczeniach i w nowych warunkach realizować ich idee, odniosłyby one sukces (tak czynią np. Cottrell i Cockshott, cytowani w przypisie 23 ). Otóż - i tu jest nowa szansa nauk społecznych - pozwólmy opcji etatystycznej realizować się w rzeczywistości wirtualnej za pomocą procedury KAG. Oczywiście, analogiczna symulacja dotyczyłaby opcji liberalnej; wtedy mielibyśmy wiarygodne porównanie wyników bez abstrahującego od realnych zaszłości gdybania. Jeśli dałoby się opisany eksperyment przeprowadzić, a zarazem istniałby elektorat na tyle wykształcony, żeby wyniki te rozumieć, to przy urnach wybierałby opcję wygrywającą w owym modelowym pojedynku. Czy jednak można spodziewać się wiarogodnych modeli, bez deformujących uproszczeń, skoro gigantyczna złożoność realnego życia nigdy dotąd nie pozwoliła na uzyskanie modeli w pełni realistycznych? Spróbujmy rozważyć tę rzecz raz jeszcze, tym razem w świetle prawa Moore'a.
3.8. Szansa na pokonanie złożoności przez nieograniczony wzrost mocy obliczeniowych. Prawo Moore'a a światopogląd informatyczny. Z punktu widzenia ekonomii warte namysłu jest spostrzeżenie św. Augustyna, że zaspakajanie potrzeb materialnych osiąga próg nasycenia kładący tym potrzebom kres, podczas gdy dla potrzeb duchowych żaden taki kres nie istnieje. Rzeczy tak się mają nie tylko w sferze wzrostu potrzeb lecz także wzrostu możliwości.
Co się tyczy ograniczenia wzrostu możliwości w sferze materialnej, klasycznym przykładem jest wzrost liczbowy populacji zwierzęcej limitowany zasobami możliwej do zdobycia żywności, partnerów, przestrzeni itp. Nie ma natomiast takiego limitu na wzrost tego, co było tu wcześniej (fragment 1.1) nazwane potencjałem informatycznym, a więc wiedzy, umiejętności, mocy obliczeniowej. Tej drugiej sfery dotyczy prawo Moore'a.
Zostało ono pierwotnie sformułowane tylko w odniesieniu do lawinowego wzrostu mocy obliczeniowej, ale w miarę postępującej nad nim refleksji dokonuje się uogólnienie dotyczące całości tego, co zostało wyżej określone jako potencjał informatyczny. Gordon Moore to wynalazca obwodów scalonych i szef Intela, słynnego producenta procesorów. Już w roku 1958, choć komputery były jeszcze w powijakach, Moore ogłosił wynik swych obliczeń, że wielkość tranzystorów zmniejsza się w sposób wykładniczy: co roku dwa razy więcej tranzystorów mieści się na takiej samej płytce procesora, co podwaja moc obliczeniową. W aktualnej postaci prawo Moore'a powiada, że moc obliczeniowa maszyn liczących podwaja się co dwa lata, zarazem podwaja się szybkość ich działania (przy tej samej cenie).
Zestawmy to z badaniami tej szkoły historyków nauki, której inicjatorem był Derek J. de Sollo Price. Pochodzi od niego prawo w tym podobne do prawa Moore'a, że też dotyczy dziedziny informacji, mianowicie wiedzy naukowej, i też stwierdza w tej dziedzinie wzrost wykładniczy. To znaczy (mówiąc swobodnie) taki, że im liczba rosnąca jest większa, tym szybciej rośnie (por. wyżej uwagi o algorytmach pracujących w czasie wykładniczym, fragm. 3.1). Sprawdza się to na każdym wskaźniku z historii nauki, jak przyrost liczby uczonych, publikacji, tytułów czasopism itd. Np. poczynając od roku 1750 liczba periodyków naukowych w świecie wzrastała dziesięciokrotnie w ciągu każdego półwiecza. W USA wszelkie wskaźniki liczbowe charakteryzujące stan nauki podwajają się co dziesięć lat. 25
Gdy wzrost wykładniczy jest cechą procesu fizycznego, wnet napotyka bariery ze strony czynników środowiskowych, np. brak żywności dla rozmnażającego się stada, toteż zachodzi on tylko w pewnych przedziałach czasu, niekiedy periodycznie. Wzrost cechujący procesy informatyczne jest znacznie mniej hamowany przez czynniki fizyczne. Z tej jednak racji, że wymaga zasobów czasu, przestrzeni etc., a te są ograniczone, także on podlegałby konieczności zwolnienia lub wyhamowania. Ta oczywistość jednak ma przeciw sobie zadziwiające fakty. Na przykład, gdy idzie o wzrost nauki, za istotny czynnik limitujący uznawano pół wieku temu rosnącą trudność znajdowania danych naukowych przy lawinowym napływie produkowanych informacji. W najbardziej wybujałych marzeniach nie przychodziło ludziom do głowy, że programy internetowe będą dostarczać natychmiast wiadomości na każdy wybrany temat, przeglądając w sekundach miliony dokumentów w zasobach informacyjnych całego globu.
Pytanie, czy podobne przełomy, które zapobiegłyby załamaniu się wzrostu wykładniczego, mogą się zdarzyć w przyroście mocy obliczeniowej, stanowi żywotny problem metodologii nauk. Wiadomo, że miniaturyzacja procesorów zderzy się z ograniczeniami fizycznego świata, jak ziarnistość materii. Ale oto pojawiają się w polu widzenia nowe technologie, które będą napędzać wzrost mocy obliczeniowej inaczej niż drogą miniaturyzacji. Są w perspektywie komputery optyczne, krystaliczne, pracujące na DNA, wreszcie kwantowe (których moc obliczeniowa przekracza najśmielszą wyobraźnię).
Czy w którymś punkcie tego wzrostu moc stanie się tak wielka, że podoła wyzwaniu, jakim jest gigantyczna złożoność procesów społecznych? Jeśli tak, to przyjdzie czas, gdy spór liberalizmu i etatyzmu da się traktować eksperymentalnie procedurą KAG (zob. wyżej, fragment 3.7) czy jeszcze inną, która powstanie do tego czasu. Jakkolwiek bowiem wielka byłaby złożoność zjawisk społecznych, rodząca na danym etapie nieobliczalność praktyczną, wyraża się ona liczbą skończoną. A wtedy w którymś punkcie niekończącego się wzrostu mocy obliczeniowej, moc ta okaże się dostatecznie wielka, żeby owej złożoności należycie sprostać, choć uchodziła ona dotąd za źródło praktycznej nieobliczalności.
Skąd jednak brać przekonanie, że gdy moc obliczeniowa ma się zmierzyć ze złożonością, której przy danych czynnikach, limitujących wykładniczy wzrost mocy pokonać się już nie da, to jakieś nowe odkrycie czy wynalazek pozwoli znowu próg ów pokonać? Przekonanie to jest częścią takiego światopoglądu informatycznego, w którym funkcjonuje pojęcie mentalnych programów superalgorytmicznych. To one uzdalniają umysł ludzki, w momentach, gdy możliwości algorytmiczne i materialnotechniczne zdają się wyczerpywać, do znajdowania nowych niespodziewanych rozwiązań i w abstrakcyjnej sferze algorytmów i w materialnej sferze techniki.
Popatrzmy, jakie byłyby tego praktyczne konsekwencje dla aktorów globalizacji, w szczególności dla państw, ich elit decydenckich oraz elektoratów. Spór między liberalizmem i etatyzmem, rozpisany na szczegółowe kwestie (podatki, ubezpieczenia itd.) dotyczy - zgódźmy się - materii tak złożonej, że w obecnym stanie mocy obliczeniowych nie da się ująć adekwatnie w żadnym modelu obliczeniowym. Ale przy wykładniczym wzroście mocy obliczeniowej, który nam zapewnia prawo Moore'a wsparte przekonaniem filozoficznym, iż limitujące go co pewien czas progi będą pokonywalne, możemy być spokojni, że spór zostanie rozstrzygnięty ekperymentalnie w świecie wiernie oddających rzeczywistość modeli obliczeniowych, przestając być kwestią ideologiczną. Zamiast eksperymentów na żywym ciele społeczeństwa, z okrucieństwem rewolucji i klęskami poronionych projektów, rzecz rozsądzi, i to konkluzywnie, eksperyment odwzorowujący w modelach cyfrowych konkurencyjne rozwiązania ustrojowe.
Państwo realizujące wzorzec ustrojowy, który zwycięży w takim eksperymencie okaże się państwem inteligentniejszym niż to, które postawi na wzorzec przeciwny. A że państwa grają główne role w koncercie gospodarki globalnej, im więcej takich aktorów wniesie doń wysoką inteligencję, czyli wysoką obliczalność i moc obliczeniową, z tym większą dla wszystkich stron korzyścią będzie on się rozgrywać. Przybliżyć świat do tego stanu - oto wyzwanie dla nauk społecznych, gdy zostaną wyposażone w potężną technologię obliczeniową. Do takiej technologii jest jeszcze może daleko, a i świadomość jej potrzeby jest wśród badaczy nikła (zwłaszcza w kraju Sarmatów). Co do pierwszej obiekcji, mamy podstawy wierzyć, że góra lodowa praktycznej nieobliczalności będzie coraz bardziej topnieć dzięki nieograniczonemu rośnięciu w sposób wykładniczy mocy obliczeniowej.
Co się zaś tyczy drugiej, to nadzieja w sztafecie pokoleń. Przyszłe generacje badaczy zjawisk społecznych będą w zagadnieniach przetwarzania informacji czuć się jak u siebie w domu. Wspomnijmy więc na koniec, jak to w erze przedinformatycznej, gdy umysł i potencjał informacyjny nazywano duszą, apelował poeta do ówczesnej nowej generacji:
Szukajcie nowych nieodkrytych dróg!
Za każdym krokiem w tajniki stworzenia
Coraz siÄ™ dusza ludzka rozprzestrzenia ...
Dziś wiemy, że rozprzestrzenia się według wzoru na nieograniczony wzrost wykładniczy.
PRZYPISY
9. Na motto dla tego ustępu dobrze nadaje się zdanie, które napisał Javier Solana, Sekretarz Generalny Rady UE: The quality of international society depends on the quality of the governments that are its foundation. Artykuł Jointly does it [w:] The World in 2005, wydanie specjalne The Economist, 2004, s.85. Powrót do tekstu.
10. B. Kliksberg (Ed.), Towards an Intelligent State, Volume 15 International Institute of Administrative Sciences Monographs, 2001. Zob. też Michael Connors, Race to the Intelligent State: Charting the Global Information Economy Into the 21st Century, John Wiley and Sons, 2001. Powrót do tekstu.
11. W odniesieniu do historii Anglii przekonująco i barwnie, przywołując postacie takich mnichów jak św. Beda i Alkuin, opisuje wiek siódmy i następne G.M.Trevelyan w A Shortened History of England, Longmans, Green and Co., New York 1942. Zob. Book One, Ch.IV, ss. 63nn. wg wydania 1976. Powrót do tekstu.
12. Jest to rozróżnienie ważne dla kształtowania świadomości ekonomicznej obywateli, których znaczna masa przejawia skłonności ksenofobiczne wobec kontrahentów zamożniejszych, podejrzewanych o chęć użycia swej siły dla wyzyskania słabszego. Tendencja ta znajduje pozory uzasadnienia w negatywnych skutkach napływu inwestycji portfelowych, czyli takich, które polegają na wykupie papierów wartościowych danego kraju. W warunkach globalizacji, sprzyjających błyskawicznym transakcjom, daje to możliwość nagłej sprzedaży papierów, a więc wycofania tak zainwestowanego kapitału z danego kraju. Przy wielkiej skali wyprzedaży grozi to kryzysem walutowym, a wobec chaotycznej natury tego rodzaju procesów (wyzwala je np. plotka polityczna) może stać się dla kraju katastrofalne. Takich zagrożeń nie stwarzają inwestycje bezpośrednie, których wielostronnie trwały charakter (budowa fabryk, wchodzenie w wieloletnie powiązania kooperacyjne) zapobiega nieprzewidywalnym spekulacjom finansowym. Powrót do tekstu.
13. Ujawnia się przy tej okazji zamęt myślowy biorący się z określeń ,,prawica, lewica, centrum'', z czym łączy się mówienie o stanowiskach prawicowym i lewicowym jako skrajnych lub radykalnych; w tym zaś domyślna jest pochwała umiarkowania mającego cechować centrum. Taka politologiczna geometria podpowiada mylnie, że w centrum znajduje się coś takiego, jak trzecia droga, co dawałoby jej patent na kojarzoną z centrowością rozwagę. Trudno jednak projekt tak utopijny - chcący przedsiębiorców zastąpić biurokratami - zaliczać do rozważnych. Rozważny jest natomiast, choćby z racji wsparcia się na wiedzy informatycznej, pogląd skrajny, postulujący daleko posuniętą wolność rynku, maksymalną autonomię samorządów itd. Powrót do tekstu.
14. Cecha wieloagentowości jest omówiona dalej, przy końcu tego fragmentu. Probabilistyczność i dodatnie sprzężenie zwrotne także odnoszą się do funkcjonowania rynku, ale ich omówienie nie mieści się w ramach tego eseju. Powrót do tekstu.
15. >>How can the combination of fragments of knowledge existing in different minds bring about results which, if they were to be brought about deliberately, would require a knowledge on the part of the directing mind which no single person can possess?<< F.A.Hayek Economics and Knowledge in: F.A.Hayek (Ed.) Individualism and Economic Order, Chicago University Press, Chicago 1948, strona 54. Powrót do tekstu.
16. Oto jak Hayek pisze o tym procesie. >>In abbreviated form, by a kind of symbol, only the most essential information is passed on only to those concerned. It is more than a metaphor to describe the price system as a kind of machinery for registering change, or a system of telecommunications which enables individual producers to watch merely the movement of a few pointers, as an engineer might watch the hands of a few dials, in order to adjust their activities to changes of which they may never know more than is reflected in the price movement.<< Individualism and Economic Order, University of Chicago Press, Chicago 1948, strona 86n. Termin ,,distributed knowledge'' został wprowadzony przez innych autorów, ale z intencją oddania myśli Hayeka.Powrót do tekstu.
17. Zob. Piotr Kowalski, Przetwarzanie centralne czy rozproszone? [w:] Informatyka, nr 3/1998. Powrót do tekstu.
18. Rozróżnienie tych odmian, choć skądinąd znaczące, w obecnych rozważaniach nie będzie dalej potrzebne. Obie formacje etatystyczne głoszą podobne projekty interwencji państwa w gospodarkę, z tym że tzw. Prawica (nacjonalistyczna) postuluje także interwencję państwa w sferę wyznawanych przez obywateli wartości, gdy tzw. nowa lewica (odżegnująca się od komunizmu) optuje na rzecz pluralizmu i tolerancji. Powrót do tekstu.
19. John von Neumann and Oskar Morgenstern, Theory of Games and Economic Behavior, 1944. Powrót do tekstu.
20. Zobacz www.alife.pl/portal/articles/p/piwowarczyk1.html, jak również stronę www.math.com/students/wonders/life/life.html. W sprawie zastosowań w naukach społecznych zob. www.calculemus.org/neumann. Summę wiedzy o automatach komórkowych i ich zastosowaniach stanowi monumentalna książka Stephena Wolfram A New Kind of Science, Wolfram Research, 2002. Powrót do tekstu.
21. Por. M.Wooldridge and N.Jennings, Intelligent agents: Theory and practice [w:] The Knowledge Engineering Review, 10(2), 1995. Powrót do tekstu.
22. Nicolaas J. Vriend, Was Hayek an Ace? [w:] Southern Economic Journal 2002, 68(4), 811840, strona 1. www.qmul.ac.uk/~ugte173/abs/abs.sej.html. Powrót do tekstu.
23. Twórczość Oskara Langego, wybitnego polskiego ekonomisty orientacji socjalistycznej, jest dla obecnych rozważań szczególnie znacząca, ponieważ to u niego, zwłaszcza w tekstach polemizujących z Hayekiem, centralną rolę pełni pojęcie mocy obliczeniowej. Lange bronił tezy, ze centralne planowanie socjalistyczne jest praktycznie wykonalne pod warunkiem dysponowania przez planistę odpowiednio wielką mocą obliczeniową, którą spodziewał się uzyskać dzięki komputerom - takim, jakie znał w latach 60tych. Ten ważny wątek jedynie sygnalizuję, szersze omówienie przekraczałoby ramy niniejszego tekstu. Założenia teorii Langego zawiera jego praca On the Economic Theory of Socialism [w:] Review of Economic Studies 4(1): 5371, October 1936, oraz 4(2): 123142, February 1937; w formie książkowej wydane przez University of Minnesota Press, 1938, przedruk McGrawHill, 1964. Obszerne omówienie dyskusji wokół Langego, dokonane z pozycji jego zwolenników, zawiera artykuł: Alin Cottrell W.Paul Cockshott: Calculation, Complexity and Planning: The Socialist Calculation Debate Once Again [w:] Review of Political Economy, vol.5, no.1, July 1993, 73112. Powrót do tekstu.
24. Do tego miejsca dane o prawie Moore'a są zaczerpnię Ryszkiewicza Życie wieczne wirtualne [w:] Wiedza i Życie, luty 2005, nr 2. Powrót do tekstu.
25. Zob. Derek J. de Sollo Price, Węzłowe problemy historii nauki, PWN, Warszawa 1965, seria Omega, tłum. Halina Krahelska, rozdział 5. Oryginał: Science since Babylon, Yale University Press, 1961. Prawidłowości te dały się zauważyć także w Polsce, zarówno w okresie 1918 - 1939, jak 19441974; omawiam je w artykule Przemiany koncepcji uniwersytetu w okresie trzydziestolecia PRL [w:] Roczniki Uniwersytetu Warszawskiego, 1975. Powrót do tekstu.