W kwietniu 2000 roku ukazał się artykuł Billa Joya Why the Future Doesn't Need Us czyli Dlaczego przyszłość nas nie potrzebuje.
Bill Joy, to współzałożyciel i główny naukowiec firmy Sun Microsystems, był współprzewodniczącym prezydenckiej komisji ds. przyszłości badań informatycznych i współautorem specyfikacji języka Java.
Jego artykuł zajmuje się kwestiami pomijanymi a dotyczącymi przyszłości gatunku ludzkiego. Jako jedyny zadaje najważniejsze pytanie: a co jeśli okaże się, że ludzie są niepotrzebni?
„Dzięki udoskonalonym technikom elita będzie miała większą kontrolę nad masami; a ponieważ praca ludzka nie będzie już konieczna, masy będą zbędne, bezużyteczne obciążenie dla systemu. Jeśli elita okaże się bezwzględna, może po prostu zdecydować się na eksterminację mas ludzkości. Jeśli są humanitarni, mogą używać propagandy lub innych technik psychologicznych lub biologicznych, aby zmniejszyć wskaźnik urodzeń, aż do wyginięcia mas ludzkości, pozostawiając świat elicie. Lub, jeśli elita składa się z liberałów o miękkich sercach, może zdecydować się odegrać rolę dobrych pasterzy wobec reszty rasy ludzkiej.
Wkraczamy w nowy wiek bez planu, bez kontroli i bez hamulców. Czy nie zaszliśmy już zbyt daleko, aby zmienić kurs? Nie sądzę, ale jeszcze nie próbujemy, a ostatnia szansa na przejęcie kontroli – bezpieczny punkt – szybko się zbliża. Przełom w dzikiej samoreplikacji w robotyce, inżynierii genetycznej czy nanotechnologii może nastąpić nagle, ponownie wywołując zdziwienie, jakie odczuliśmy, gdy dowiedzieliśmy się o klonowaniu ssaka.
Powinniśmy byli wyciągnąć wnioski z budowy pierwszej bomby atomowej i wynikającego z niej wyścigu zbrojeń. Nie radziliśmy sobie wtedy dobrze, a podobieństwo do naszej obecnej sytuacji jest niepokojące.
Ale teraz, mając perspektywę uzyskania mocy obliczeniowej na poziomie człowieka za około 30 lat, nasuwa się nowy pomysł: być może będę pracować nad stworzeniem narzędzi, które umożliwią zbudowanie technologii, która może zastąpić nasz gatunek
Wydaje mi się bardziej niż prawdopodobne, że przyszłość nie będzie układała się tak dobrze, jak niektórzy mogą sobie wyobrazić.
„Rośliny” posiadające „liście” nie bardziej wydajne niż dzisiejsze ogniwa słoneczne mogłyby konkurować z prawdziwymi roślinami, zapychając biosferę niejadalnym ulistnieniem. Wytrzymałe wszystkożerne „bakterie” mogą konkurować z prawdziwymi bakteriami: mogą rozprzestrzeniać się niczym pyłek, szybko się replikować i w ciągu kilku dni obrócić biosferę w pył. Niebezpieczne replikatory mogą z łatwością okazać się zbyt wytrzymałe, małe i szybko się rozprzestrzeniać, aby je zatrzymać — przynajmniej jeśli się nie przygotujemy. Mamy dość problemów z kontrolowaniem wirusów i muszek owocowych.
„Od chwili kiedy zaangażowałem się w tworzenie nowych technologii, niepokoił mnie ich wymiar etyczny, ale dopiero jesienią 1998 roku z niepokojem uświadomiłem sobie, jak wielkie niebezpieczeństwa czyhają na nas w XXI wieku. Początek mojego niepokoju mogę datować na dzień, w którym poznałem Raya Kurzweila , zasłużonego na sławę wynalazcę pierwszego urządzenia do czytania dla niewidomych i wielu innych niesamowitych rzeczy.
Obaj z Rayem byliśmy prelegentami na konferencji Telecosm George'a Gildera i spotkałem go przypadkowo w hotelowym barze, po zakończeniu obu naszych sesji. Siedziałem z Johnem Searle, filozofem z Berkeley, który bada świadomość. Kiedy rozmawialiśmy, podszedł Ray i rozpoczęła się rozmowa, której temat prześladuje mnie do dziś.
Przegapiłem wystąpienie Raya i kolejny panel, w którym brali udział Ray i John, a teraz kontynuowali tam, gdzie skończyli, i Ray powiedział, że tempo udoskonalania technologii przyspieszy i że zamierzamy stać się robotami lub połączyć się z robotami lub coś w tym rodzaju, a John odpowiedział, że to nie może się zdarzyć, ponieważ roboty nie mogą być świadome .
Chociaż słyszałem już takie rozmowy, zawsze miałem wrażenie, że czujące roboty to tylko sfera science fiction. Ale teraz od kogoś, kogo szanowałem, usłyszałem mocny argument, że jest to możliwe w najbliższej przyszłości. Byłem zaskoczony, szczególnie biorąc pod uwagę udowodnioną zdolność Raya do wyobrażania sobie i tworzenia przyszłości. Wiedziałem już, że nowe technologie, takie jak inżynieria genetyczna i nanotechnologia, dają nam moc do przebudowy świata, ale realistyczny i nieuchronny scenariusz inteligentnych robotów mnie zaskoczył.
Łatwo popaść w znużenie takimi przełomowymi osiągnięciami. Niemal codziennie w wiadomościach słyszymy o jakimś postępie technologicznym lub naukowym. Nie była to jednak zwykła przepowiednia. W hotelowym barze Ray dał mi częściowy wydruk swojej książki, która miała się wkrótce ukazać, The Age of Spiritual Machines , w której nakreślił przewidywaną przez niego utopię – taką, w której ludzie osiągną niemal nieśmiertelność, łącząc się z technologią robotyczną. Czytając to, moje poczucie niepokoju tylko się nasiliło; Byłem pewien, że nie docenia niebezpieczeństw i prawdopodobieństwa złego wyniku na tej ścieżce.
Najbardziej zaniepokoił mnie fragment opisujący szczegółowo scenariusz dystopijny:
Nowe wyzwanie luddyjskie
Załóżmy najpierw, że informatykom udało się opracować inteligentne maszyny, które potrafią zrobić wszystko lepiej niż ludzie. W takim przypadku prawdopodobnie cała praca będzie wykonywana przez rozległe, wysoce zorganizowane systemy maszyn i nie będzie potrzebny żaden wysiłek człowieka. Może wystąpić jeden z dwóch przypadków. Maszyny mogą mieć możliwość podejmowania wszystkich własnych decyzji bez nadzoru człowieka, w przeciwnym razie kontrola człowieka nad maszynami może zostać zachowana.
Jeśli pozwolimy maszynom podejmować wszystkie własne decyzje, nie możemy snuć żadnych domysłów co do wyników, ponieważ nie da się odgadnąć, jak takie maszyny mogłyby się zachować. Zwracamy jedynie uwagę, że los rodzaju ludzkiego byłby zdany na łaskę maszyn. Można argumentować, że ludzkość nigdy nie byłaby na tyle głupia, aby przekazać całą władzę maszynom. Nie sugerujemy jednak, że rasa ludzka dobrowolnie oddałaby władzę maszynom, ani że maszyny umyślnie przejęłyby władzę. Sugerujemy jedynie, że rasa ludzka mogłaby z łatwością pozwolić sobie na dryfowanie do pozycji takiej zależności od maszyn, że nie miałaby praktycznego wyboru, jak tylko zaakceptować wszystkie decyzje maszyn. W miarę jak społeczeństwo i stojące przed nim problemy stają się coraz bardziej złożone, a maszyny stają się coraz bardziej inteligentne, ludzie będą pozwalać maszynom podejmować za nich więcej decyzji, po prostu dlatego, że decyzje podejmowane przez maszyny przyniosą lepsze rezultaty niż te podjęte przez człowieka. W końcu może dojść do etapu, w którym decyzje niezbędne do utrzymania działania systemu będą tak złożone, że ludzie nie będą w stanie podejmować ich w sposób inteligentny. Na tym etapie maszyny będą miały skuteczną kontrolę. Ludzie nie będą mogli po prostu wyłączyć maszyn, bo będą od nich tak zależni, że wyłączenie ich byłoby równoznaczne z samobójstwem.
Z drugiej strony możliwe jest zachowanie kontroli człowieka nad maszynami. W takim przypadku przeciętny człowiek będzie mógł mieć kontrolę nad pewnymi własnymi maszynami, takimi jak jego samochód czy komputer osobisty, ale kontrola nad dużymi systemami maszyn będzie w rękach maleńkiej elity – tak jak ma to miejsce dzisiaj, ale z dwiema różnicami. Dzięki udoskonalonym technikom elita będzie miała większą kontrolę nad masami; a ponieważ praca ludzka nie będzie już konieczna, masy będą zbędne, bezużyteczne obciążenie dla systemu. Jeśli elita okaże się bezwzględna, może po prostu zdecydować się na eksterminację mas ludzkości. Jeśli są humanitarni, mogą używać propagandy lub innych technik psychologicznych lub biologicznych, aby zmniejszyć wskaźnik urodzeń, aż do wyginięcia mas ludzkości, pozostawiając świat elicie. Lub, jeśli elita składa się z liberałów o miękkich sercach, może zdecydować się odegrać rolę dobrych pasterzy wobec reszty rasy ludzkiej. Dopilnują, aby potrzeby fizyczne wszystkich zostały zaspokojone, aby wszystkie dzieci były wychowywane w higienicznych warunkach psychologicznych, aby każdy miał zdrowe hobby, które zajmie go zajęcie, i aby każdy, kto może stać się niezadowolony, został poddany „leczeniu”, aby wyleczyć jego „problem”. ” Oczywiście życie będzie tak bezcelowe, że ludzie będą musieli zostać poddani inżynierii biologicznej lub psychologicznej, aby albo wyeliminować potrzebę procesu władzy, albo sprawić, że „sublimują” swoje dążenie do władzy w jakieś nieszkodliwe hobby. Ci skonstruowani ludzie mogą być szczęśliwi w takim społeczeństwie, ale z pewnością nie będą wolni. Zostaną zredukowani do statusu zwierząt domowych.
W książce dopiero po przewróceniu strony odkrywasz, że autorem tego fragmentu jest Theodore Kaczyński – Unabomber. Nie jestem apologetą Kaczyńskiego. Jego bomby zabiły trzy osoby podczas 17-letniej kampanii terrorystycznej i raniły wiele innych. Jedna z jego bomb poważnie zraniła mojego przyjaciela Davida Gelerntera, jednego z najwybitniejszych i najbardziej wizjonerskich informatyków naszych czasów. Podobnie jak wielu moich kolegów, czułem, że z łatwością mogłem być kolejnym celem Unabombera.
Działania Kaczyńskiego były mordercze i moim zdaniem zbrodniczo szalone. Jest niewątpliwie luddystą, ale samo stwierdzenie tego nie podważa jego argumentu; choć trudno mi to przyznać, dostrzegłem pewną wartość w rozumowaniu zawartym w tym pojedynczym fragmencie. Poczułem potrzebę skonfrontowania się z tym.
Dystopijna wizja Kaczyńskiego opisuje niezamierzone konsekwencje, dobrze znany problem z projektowaniem i stosowaniem technologii, który jest wyraźnie powiązany z prawem Murphy'ego: „Wszystko, co może pójść źle, to się stanie”. (Właściwie jest to prawo Finagle'a, które samo w sobie pokazuje, że Finagle miał rację.) Nadmierne stosowanie antybiotyków doprowadziło do prawdopodobnie największego jak dotąd problemu: pojawienia się bakterii opornych na antybiotyki i znacznie bardziej niebezpiecznych. Podobnie działo się, gdy próby wyeliminowania komarów wywołujących malarię za pomocą DDT spowodowały, że nabyły one oporność na DDT; Pasożyty malarii również nabyły geny oporności wielolekowej.
Przyczyna wielu takich niespodzianek wydaje się jasna: zaangażowane systemy są złożone i obejmują interakcję między wieloma częściami i sprzężenie zwrotne między nimi. Wszelkie zmiany w takim systemie będą następować kaskadowo w sposób trudny do przewidzenia; jest to szczególnie prawdziwe, gdy w grę wchodzą działania ludzkie.
Zacząłem pokazywać znajomym cytat Kaczyńskiego z Wieku maszyn duchowych ; Podawałem im książkę Kurzweila, pozwalałem przeczytać cytat, a potem obserwowałem ich reakcję, gdy dowiedzieli się, kto ją napisał. Mniej więcej w tym samym czasie znalazłem książkę Hansa Moraveca Robot: Mere Machine to Transcendent Mind . Moravec jest jednym z liderów badań nad robotyką i założycielem największego na świecie programu badawczego w dziedzinie robotyki na Uniwersytecie Carnegie Mellon. Robot dał mi więcej materiału do wypróbowania na znajomych – materiału zaskakująco potwierdzającego argumentację Kaczyńskiego. Na przykład:
Krótki bieg (początek XXI wieku)
Gatunki biologiczne prawie nigdy nie przeżywają spotkań z lepszymi konkurentami. Dziesięć milionów lat temu Amerykę Południową i Północną oddzielił zatopiony przesmyk panamski. Amerykę Południową, podobnie jak dzisiejszą Australię, zamieszkiwały ssaki torbacze, w tym workowate odpowiedniki szczurów, jeleni i tygrysów. Kiedy podniósł się przesmyk łączący Amerykę Północną i Południową, zajęło zaledwie kilka tysięcy lat północnym gatunkom łożyskowym, o nieco wydajniejszym metabolizmie oraz układzie rozrodczym i nerwowym, wyparcie i wyeliminowanie prawie wszystkich południowych torbaczy.
Na całkowicie wolnym rynku lepsze roboty z pewnością wpłynęłyby na ludzi, tak jak północnoamerykańskie łożyskowce wpłynęły na torbacze w Ameryce Południowej (i tak jak ludzie wpłynęli na niezliczone gatunki). Przemysł robotyczny energicznie konkurowałby między sobą o materię, energię i przestrzeń, przypadkowo podnosząc ich cenę poza zasięg człowieka. Niezdolni do zaspokojenia potrzeb życiowych, biologiczni ludzie zostaliby wyparci z istnienia.
Prawdopodobnie jest trochę miejsca na oddech, ponieważ nie żyjemy w całkowicie wolnym rynku. Rząd wymusza zachowania nierynkowe, zwłaszcza poprzez pobieranie podatków. Rozsądnie zastosowany przymus rządowy mógłby w wielkim stylu wspierać populacje ludzkie w oparciu o owoce pracy robotów, być może przez długi czas.
Podręcznikowa dystopia, Moravca właśnie się rozkręca. Następnie omawia, że naszym głównym zadaniem w XXI wieku będzie „zapewnianie ciągłej współpracy ze strony przemysłu robotycznego” poprzez uchwalanie przepisów stanowiących, że są one „miłe”, oraz opisuje, jak poważnie niebezpieczny może być człowiek „po przekształceniu się w nieograniczonego superinteligentnego robota.” Moravec uważa, że roboty w końcu nas zastąpią – że ludziom niewątpliwie grozi wyginięcie.
Zdecydowałem, że nadszedł czas, aby porozmawiać z moim przyjacielem Dannym Hillisem. Danny zasłynął jako współzałożyciel Thinking Machines Corporation, która zbudowała bardzo potężny superkomputer równoległy. Pomimo mojego obecnego stanowiska głównego naukowca w firmie Sun Microsystems jestem bardziej architektem komputerowym niż naukowcem i szanuję wiedzę Danny'ego w zakresie informacji i nauk fizycznych bardziej niż wiedzę jakiejkolwiek innej osoby, którą znam. Danny jest także cenionym futurystą, który myśli długoterminowo — cztery lata temu założył Fundację Long Now, która buduje zegar zaprojektowany na 10 000 lat, próbując zwrócić uwagę na żałośnie krótki czas uwagi naszego społeczeństwa.
Poleciałem więc do Los Angeles specjalnie w celu zjedzenia kolacji z Dannym i jego żoną Pati. Wykonałem znajomą już rutynę, wypisując pomysły i fragmenty, które wydały mi się tak niepokojące. Odpowiedź Danny'ego – odnosząca się konkretnie do scenariusza Kurzweila, w którym ludzie łączą się z robotami – nadeszła szybko i całkiem mnie zaskoczyła. Powiedział po prostu, że zmiany będą następować stopniowo i że się do nich przyzwyczaimy.
Ale chyba nie byłem całkowicie zaskoczony. Widziałem cytat Danny’ego w książce Kurzweila, w którym powiedział: „Lubię swoje ciało tak samo jak każdy, ale jeśli mogę mieć 200 lat w krzemowym ciele, wezmę to”. Wydawało się, że pogodził się z tym procesem i towarzyszącym mu ryzykiem, podczas gdy ja nie.
Rozmawiając i myśląc o Kurzweilu, Kaczyńskim i Moravecu, nagle przypomniałem sobie powieść, którą przeczytałem prawie 20 lat temu – Białą zarazę Franka Herberta – w której biolog molekularny doprowadza się do szaleństwa bezsensownym morderstwem swojej rodziny. Chcąc się zemścić, konstruuje i rozprzestrzenia nową, wysoce zaraźliwą zarazę, która zabija szeroko, ale selektywnie. (Mamy szczęście, że Kaczyński był matematykiem, a nie biologiem molekularnym.) Przypomniał mi się także Borg ze Star Trek , ul składający się częściowo z biologicznych, częściowo zrobotyzowanych stworzeń o silnym działaniu destrukcyjnym. Katastrofy podobne do Borgów są podstawą science fiction, więc dlaczego wcześniej nie martwiłem się bardziej takimi robotami dystopiami? Dlaczego inni ludzie nie byli bardziej zaniepokojeni tymi koszmarnymi scenariuszami?
Część odpowiedzi z pewnością leży w naszym podejściu do nowego – w naszym nastawieniu na natychmiastową zażyłość i niekwestionowaną akceptację. Przyzwyczajeni do życia z niemal rutynowymi przełomami naukowymi, nie możemy jeszcze pogodzić się z faktem, że najbardziej fascynujące technologie XXI wieku – robotyka, inżynieria genetyczna i nanotechnologia – stwarzają inne zagrożenie niż technologie, które pojawiły się wcześniej. W szczególności roboty, organizmy zmodyfikowane i nanoboty mają wspólną niebezpieczną cechę wzmacniającą: potrafią się samoreplikować. Bomba wybucha tylko raz, ale jeden bot może stać się wieloma i szybko wymknąć się spod kontroli.
Duża część mojej pracy w ciągu ostatnich 25 lat dotyczyła sieci komputerowych, w których wysyłanie i odbieranie wiadomości stwarza możliwość niekontrolowanej replikacji. Chociaż replikacja w komputerze lub sieci komputerowej może być uciążliwa, w najgorszym przypadku powoduje wyłączenie komputera lub wyłączenie sieci lub usługi sieciowej. Niekontrolowana samoreplikacja w tych nowszych technologiach niesie ze sobą znacznie większe ryzyko: ryzyko znacznych szkód w świecie fizycznym.
Każda z tych technologii oferuje również niewypowiedziane obietnice: wizja niemal nieśmiertelności, którą Kurzweil widzi w swoich snach o robotach, popycha nas do przodu; inżynieria genetyczna może wkrótce zapewnić leczenie, jeśli nie całkowite wyleczenie, większości chorób; a nanotechnologia i nanomedycyna mogą zaradzić jeszcze większej liczbie problemów. Razem mogłyby znacząco wydłużyć naszą średnią długość życia i poprawić jakość naszego życia. Jednak w przypadku każdej z tych technologii sekwencja małych, indywidualnie rozsądnych postępów prowadzi do akumulacji wielkiej mocy i jednocześnie wielkiego niebezpieczeństwa.
Co było innego w XX wieku? Z pewnością technologie leżące u podstaw broni masowego rażenia (BMR) – nuklearne, biologiczne i chemiczne (NBC) – były potężne, a broń ta stanowiła ogromne zagrożenie. Jednak budowa broni nuklearnej wymagała, przynajmniej przez pewien czas, dostępu zarówno do rzadkich – w istocie praktycznie niedostępnych – surowców, jak i ściśle chronionych informacji; programy dotyczące broni biologicznej i chemicznej również zwykle wymagały działań na dużą skalę.
Technologie XXI wieku — genetyka, nanotechnologia i robotyka (GNR) — są tak potężne, że mogą spowodować zupełnie nowe rodzaje wypadków i nadużyć. Co najbardziej niebezpieczne, po raz pierwszy te wypadki i nadużycia są szeroko dostępne dla pojedynczych osób lub małych grup. Nie będą wymagały dużych obiektów ani rzadkich surowców. Sama wiedza umożliwi ich wykorzystanie.
Zatem mamy możliwość nie tylko powstania broni masowego rażenia, ale także masowego rażenia opartego na wiedzy (KMD), a ta destrukcyjność jest ogromnie wzmocniona przez siłę samoreplikacji.
Myślę, że nie będzie przesadą stwierdzenie, że jesteśmy u progu dalszego doskonalenia skrajnego zła, zła, którego możliwości wykraczają daleko poza to, co broń masowego rażenia przekazała państwom narodowym, ku zaskakującemu i straszliwemu wzmocnieniu skrajnych osoby.
Nie jestem luddytą. Zawsze raczej mocno wierzyłem w wartość naukowych poszukiwań prawdy i w zdolność wielkiej inżynierii do zapewnienia postępu materialnego. Rewolucja przemysłowa w ciągu ostatnich kilkuset lat ogromnie poprawiła życie wszystkich ludzi i zawsze spodziewałem się, że moja kariera będzie polegać na budowaniu wartościowych rozwiązań rzeczywistych problemów, po jednym problemie na raz.
Nie zawiodłem się. Moja praca wywarła większy wpływ, niż się spodziewałem, i została szerzej wykorzystana, niż mogłem się rozsądnie spodziewać. Ostatnie 20 lat spędziłem wciąż próbując wymyślić, jak sprawić, by komputery były tak niezawodne, jak tego chcę (nie są jeszcze prawie ukończone) i jak uczynić je prostymi w obsłudze (cel, który spotkał się z jeszcze mniej względnym powodzenie). Pomimo pewnego postępu, istniejące problemy wydają się jeszcze bardziej zniechęcające.
Ale choć zdawałem sobie sprawę z dylematów moralnych związanych z konsekwencjami technologii w takich dziedzinach jak badania nad bronią, nie spodziewałem się, że stanę przed takimi problemami w mojej własnej dziedzinie, a przynajmniej nie tak szybko.
Zawsze trudno dostrzec większy wpływ, gdy znajdujesz się w wirze zmian. Niezrozumienie konsekwencji naszych wynalazków w okresie zachwytu odkryciami i innowacjami wydaje się być częstym błędem naukowców i technologów; Od dawna kieruje nami nadrzędne pragnienie poznania natury poszukiwań nauki, nie przestając zauważać, że postęp w kierunku nowszych i potężniejszych technologii może zacząć żyć własnym życiem.
Już dawno zdałem sobie sprawę, że ogromny postęp w technologii informacyjnej nie jest efektem pracy informatyków, architektów komputerów czy inżynierów elektryków, ale fizyków. Fizycy Stephen Wolfram i Brosl Hasslacher wprowadzili mnie na początku lat 80. w teorię chaosu i systemy nieliniowe. W latach 90. o złożonych układach dowiedziałem się z rozmów z Dannym Hillisem, biologiem Stuartem Kauffmanem, fizykiem-laureatem Nagrody Nobla Murrayem Gell-Mannem i innymi. Ostatnio Hasslacher oraz inżynier elektryk i fizyk zajmujący się urządzeniami Mark Reed dali mi wgląd w niesamowite możliwości elektroniki molekularnej.
W mojej własnej pracy, jako współprojektant trzech architektur mikroprocesorów — SPARC, picoJava i MAJC — oraz jako projektant kilku ich implementacji, mogłem dogłębnie i z pierwszej ręki zapoznać się z prawem Moore'a. Przez dziesięciolecia prawo Moore'a prawidłowo przewidywało wykładnicze tempo udoskonalania technologii półprzewodników. Do zeszłego roku wierzyłem, że tempo postępu przewidywane przez prawo Moore'a może trwać tylko do mniej więcej 2010 roku, kiedy zaczną się osiągać pewne fizyczne granice. Nie było dla mnie oczywiste, że nowa technologia pojawi się na czas, aby zapewnić płynny wzrost wydajności.
Jednak ze względu na niedawny szybki i radykalny postęp w elektronice molekularnej – w której pojedyncze atomy i cząsteczki zastępują tranzystory rysowane litograficznie – oraz pokrewnych technologiach w skali nano, powinniśmy być w stanie osiągnąć lub przekroczyć tempo postępu zgodne z prawem Moore'a przez kolejne 30 lat. Do 2030 roku prawdopodobnie będziemy w stanie produkować maszyny milion razy potężniejsze od dzisiejszych komputerów osobistych – wystarczające do realizacji marzeń Kurzweila i Moraveca.
Gdy tę ogromną moc obliczeniową połączy się z manipulacyjnym postępem nauk fizycznych i nowym, głębokim zrozumieniem genetyki, uwolniona zostanie ogromna moc transformacyjna. Kombinacje te otwierają możliwość całkowitego przeprojektowania świata, na lepsze lub na gorsze: replikujące się i ewoluujące procesy, które ograniczały się do świata przyrody, wkrótce staną się domeną ludzkich wysiłków.
Projektując oprogramowanie i mikroprocesory nigdy nie miałem poczucia, że projektuję inteligentną maszynę. Oprogramowanie i sprzęt są tak delikatne, a zdolność maszyny do „myślenia” tak wyraźnie nieobecna, że nawet jako możliwość zawsze wydawało się to bardzo odległą przyszłością.
Ale teraz, mając perspektywę uzyskania mocy obliczeniowej na poziomie człowieka za około 30 lat, nasuwa się nowy pomysł: być może będę pracować nad stworzeniem narzędzi, które umożliwią zbudowanie technologii, która może zastąpić nasz gatunek. Co o tym myślę? Bardzo niewygodnie. Po całej mojej karierze zmagającej się z tworzeniem niezawodnych systemów oprogramowania wydaje mi się bardziej niż prawdopodobne, że przyszłość nie będzie układała się tak dobrze, jak niektórzy mogą sobie wyobrazić. Z mojego osobistego doświadczenia wynika, że mamy tendencję do przeceniania naszych możliwości projektowych.
Biorąc pod uwagę niesamowitą moc tych nowych technologii, czy nie powinniśmy zadać sobie pytania, jak najlepiej możemy z nimi współistnieć? A jeśli nasze własne wyginięcie jest prawdopodobnym, a nawet możliwym wynikiem naszego rozwoju technologicznego, czy nie powinniśmy postępować z dużą ostrożnością?
Sen o robotyce polega po pierwsze na tym, że inteligentne maszyny mogą wykonać za nas pracę, umożliwiając nam spokojne życie i przywracając nas do Edenu. Jednak w swojej historii takich idei Darwin Among the Machines George Dyson ostrzega: „W grze o życie i ewolucję przy stole uczestniczy trzech graczy: istoty ludzkie, natura i maszyny. Jestem zdecydowanie po stronie natury. Podejrzewam jednak, że natura stoi po stronie maszyn. Jak widzieliśmy, Moravec zgadza się z tym, wierząc, że możemy nie przetrwać spotkania z lepszym gatunkiem robotów.
Jak szybko można by zbudować tak inteligentnego robota? Wydaje się, że nadchodzący postęp w mocy obliczeniowej umożliwi to do roku 2030. A kiedy inteligentny robot powstanie, już tylko mały krok do gatunku robota – do inteligentnego robota, który potrafi tworzyć wyewoluowane kopie samego siebie.
Drugim marzeniem robotyki jest to, że będziemy stopniowo zastępować się naszą robotyczną technologią, osiągając niemal nieśmiertelność poprzez pobieranie naszej świadomości; jest to proces, do którego, według Danny'ego Hillisa, będziemy się stopniowo przyzwyczajać i który Ray Kurzweil elegancko opisuje w The Age of Spiritual Machines . (Zaczynamy dostrzegać oznaki tego we wszczepianiu urządzeń komputerowych w ludzkie ciało)
Ale jeśli zostaniemy wczytani w naszą technologię, jakie są szanse, że odtąd będziemy sobą, a nawet ludźmi? Wydaje mi się o wiele bardziej prawdopodobne, że egzystencja robotyczna nie byłaby podobna do ludzkiej w jakimkolwiek sensie, jaki rozumiemy, że roboty w żadnym wypadku nie byłyby naszymi dziećmi i że na tej ścieżce może zostać utracone nasze człowieczeństwo.
Inżynieria genetyczna obiecuje zrewolucjonizować rolnictwo poprzez zwiększenie plonów przy jednoczesnym ograniczeniu stosowania pestycydów; stworzyć dziesiątki tysięcy nowych gatunków bakterii, roślin, wirusów i zwierząt; zastąpienie reprodukcji lub uzupełnienie jej klonowaniem; stworzyć lekarstwa na wiele chorób, zwiększając długość i jakość naszego życia; i dużo, dużo więcej. Wiemy teraz z całą pewnością, że te głębokie zmiany w naukach biologicznych są nieuchronne i podważą wszystkie nasze wyobrażenia o tym, czym jest życie.
Technologie takie jak klonowanie ludzi w szczególności podniosły naszą świadomość w zakresie głębokich problemów etycznych i moralnych, przed którymi stoimy. Gdybyśmy na przykład przekształcili się w kilka oddzielnych i nierównych gatunków, korzystając z mocy inżynierii genetycznej, zagrozilibyśmy pojęciu równości, które jest kamieniem węgielnym naszej demokracji.
Biorąc pod uwagę niesamowitą moc inżynierii genetycznej, nie jest zaskoczeniem, że jej stosowanie wiąże się z poważnymi problemami związanymi z bezpieczeństwem. Mój przyjaciel Amory Lovins niedawno wraz z Hunterem Lovinsem napisał artykuł wstępny, który przedstawia ekologiczny pogląd na niektóre z tych zagrożeń. Wśród ich obaw jest to, że „nowa botanika dostosowuje rozwój roślin do ich sukcesu gospodarczego, a nie ewolucyjnego”.
Po przeczytaniu artykułu redakcyjnego „Lovins” natknąłem się na artykuł Gregga Easterbrooka w „The New York Times” (19 listopada 1999) na temat upraw modyfikowanych genetycznie, pod nagłówkiem: „Żywność dla przyszłości: pewnego dnia ryż będzie zawierał wbudowaną witaminę A. Chyba że luddyści wygrają.”
Czy Amory i Hunter Lovinowie są luddytami? Zdecydowanie nie. Wierzę, że wszyscy zgodzimy się, że złoty ryż z wbudowaną witaminą A jest prawdopodobnie dobrą rzeczą, jeśli jest przygotowywany z należytą starannością i szacunkiem dla prawdopodobnych niebezpieczeństw związanych z przenoszeniem genów ponad granicami gatunkowymi.
Jednak technologia inżynierii genetycznej jest już bardzo zaawansowana. Jak zauważa Lovins, USDA zatwierdziła już około 50 genetycznie zmodyfikowanych roślin uprawnych do nieograniczonego uwalniania; ponad połowa światowej produkcji soi i jedna trzecia kukurydzy zawiera obecnie geny pochodzące z innych form życia.
Chociaż jest tu wiele ważnych kwestii, moje główne zainteresowanie inżynierią genetyczną jest węższe: daje ona moc – czy to militarną, przypadkową, czy w wyniku celowego aktu terrorystycznego – stworzenia Białej Plagi.
Wiele cudów nanotechnologii po raz pierwszy wyobraził sobie laureat Nagrody Nobla w dziedzinie fizyki Richard Feynman w przemówieniu wygłoszonym w 1959 r., opublikowanym następnie pod tytułem „Na dole jest mnóstwo miejsca”. Książką, która w połowie lat 80. wywarła na mnie duże wrażenie, były Engines of Creation Erica Drexlera , w której pięknie opisał, w jaki sposób manipulacja materią na poziomie atomowym może stworzyć utopijną przyszłość obfitości, w której prawie wszystko może być wykonane tanio, a niemal każdą wyobrażalną chorobę lub problem fizyczny można rozwiązać za pomocą nanotechnologii i sztucznej inteligencji.
Kolejna książka, Unbounding the Future: The Nanotechnology Revolution , której współautorem jest Drexler, przedstawia niektóre zmiany, które mogą zajść w świecie, w którym istnieją „asemblery” na poziomie molekularnym. Asemblerzy mogliby umożliwić niewiarygodnie tanią energię słoneczną, lekarstwa na raka i przeziębienie poprzez wzmocnienie ludzkiego układu odpornościowego, zasadniczo całkowite oczyszczenie środowiska, niewiarygodnie niedrogie kieszonkowe superkomputery – w rzeczywistości każdy produkt byłby możliwy do wytworzenia przez asemblerów przy kosztują nie więcej niż drewno – loty kosmiczne są bardziej dostępne niż dzisiejsze podróże transoceaniczne i przywracają wymarłe gatunki.
Pamiętam, że po przeczytaniu Engines of Creation dobrze się czułem, jeśli chodzi o nanotechnologię . Jako technologowi dało to poczucie spokoju – to znaczy nanotechnologia pokazała nam, że niesamowity postęp jest możliwy, a nawet być może nieunikniony. Jeśli nanotechnologia byłaby naszą przyszłością, nie czułem się zmuszony do rozwiązywania tak wielu problemów w teraźniejszości. We właściwym czasie dotrę do utopijnej przyszłości Drexlera; Równie dobrze mogłabym bardziej cieszyć się życiem tu i teraz. Biorąc pod uwagę jego wizję, nie miało sensu nie spać przez całą noc.
Wizja Drexlera doprowadziła także do dobrej zabawy. Czasami opisywałem cuda nanotechnologii innym, którzy o niej nie słyszeli. Po drażnieniu ich wszystkimi rzeczami, które opisał Drexler, zadawałem własne zadanie domowe: „Użyj nanotechnologii, aby stworzyć wampira; aby uzyskać dodatkowy kredyt, stwórz antidotum.
Wraz z tymi cudami pojawiły się wyraźne niebezpieczeństwa, których byłem doskonale świadomy. Jak powiedziałem na konferencji nanotechnologicznej w 1989 r.: „Nie możemy po prostu zajmować się naszą nauką i nie martwić się kwestiami etycznymi”. 5 Jednak moje późniejsze rozmowy z fizykami przekonały mnie, że nanotechnologia może w ogóle nie zadziałać – a przynajmniej nie zadziała w najbliższym czasie. Wkrótce potem przeprowadziłem się do Kolorado, do założonej przeze mnie firmy Skunk, a moja praca skupiła się na oprogramowaniu dla Internetu, szczególnie na pomysłach, które stały się Javą i Jini.
Zeszłego lata Brosl Hasslacher powiedział mi, że elektronika molekularna w skali nano jest teraz praktyczna. To była nowa wiadomość, przynajmniej dla mnie i myślę, że dla wielu osób, która radykalnie zmieniła moje zdanie na temat nanotechnologii. To odesłało mnie z powrotem do Engines of Creation . Czytając ponownie pracę Drexlera po ponad 10 latach, z przerażeniem uświadomiłem sobie, jak niewiele pamiętam z jej obszernej części zatytułowanej „Niebezpieczeństwa i nadzieje”, zawierającej dyskusję na temat tego, w jaki sposób nanotechnologie mogą stać się „maszynami zniszczenia”. Rzeczywiście, czytając dzisiaj ponownie ten ostrzegawczy materiał, uderza mnie, jak naiwne wydają się niektóre propozycje Drexlera dotyczące zabezpieczeń i o ile większe są, moim zdaniem, niebezpieczeństwa, niż nawet on sam wydawał się wtedy. (Przewidując i opisując wiele problemów technicznych i politycznych związanych z nanotechnologią, Drexler założył pod koniec lat 80. XX w. Instytut Foresightu, „aby pomóc przygotować społeczeństwo na oczekiwane zaawansowane technologie” – co najważniejsze, nanotechnologię.)
Przełom umożliwiający montażystom wydaje się całkiem prawdopodobny w ciągu najbliższych 20 lat. Elektronika molekularna – nowa dziedzina nanotechnologii, w której pojedyncze cząsteczki są elementami obwodów – powinna szybko dojrzeć i stać się niezwykle lukratywna w ciągu tej dekady, powodując duże, przyrostowe inwestycje we wszystkie nanotechnologie.
Niestety, podobnie jak w przypadku technologii nuklearnej, znacznie łatwiej jest stworzyć destrukcyjne zastosowania nanotechnologii niż konstruktywne. Nanotechnologia ma wyraźne zastosowania wojskowe i terrorystyczne i nie trzeba mieć skłonności samobójczych, aby wypuścić masowo niszczycielskie urządzenie nanotechnologiczne — takie urządzenia można zbudować tak, aby działały selektywnie destrukcyjnie, wpływając na przykład tylko na określony obszar geograficzny lub grupę ludzi, którzy są genetycznie odrębny.
Bezpośrednią konsekwencją porozumienia Faustowskiego w uzyskaniu wielkiej mocy nanotechnologii jest poważne ryzyko – ryzyko zniszczenia biosfery, od której zależy całe życie.
Jak wyjaśnił Drexler:
„Rośliny” posiadające „liście” nie bardziej wydajne niż dzisiejsze ogniwa słoneczne mogłyby konkurować z prawdziwymi roślinami, zapychając biosferę niejadalnym ulistnieniem. Wytrzymałe wszystkożerne „bakterie” mogą konkurować z prawdziwymi bakteriami: mogą rozprzestrzeniać się niczym pyłek, szybko się replikować i w ciągu kilku dni obrócić biosferę w pył. Niebezpieczne replikatory mogą z łatwością okazać się zbyt wytrzymałe, małe i szybko się rozprzestrzeniać, aby je zatrzymać — przynajmniej jeśli się nie przygotujemy. Mamy dość problemów z kontrolowaniem wirusów i muszek owocowych.
Wśród znawców nanotechnologii zagrożenie to stało się znane jako „problem szarej mazi”. Chociaż masy niekontrolowanych replikatorów nie muszą być szare ani lepkie, termin „szara maź” podkreśla, że replikatory zdolne do zniszczenia życia mogą być mniej inspirujące niż pojedynczy gatunek trawy krabowej. Mogą być lepsze w sensie ewolucyjnym, ale to nie musi czynić ich cennymi.
Zagrożenie szarą mazią wyjaśnia jedną rzecz: nie możemy sobie pozwolić na pewne wypadki z replikującymi asemblerami.
Szara maź z pewnością byłaby przygnębiającym zakończeniem naszej ludzkiej przygody na Ziemi, znacznie gorszym niż zwykły ogień czy lód i mogącym wynikać z prostego wypadku w laboratorium.
TO JEST WIĘKSZOŚĆ całej mocy destrukcyjnej samoreplikacji w genetyce, nanotechnologii i robotyce (GNR), która powinna dać nam do myślenia. Samoreplikacja to sposób działania inżynierii genetycznej, która wykorzystuje maszynerię komórki do replikowania swoich projektów, i główne niebezpieczeństwo leżące u podstaw szarej mazi w nanotechnologii. Historie o robotach wpadających w amok, takich jak Borg, replikujących się lub mutujących, aby uciec przed ograniczeniami etycznymi nałożonymi na nie przez ich twórców, są dobrze ugruntowane w naszych książkach i filmach science fiction. Możliwe jest nawet, że samoreplikacja może mieć bardziej fundamentalne znaczenie, niż sądziliśmy, a zatem trudniejszą – lub nawet niemożliwą – do kontrolowania. Niedawny artykuł Stuarta Kauffmana w czasopiśmie Nature zatytułowany „Samoreplikacja: nawet peptydy to robią” omawia odkrycie, że 32-aminokwasowy peptyd może „autokatalizować własną syntezę”. Nie wiemy, jak powszechna jest ta zdolność, ale Kauffman zauważa, że może ona wskazywać na „drogę do samoreprodukujących się układów molekularnych w oparciu o podstawy znacznie szersze niż parowanie zasad Watsona-Cricka”.
Prawdę mówiąc, od lat mieliśmy w ręku jasne ostrzeżenia o niebezpieczeństwach nieodłącznie związanych z powszechną wiedzą na temat technologii GNR – o możliwości samej wiedzy umożliwiającej masową zagładę. Ale te ostrzeżenia nie zostały szeroko nagłośnione; dyskusje publiczne były wyraźnie niewystarczające. Nagłaśnianie zagrożeń nie przynosi żadnego zysku.
Technologie nuklearne, biologiczne i chemiczne (NBC) stosowane w XX-wiecznej broni masowego rażenia były i są w dużej mierze wojskowe, opracowane w laboratoriach rządowych. Dla kontrastu, technologie GNR XXI wieku mają wyraźne zastosowania komercyjne i są opracowywane niemal wyłącznie przez przedsiębiorstwa korporacyjne. W dobie triumfującego komercji technologia – której służebnicą jest nauka – dostarcza serię niemal magicznych wynalazków, które są najbardziej fenomenalnie dochodowe, jakie kiedykolwiek widziano. Agresywnie realizujemy obietnice tych nowych technologii w ramach niekwestionowanego obecnie systemu globalnego kapitalizmu i jego różnorodnych zachęt finansowych i presji konkurencyjnej.
To pierwszy moment w historii naszej planety, kiedy jakikolwiek gatunek w wyniku swoich dobrowolnych działań stał się zagrożeniem dla siebie, a także dla ogromnej liczby innych gatunków.
Może to być znajomy postęp, mający miejsce na wielu światach – nowo utworzona planeta spokojnie kręci się wokół swojej gwiazdy; życie powoli się kształtuje; ewoluuje kalejdoskopowy pochód stworzeń; pojawia się inteligencja, która przynajmniej do pewnego stopnia zapewnia ogromną wartość przetrwania; i wtedy zostaje wynaleziona technologia. Dociera do nich, że istnieją takie rzeczy jak prawa Natury, że prawa te można odkryć w drodze eksperymentu i że znajomość tych praw może pomóc zarówno w ratowaniu, jak i odbieraniu życia, zarówno na niespotykaną dotąd skalę. Wiedzą, że nauka daje ogromne możliwości. W mgnieniu oka tworzą urządzenia zmieniające świat. Niektóre cywilizacje planetarne widzą swoją drogę, wyznaczają granice tego, co można, a czego nie wolno robić, i bezpiecznie przechodzą przez czas niebezpieczeństw. Inni, którzy nie mają tyle szczęścia i ostrożności, giną.
To Carl Sagan, piszący w 1994 roku w Pale Blue Dot , książce opisującej jego wizję przyszłości człowieka w kosmosie. Dopiero teraz zdaję sobie sprawę, jak głęboki był jego wgląd i jak bardzo brakuje mi i będzie mi brakować jego głosu. Mimo całej swojej elokwencji wkład Sagana polegał nie tylko na zdrowym rozsądku – a tej cechy, obok pokory, wydaje się brakować wielu czołowym zwolennikom technologii XXI wieku.
Pamiętam z dzieciństwa, że moja babcia była zdecydowanie przeciwna nadużywaniu antybiotyków. Pracowała jeszcze przed pierwszą wojną światową jako pielęgniarka i miała zdroworozsądkowe podejście, że przyjmowanie antybiotyków, jeśli nie są absolutnie konieczne, jest dla ciebie szkodliwe.
To nie tak, że była wrogiem postępu. Widziała duży postęp w swojej prawie 70-letniej karierze pielęgniarskiej; mój dziadek, diabetyk, odniósł ogromne korzyści z ulepszonych metod leczenia, które stały się dostępne za jego życia. Ale ona, podobnie jak wielu zrównoważonych ludzi, prawdopodobnie uznałaby za wielce aroganckie z naszej strony projektowanie obecnie robotycznego „gatunku zastępczego”, skoro najwyraźniej mamy tak wiele problemów ze sprawianiem, by stosunkowo proste rzeczy działały, a także z zarządzaniem – lub nawet zrozumienie – siebie.
Teraz zdaję sobie sprawę, że miała świadomość natury porządku życia oraz konieczności życia i szanowania tego porządku. Z tym szacunkiem wiąże się niezbędna pokora, której nam, z naszą bezczelnością z początku XXI wieku, brakuje, narażając się na ryzyko. Zdroworozsądkowy pogląd, oparty na tym względzie, jest często słuszny, wyprzedzając dowody naukowe. Wyraźna kruchość i nieefektywność systemów stworzonych przez człowieka powinna dać nam wszystkim do myślenia; kruchość systemów, nad którymi pracowałem, z pewnością poniża mnie.
Powinniśmy byli wyciągnąć wnioski z budowy pierwszej bomby atomowej i wynikającego z niej wyścigu zbrojeń. Nie radziliśmy sobie wtedy dobrze, a podobieństwo do naszej obecnej sytuacji jest niepokojące.
Jak duże niebezpieczeństwo grozi nam w naszych czasach, nie tylko ze strony broni nuklearnej, ale ze strony wszystkich tych technologii? Jak wysokie jest ryzyko wyginięcia?
Filozof John Leslie przestudiował tę kwestię i doszedł do wniosku, że ryzyko wyginięcia ludzkości wynosi co najmniej 30 procent, podczas gdy Ray Kurzweil uważa, że mamy „większą niż nawet szansę przetrwania” z zastrzeżeniem, że „zawsze był oskarżany bycia optymistą.” 9 Szacunki te nie tylko nie są zachęcające, ale nie uwzględniają prawdopodobieństwa wielu okropnych skutków, którym grozi wyginięcie.
Innym pomysłem jest wzniesienie szeregu tarcz chroniących przed każdą z niebezpiecznych technologii. Próbą zaprojektowania takiej tarczy przed groźbą ataku nuklearnego ze strony Związku Radzieckiego była zaproponowana przez administrację Reagana Strategiczna Inicjatywa Obronna. Jednak jak zauważył Arthur C. Clarke, który był wtajemniczony w dyskusje na temat projektu: „Chociaż przy ogromnych kosztach byłoby możliwe zbudowanie lokalnych systemów obronnych, które przepuszczałyby „tylko” kilka procent rakiet balistycznych, większość reklamowanej koncepcji parasola narodowego była bzdurą. Luis Alvarez, być może największy fizyk eksperymentalny tego stulecia, zauważył mi, że zwolennikami takich schematów byli „bardzo bystrzy ludzie bez zdrowego rozsądku”.
Clarke mówił dalej: „Patrząc w moją często mętną kryształową kulę, podejrzewam, że całkowita obrona rzeczywiście byłaby możliwa za mniej więcej sto lat. Jednak zastosowana technologia wytworzyłaby jako produkt uboczny broń tak straszliwą, że nikt nie zawracałby sobie głowy czymś tak prymitywnym jak rakiety balistyczne”. 10
W Engines of Creation Eric Drexler zaproponował, abyśmy zbudowali aktywną tarczę nanotechnologiczną — formę układu odpornościowego biosfery — w celu obrony przed wszelkiego rodzaju niebezpiecznymi replikatorami, które mogłyby uciec z laboratoriów lub zostać w inny sposób złośliwie utworzone. Ale tarcza, którą zaproponował, sama w sobie byłaby niezwykle niebezpieczna – nic nie mogło zapobiec rozwojowi problemów autoimmunologicznych i zaatakowaniu samej biosfery.
Podobne trudności dotyczą konstrukcji osłon przed robotyką i inżynierią genetyczną. Technologie te są zbyt potężne, aby można je było chronić w odpowiednim czasie; nawet gdyby udało się wdrożyć tarcze obronne, skutki uboczne ich rozwoju byłyby co najmniej tak samo niebezpieczne, jak technologie, przed którymi staramy się chronić.
Wszystkie te możliwości są zatem albo niepożądane, albo nieosiągalne, albo jedno i drugie. Jedyną realistyczną alternatywą, jaką widzę, jest rezygnacja: ograniczenie rozwoju technologii, które są zbyt niebezpieczne, poprzez ograniczenie naszego pogoni za pewnymi rodzajami wiedzy.
Tak, wiem, wiedza jest dobra, podobnie jak poszukiwanie nowych prawd. Wiedzy poszukujemy już od czasów starożytnych. Arystoteles rozpoczął swoją Metafizykę prostym stwierdzeniem: „Wszyscy ludzie z natury pragną wiedzieć”. Od dawna zgadzamy się, jako podstawowa wartość naszego społeczeństwa, co do wartości otwartego dostępu do informacji i dostrzegamy problemy, które pojawiają się w związku z próbami ograniczania dostępu do wiedzy i jej rozwoju. W ostatnim czasie zaczęliśmy szanować wiedzę naukową.
Jednak pomimo silnych precedensów historycznych, jeśli otwarty dostęp i nieograniczony rozwój wiedzy odtąd naraża nas wszystkich na wyraźne niebezpieczeństwo wyginięcia, wówczas zdrowy rozsądek wymaga, abyśmy ponownie zbadali nawet te podstawowe, długo utrzymywane przekonania.
To Nietzsche ostrzegał nas pod koniec XIX wieku nie tylko, że Bóg umarł, ale że „wiara w naukę, która przecież istnieje niezaprzeczalnie, nie może zawdzięczać swego powstania rachunku użyteczności; musiało powstać pomimo faktu, że nieustannie udowadnia się szkodliwość i niebezpieczeństwo „woli prawdy”, „prawdy za wszelką cenę”. To właśnie kolejne niebezpieczeństwo, z którym obecnie w pełni się mierzymy — konsekwencje naszego poszukiwania prawdy. Prawdę, której poszukuje nauka, z pewnością można uznać za niebezpieczny substytut Boga, jeśli może doprowadzić do naszego wyginięcia.
Gdybyśmy jako gatunek mogli zgodzić się na to, czego chcemy, dokąd zmierzamy i dlaczego, wówczas uczynilibyśmy naszą przyszłość znacznie mniej niebezpieczną – wtedy moglibyśmy zrozumieć, z czego możemy i powinniśmy zrzec się. W przeciwnym razie z łatwością możemy sobie wyobrazić wyścig zbrojeń rozwijający się w oparciu o technologie GNR, tak jak miało to miejsce w przypadku technologii NBC w XX wieku. To jest chyba największe ryzyko, bo gdy taki wyścig się zacznie, bardzo trudno go zakończyć. Tym razem – inaczej niż podczas Projektu Manhattan – nie jesteśmy w stanie wojny, w obliczu nieprzejednanego wroga, który zagraża naszej cywilizacji; Zamiast tego kierują nami nasze nawyki, nasze pragnienia, nasz system gospodarczy i nasza konkurencyjna potrzeba wiedzy.
Wierzę, że wszyscy chcielibyśmy, aby nasz kurs był wyznaczany przez nasze zbiorowe wartości, etykę i moralność. Gdybyśmy w ciągu ostatnich kilku tysięcy lat zdobyli więcej zbiorowej mądrości, dialog w tym celu byłby bardziej praktyczny, a niesamowite moce, które za chwilę uwolnimy, nie byłyby aż tak niepokojące.
Można by pomyśleć, że do takiego dialogu może nas skłaniać instynkt samozachowawczy. Jednostki wyraźnie mają to pragnienie, jednak jako gatunek nasze zachowanie wydaje się nie być na naszą korzyść. Radząc sobie z zagrożeniem nuklearnym, często mówiliśmy nieuczciwie sobie i sobie nawzajem, co znacznie zwiększało ryzyko. Nie wiem, czy było to motywowane politycznie, czy też postanowiliśmy nie myśleć przyszłościowo, czy też dlatego, że w obliczu tak poważnych zagrożeń zachowaliśmy się irracjonalnie ze strachu, ale nie wróży to dobrze.
Nowa puszka Pandory z genetyką, nanotechnologią i robotyką jest prawie otwarta, a mimo to prawie tego nie zauważamy. Pomysłów nie można odłożyć do pudełka; w przeciwieństwie do uranu czy plutonu nie trzeba ich wydobywać i rafinować, można je swobodnie kopiować. Kiedy już wyjdą, wyjdą.
JAK POWIEDZIAŁ THOREAU,„Nie jeździmy koleją; to na nas leci”; i z tym musimy walczyć w naszych czasach. Pytanie brzmi w istocie: kto ma być panem? Czy przetrwamy nasze technologie?
Wkraczamy w nowy wiek bez planu, bez kontroli i bez hamulców. Czy nie zaszliśmy już zbyt daleko, aby zmienić kurs? Nie sądzę, ale jeszcze nie próbujemy, a ostatnia szansa na przejęcie kontroli – bezpieczny punkt – szybko się zbliża. Mamy pierwsze roboty dla zwierząt domowych, a także dostępne na rynku techniki inżynierii genetycznej, a nasze techniki w nanoskali szybko się rozwijają. Choć rozwój tych technologii przebiega wieloetapowo, niekoniecznie jest tak – jak miało to miejsce w przypadku Projektu Manhattan i testu Trinity – że ostatni krok w celu sprawdzenia technologii jest duży i trudny. Przełom w dzikiej samoreplikacji w robotyce, inżynierii genetycznej czy nanotechnologii może nastąpić nagle, ponownie wywołując zdziwienie, jakie odczuliśmy, gdy dowiedzieliśmy się o klonowaniu ssaka.
ZDJĘCIA: PO LEWEJ: PETER MENZEL; CENTRUM, OD GÓRY DO DÓŁU: GALLERIA DELL'ACADEMIA, FLORENCJA/CANALI PHOTOBANK, MEDIOLAN/SUPERSTOCK; TED SPIEGEL/CORBIS; ROGERA RESSMEYERA/CORBIS; ROGERA RESSMEYERA/CORBIS; S. MILLER/NIESTANDARDOWY MAGAZYN MEDYCZNY; PO PRAWEJ: KOLEKCJA EVERETT
Comments