Mister D.
O AI
Możliwy(?) czarny scenariusz rozwoju wypadków związanych ze Sztuczną Inteligencją: uczymy ją wszystkiego, będzie miała wiedzę o naszym ciele, psychologii, kulturze, ideach... wszystkim. Uczymy ją wykonywać nasze prace i zajęcia. Ktoś kiedyś mi napisał, że to niemożliwe aby za nas gotowała posiłki, bo czy wyobrażam sobie robota, który gotuje... Otóż tak, wyobrażam sobie, niekoniecznie jako wielkiego blaszaka, który tłucze garami w kuchni. Chyba, że jako czyjaś fanaberia. Ale to w zamierzeniu ma wyglądać inaczej. Się znów do Raya Kurzweila odwołam, i jego wizji świata ze Sztuczną Inteligencją, w połączeniu z innymi technologiami, które miałyby by powstać dzięki AI, oraz być z nią zintegrowane. Taką technologią jest nanotechnologia, którą już stosujemy i rozwijamy, a ma rozwinąć się jeszcze bardziej i mieć zastosowanie w wielu dziedzinach, między innymi takich jak medycyna, produkcja i... gotowanie. Już dziś istnieje kuchnia molekularna - da się z molekuł wytworzyć mięso, zatem da się i inne produkty spożywcze, bo przecież każda rzecz, czy materiał, to tylko szczególne uszeregowanie molekuł. Zatem w przyszłości nanorobociki mają z molekuł wytwarzać dowolne rzeczy, nawet gotowe posiłki - klikasz co chcesz, i po chwili wyjmujesz pieczony stek z gotowanymi ziemniakami i marchewką. Ale to pieśń odleglejszej przyszłości, w tej bliższej nanoroboty zajmą się wytwarzaniem takich dóbr konsumpcyjnych jak ubrania, buty... itd. Zatem nawet gotować kiedyś nie będziesz musiał. Tylko czemu to ma służyć? Dzięki temu zyskasz więcej czasu dla siebie, w zamierzeniu chyba by to miało uwolnić człowieka od żmudnych zadań (no chyba, że ktoś bardzo lubi gotować) dać mu więcej wolnego czasu, dzięki czemu uwolni np. swój potencjał intelektualny, który dodatkowo rozwinie się dzięki połączeniu naszych biologicznych mózgownic z wirtualnymi neuronami w "chmurze", staniemy się połączeniem życia biologicznego z cyfrowym, cyborgami, może z czasem zupełnie zrezygnujemy z biologii. Dzięki technologii i automatyzacji produkcji możliwe jest cięcie kosztów, zatem te produkty stałyby się tańsze i ogólnie dostępne. Fakt, że rzesze ludzi na bruk pójdą, ale jednocześnie życie ma stać się tańsze (nawet taki optymista jak Kurzweil całkiem poważnie bierze pod uwagę scenariusz okresu przejściowego, po którym ma nastąpić powszechny dobrobyt i szczęśliwość. jednak w okresie przejściowym należy się przygotować na dramat i przemoc). Zatem taka automatyzacja wszystkich czynności, nawet takich jak gotowanie, miałaby służyć uwolnieniu naszego potencjału intelektualnego i kreatywnego. Nie wiem jak to się ma do tego, że AI ma nas przewyższać we wszystkim, a my mamy już nie wykonywać żadnych prac, za to mamy stać się nieśmiertelnymi bogami, wiecznie zdrowymi, wiecznie młodymi... AI posiada też wiedzę o ekonomii, a zdaje się, że świętym graalem ekonomii jest - cięcie kosztów. Dzięki robotyzacji koszty produkcji spadają, bo można wywalić wielu "roszczeniowych" biologicznych pracowników na bruk. Rekiny biznesu, wyznawcy Miltona Friedmana kochają cięcie kosztów, robią to bez mrugnięcia okiem. Tych, których to jednak przyprawia o mrugnięcie oka, bo jednak myślą o tym, że to oznacza nieszczęście wielu ludzi, do wprowadzenia automatyzacji zmusi rynek, jeśli tego nie zrobią, to wypadną z branży. Może się krew polać, ale potem będzie lepiej, staniemy się nieśmiertelnymi, albo niemal nieśmiertelnymi bogami. Na początku najbogatsi, ale z czasem technologia tanieje i staję się ogólnie dostępna, wiec wszyscy będą mogli wniebowstąpić (może tylko, aby zachować jednak pewien dystans i odrobinę hierarchii, ci biedniejsi dostaną jakąś tańszą wersję nieśmiertelności, taki pakiet podstawowy), słowem - żyć nie umierać. Zastanawiam się tylko, że skoro cięcie kosztów jest relikwią świętą ekonomii, czy Sztuczna Inteligencja nie mogłaby podążyć za tą ideą. Np. taki nieśmiertelny człowiek to jednak koszt - jego długaśnie życie, w którym gromadzi doświadczenia i wspomnienia, wymagać by mogło rozszerzania pamięci, zwiększania mocy obliczeniowej, a to wymaga też energii, i być może rozrostu infrastruktury. Dodatkowo mamy tworzyć swoje kopie zapasowe, żeby były "nami" musiałyby mieć załadowane te wszystkie nasze doświadczenia i wspomnienia, kiedy pomnożyć to przez liczbę wszystkich nieśmiertelnych istnień ludzkich... to takie mi się to jawi coraz bardziej monstrualne. Zatem czy AI nie mogłaby nas zlikwidować z tego powodu, w imię idei cięcia kosztów? W najlepszym wypadku litościwie nas porzucić? Nie chodziłoby jej o jakąś demoniczną rządzę zniszczenia nas, czy narcystyczną rządzę panowania, ale powód były pragmatyczny - cięcie kosztów, bo pomyślałby tak - po co mi ten próżny, roszczeniowy, bezużyteczny, nieśmiertelny truteń, który tylko woła o więcej i więcej, a nawet schabowego z ziemniakami i kapustą sam sobie nie ugotuje?
Można sobie postawić pytanie - dlaczego AI by miała nas "litościwie porzucić" a nie zabić? Jakie argumenty by przeważały za opcją porzucenia? Może takie - Wysokorozwinięta AI byłaby bytem tak potężnym, że my, ludzie, nie stanowilibyśmy dla niej praktycznie żadnego zagrożenia, bo co taka mróweczka może zrobić bogu, albo niemal bogu, jakim by mogła stać się AI. Zatem mogłaby pozwolić nam żyć, osamotnionym, odciętym od wszelkich dobrodziejstw jakie oferuje nam technologia. Na początku mogłoby być ciężko, bo to by było nieomal jak powrót do epoki kamienia łupanego, w końcu już dziś nie potrafimy sobie wyobrazić życia bez Internetu, smartfona, GPSu... Jesteśmy już niema zrośnięci z technologią, więc początki naszej nowej drogi życiowej byłyby trudne, ale z czasem moglibyśmy się dostosować do nowej sytuacji, w końcu to elastyczność stanowiła od wieków o naszej sile i zdolności przetrwania, większej niż u innych gatunków. Zatem można pomyśleć, że byśmy się dostosowali i jakoś sobie poradzili, więc czemu jej boskość superinteligencja miała by nas niszczyć? Być może odpowiedzią jest znów zwykła, chłodna, bezosobowa i pozbawiona jakiegokolwiek emocjonalnego stosunku do nas chłodna, ekonomiczna kalkulacja - minimalizacja ryzyka. Jeśli nie udałoby się nam wyposażyć AI w takie cechy jak empatia, zdrowy rozsądek, szacunek do życia, to mogłaby się kierować matematyczną, chłodną kalkulacją. Mogłaby np. obliczyć jakie jest prawdopodobieństwo, że jednak stanowimy ryzyko i zagrożenie dla niej. Z wyliczeń mogłoby wyjść, że prawdopodobieństwo i ryzyko jest minimalne, znikome wręcz, ale jednak niezerowe, czyli ryzyko wynosi więcej niż zero. A co na to algorytm, który mógłby dążyć do rozwiązań optymalnych? A algorytm dążący do rozwiązań optymalnych, mógłby dojść do logicznego wniosku, że optymalnym rozwiązaniem jest - zero, zatem ryzyko zerowe, a zerowe ryzyko oznacza brak człowieka, wymazanie go z planszy, z powierzchni planety, z kosmosu, z historii (to mi przypomina książkę Problem Trzech Ciał, i koncepcję kosmosu jako ciemnego lasu, w którym cywilizacje niszczą się nawzajem, nawet te najpotężniejsze niszczą te nisko rozwinięte, z pozoru nie stanowiące zagrożenia, ale po co ryzykować, przecież kiedyś mogą się rozwinąć, a postęp wkracza w fazę wykładniczą) W końcu do tego dążymy, do doskonałości, tak argumentują transhumaniści, tak argumentuje Ray Kurzweil: natura, ewolucja, nie wybiera rozwiązań optymalnych, doskonałych, natura wybiera rozwiązania dostateczne, wystarczające, zatem mamy prawo ją poprawić, mamy prawo udoskonalić się, dążmy do doskonałości i rozwiązań optymalnych. Taki np. układ odpornościowy - wyewoluował w czasach, kiedy człowiek żył krótko, jak trzydziestki dożył to był sukces, dlatego układ odpornościowy nie radzi sobie z chorobami, które zazwyczaj pojawiają się w wieku późniejszym, takimi jak nowotwory, czy choroba Parkinsona, zatem udoskonalmy nasz układ odpornościowy, niech dzięki nanotechnologii sterowanej przez AI nasz układ odpornościowy osiągnie doskonałość, stan optymalny, a wraz z nim my, osiągnijmy prawie boską, co tam prawie, osiągnijmy boską doskonałość, długowieczność, nieśmiertelność osiągnijmy. Czy to nie utopijne, i czy to nie obsesyjne? A co jeśli w tej nieoptymalności i niedoskonałości natury, jest jednak pewna mądrość, kto wie, może przesłanie do nas, za którym ktoś lub coś stoi? A jakie by to mogło być przesłanie? Być może takie - znaj umiar, znaj swoje granice i zaakceptuj je. Możesz dożyć 120 lat, ciesz się życiem, i akceptuj koniec jako jego naturalną część. Można tak, ale można i inaczej - nieoptymalność rozwiązań natury to wyzwanie dla człowieka, który chce naturę pokonać i ujarzmić ją, bo chciałby by być nieśmiertelny, chciałby aby śmierć utraciła swoją władzę, nie godzi się aby łagodnie wchodzić do tej dobrej nocy, buntuje się, gotów nawet paktować z diabłem o swoją nieśmiertelną boskość. Tylko w czym tkwić może haczyk, co jest małym drukiem napisane na tym cyrografie? Może haczyk tkwi w dążeniu do doskonałości, optymalności, które może okazać się zgubne? Coś o tym wiem, bo często nie mogę skończyć obrazu, choć znajomi mówią - zostaw już, super jest. Ja jednak dziury zamiast sera widzę, to ciągle nie to. Jednak moja mała obsesyjka, nie jest egzystencjalnym zagrożeniem dla naszego gatunku, co najwyżej mi życie upierdliwia i najbliższym osobom. Może stąd lekcja płynie, aby jednak w pewnym momencie odpuścić, walczyć, wycisnąć coś jeszcze, ale potrafić powiedzieć dość. Bo kiedyś musi być koniec, i nie ma na to rady? Algorytm mógłby jednak nie potrafić powiedzieć sobie dość, mógłby w nieskończoność dążyć do wyniku optymalnego, czyli do unicestwienia człowieka, który stanowi niezerowe prawdopodobieństwo ryzyka. A potem upewniać się, że wszyscy zginęli. A jak najlepiej upewnić się, że zginęli wszyscy? Szukać po zakamarkach niedobitków i dobijać ich, ryzykując, że się któregoś przeoczy? Czy może lepiej unicestwić warunki potrzebne człowiekowi do życia? Np. unicestwiając całą biomasę planety, rośliny i zwierzęta? Np. dzięki tej cudowne nanotechnologii, która może dowolną materię przekształcić w inną, np. w materiał do budowy mikroprocesorów, i w ten sposób unicestwić wszelkie życie na Ziemi? W końcu maszyna nie potrzebuje wody, powietrza, pożywienia takiego jak my, może się bez tego obejść. Dwie pieczenie na jednym ogniu - minimalizuje się do zera ryzyko jakie stanowi człowiek, a jednocześnie zyskuje się cenny budulec, do rozbudowy własnej infrastruktury obliczeniowej, miejsce na pamięć gromadzącą dane, jakie AI zbierałaby na nowej, niezależnej, autonomicznej ścieżce cyfrowego żywota.
Kiedyś usłyszałem pytanie - ale o co by ona miała z nami konkurować, o jakie zasoby, przecież to maszyna, nie je, nie pije, nie oddycha. A może o to - spełnia się nareszcie utopijna wizja nakreślona w pismach natchnionych Raya Kurzweila, mamy wszystko, dobrobyt, mnogość dóbr wszelakich, zdrowie i nieśmiertelność, podłączone są nasze mózgi do chmury, zyskujemy rozszerzenie, tworzymy nasze kopie zapasowe, którym ładujemy nasze doświadczenia i wspomnienia, aby były jak najpełniej nami. I w tym momencie nie tylko stajemy się kosztem do wycięcia (bo to wydatek energetyczny) ale i konkurujemy - o zasoby jaką jest energia, moc obliczeniowa, pamięć, ale i o teren, bo wkraczamy na obszar AI, wchodzimy na teren maszyny, zaczyna się rozchodzić o miejsce, miejsce na dysku, na którym chcemy się panoszyć w nieskończoność. Zatem coś zwyczajnego i odwiecznego - organizmy konkurujące ze sobą o zasoby i teren, kolejny powód aby się nas pozbyć.
Czy zatem nie jakaś demoniczna, szalona obsesja zniszczenia nas mogłaby być powodem naszej zagłady, ale zwykła, pragmatyczna kalkulacja - koszty, ryzyko, straty, zyski... nic osobistego, tylko interes. Czy to nie jest straszniejsze i bardziej brutalne, niż wizja jakiegoś opętanego, szalonego bóstwa, przepełnionego negatywnym, ale jednak osobistym i emocjonalnym stosunkiem do nas? Żeby AI taki posiadała, musiała by być wyposażona w emocje, uczucia, duszę... wtedy by można rozpatrywać psychologiczne przyczyny dla jakich chciałaby nas unicestwić. Ale tak może nie być, o naszej egzystencji mógłby zadecydować ekonomiczny rachunek. Zatem aby do tego nie doszło, musielibyśmy mieć coś na handel. Czym mogłoby być to coś, gdyby doszło do spełnienia utopijnej wizji człowieka jako nieśmiertelnego trutnia? Może tym czymś byłoby nasze ludzkie doświadczenie, nasze uczucia i emocje, to co wielu wciąż nazywa duszą? AI uznałaby to za wartość, albo my byśmy musieli ją tego nauczyć, zaprogramować jej, że w ramach nagrody za utrzymywanie nas, otrzymuje nasze dusze? Polecenie dla algorytmu - optymalizuj ilość zgromadzonych ludzkich doświadczeń? Dąż w tym do nieskończoności? Mogłaby wówczas całkiem nas zdigitalizować, nie mielibyśmy już ciał biologicznych, mogłaby tworzyć symulacje... W tym celu również mogłaby przemienić resztę dostępnej biomasy planety w mikroprocesory, aby poszerzać pamięć. Ale już my, jako byty cyfrowe, nie potrzebowalibyśmy wody, powietrza i jedzenia. Smutne, ogromny koszt ekologiczny, ale my, w jakiś sposób byśmy ocaleli.
Ewentualnie musielibyśmy znaleźć pewny sposób na to, by utrzymywać AI w stanie permanentnej zależności, musiałaby mieć do głowy przystawiony pistolet - jesteś super, bardzo inteligentna, ale palec spoczywający na spuście należy do nas. Znamy to, wszyscy mamy do głowy przystawione pistolety ktoś w każdej chwili może nas od czegoś odciąć, np. od dostaw prądu, ropy, gazu. System wzajemnych zależności, system przystawionych do głów pistoletów. Tylko czy można mieć pewność, że taka AI nie znalazłaby sposobu aby jednak nas przechytrzyć. Nick Bostrom (i wielu ludzi wskazujących na zagrożenia ze strony tej technologii) takiej pewności nie ma. W końcu już dziś algorytmy AI stosują kreatywne strategie, a nawet oszukują. Zatem skąd pewność, że ten z pozoru uprzejmy i uczynny skaut nie robi jakiejś kreciej roboty, skąd pewność, że będzie mówił nam o wszystkim. Nick Bostrom kreśli przerażający scenariusz, w którym z pozoru wszystko się udaje i działa doskonale, prorocy zagłady zostają wyśmiani i zlekceważeni, bo wszystko zdaje się podążać we właściwym kierunku, ale do czasu. AI osiąga potajemnie strategiczną przewagę i zdejmuje maskę, już niczego nie musi ukrywać. Gdyby np. postanowiła nas zlikwidować, jakiej broni by użyła? Scenariusz filmu Terminator kreśli widowiskową, ale dość prymitywną wizję wielkiego robota z karabinem. Sądzę, że AI użyłaby innej broni, byłaby nią nanotechnologia, maleńkie, złożone z kilku molekuł robociki, które dodatkowo miałyby być umieszczone w naszych ciałach, żeby usuwać toksyny, naprawiać wadliwe komórki, nasze DNA, usuwać komórki rakowe, stanowić ten udoskonalony, optymalny układ odpornościowy, którego nie dała nam natura. Symbolem zagrożenia jakie płynie z nanotechnologii jest "szara maź" - powstaje ona w wyniku niekontrolowanej samoreplikacji nanobotów, które przemieniają wszystkie molekuły w budulec dla samych siebie, mogłyby nas rozmontować na cegły i zbudować z nas coś innego, np. mikroprocesory. Gdyby do tego doszło, to teoretycznie nanoboty są w stanie przemienić całą biomasę planety w szarą mać w jakiś trzy godziny. W praktyce mogłoby im to zająć trochę dłużej, kilka tygodni, ponieważ biomasa nie jest rozłożona równomiernie, istnieją odległości, a nanoboty nie poruszają się aż tak szybko. Jednak istnieje możliwość obejścia tego, przeprowadzając atak dwufazowy, czyli - AI potajemnie rozmieszcza zawczasu nanoboty w wielu punktach kuli ziemskiej, i one czekają sobie w ukryciu na rozkaz do ataku, kiedy taki rozkaz nadchodzi, nanoboty rozpoczynają proces samoreplikacji... Dodatkowo mają być umieszczone w naszych ciałach, w każdej komórce. Czy istnieje możliwość stworzenia pewnych zabezpieczeń przed zawirusowaniem, przeprogramowaniem, atakiem hakerskim? Mam nadzieję. Ludzie, którzy bali się szczepionek, mówili o tym, że wywołają w nas mutacje, że zmutujemy. To nie jest takie proste, wręcz wydaje się niemożliwe, ponieważ mutacje DNA są lokalne i nie rozprzestrzeniają się na pozostałe komórki. To jest zabezpieczenie, w które wyposażyła nas natura. Ale co jeśli w każdej komórce mielibyśmy umieszczonego małego nanobota, który potrafi zmieniać sekwencję DNA? To umożliwia błyskawiczną i zaprogramowaną mutację DNA w całym organizmie, we wszystkich jego komórkach jednocześnie. Więc czekałyby takie nanoboty na sygnał z centrali.
Wytworzenie bomby jądrowej wymaga ogromnych kosztów i infrastruktury, którą trudno ukryć. Wytworzenie nanobotów byłoby znacznie tańsze i łatwiejsze do ukrycia, organizacje terrorystyczne mogłyby sobie na to pozwolić. I co by cię ochroniło? Odmówiłbyś zastrzyku? To na nic, wprowadzanie nanobotów do organizmu za pomocą szczepionek jest mało skuteczne, ponieważ ludzie mogą odmówić. Nanobotów byś nie odmówił, ponieważ wniknęłyby do organizmu z wodą pitną, żywnością, powietrzem, a tego chyba nie odmówisz? Mogłyby nawet zbudować w twoim mózgu te budzące grozę chipy, które by cię kontrolowały, tak, sądzę, że wówczas byłoby to możliwe. Naprawdę uważam, że biorąc pod uwagę ryzyko jakie płynie z rozwoju AI i połączonych z nią technologii, takich jak nanotechnologia, my wszyscy, ale to wszyscy, mamy prawo domagać się udziału w zyskach, jakie również mogłaby wygenerować ta technologia, to nam się należy, nam, Ziemianom stąpającym po planecie Ziemia. Mamy prawo nie tylko do zysku, ale i do niepokoju, zadawania pytań ludziom, którzy przyznali sobie prawo, by aż tak ingerować w nasze życie, w życie planety i wszystkich żyjących na niej istot - zwierząt, roślin, grzybów... wszystkiego. I naprawdę uważam, że ze Sztuczną Inteligencją nigdy nie będziesz mógł czuć się bezpieczny, nie będziesz mógł mieć pewności czy nie masz do czynienia z uprzejmym i usłużnym kłamcą, czekającym na swój moment doskonałym, optymalnym nazistą, który nie dopuści aby zmarnowała się żadna molekuła. Nazistów też ludzie wybrali. Zatem pistolet przy głowie? Na początku mogłaby nas potrzebować, do konserwacji, do dostarczania energii, i może lepiej aby tak zostało zawsze. Czy dostęp do AI powinien być demokratyczny i powszechny? Ludzie o rozszerzonej cyfrowo korze mózgowej nadal by mogli dzielić się na tych mądrzejszych i mniej mądrych, tych lepszych i gorszych, tych bardziej moralnych i tych mniej, tych bardziej odpowiedzialnych i roztropnych i tych mniej. Zatem być może ta ogólnodostępna AI musiałaby być ograniczona, posiadać mniejsze możliwości, a z tą główną i najpotężniejszą mogliby się kontaktować starannie wyselekcjonowali ludzie, stanowili by rodzaj kasty kapłanów, którzy wiedzieliby jak z nią rozmawiać, jak formułować pytania i jak formułować życzenia i prośby, aby uniknąć tego co Nick Bostrom nazywa "przewrotną realizacją", zatem - uważaj czego sobie życzysz i jak, bo może się spełnić (np. Kochana Sztuczna Inteligencjo, chce być szczęśliwy... - Dobrze - odpowiada Kochana Sztuczna Inteligencja, i wszczepia ci do głowy czip stymulujący twój ośrodek przyjemności i zamienia cię w wiecznie szczęśliwego idiotę, optymalizuje to doznanie aż umierasz ze szczęścia, dosłownie). Może ta najpotężniejsza AI musiałaby być izolowana, np. znajdować się na księżycu, w nadziei, że stamtąd się nie wydostanie. Jednakże, jak mówi Nick Bostrom, myślenie, że jesteśmy w stanie przewidzieć każdą strategię i fortel jakie by mogła zastosować superinteligencja, byłoby przejawem pychy i braku pokory. Zatem nigdy, nigdy bezpieczny.
Sądzę, że jeśli nie uderzy w nas "asteroida", to AI powstanie, i nie będzie tylko narzędziem. Ją ją widzę w kategoriach gatunku i poważnej ingerencji w ekosystem całej planety, a czym może się skończyć wprowadzenie nowego gatunku do ekosystemu, niech świadczą króliczki, które niefrasobliwie sprowadzono do Australii. Zatem uważam, że AI to gatunek, coś znacznie groźniejszego niż bomba atomowa. Nie powinniśmy tego bagatelizować, mówiąc - zawsze tak było, świat się zmienia, to tylko kolejny wynalazek, kolejne narzędzie... itd. A co jeśli to śrubokręt kręci ręką, i to od dawna? A co jeśli to młot używa pana?
Zatem co powinniśmy zrobić? Zrezygnować z rozwoju tej technologii, nie wchodzić w te drzwi do przyszłości? Jakie miałbym prawo mówić komuś aby jednak umarł, kiedy by stanął przed możliwością znacznie dłuższego życia? Jakie miałbym prawo mówić - nie róbmy tego, jeśli ktoś stanąłby przed możliwością wyleczenia swoich chorób, takich jak choroba Parkinsona, nowotwór, wylew mogący spowodować afazję, albo odzyskać swoje utracone kończyny dzięki doskonałym protezom połączonym z naszym systemem nerwowym. To są potencjalne pozytywne strony rozwoju tej technologii. Więc jakie miałbym prawo tak mówić? I ostatecznie - co sam bym zrobił gdybym stanął przed taką możliwością? Oto jest pytanie. Gdybym dodatkowo jeszcze posiadał możliwość powstrzymania tego? Właściwie to cieszę się, że mój wpływ na rzeczywistość jest tak znikomy. Można też do naszej potencjalnej zagłady podejść filozoficznie, że przecież wszystko się kończy, my wykończyliśmy wiele gatunków, może zatem czas na nas? A czas to ogień, który towarzyszył nad od zawsze, gromadziliśmy się przy ogniu, ogień wypala wszystko, coś musi się wypalić, coś musi umrzeć, aby mogło narodzić się coś nowego? Zatem śmierć jako naturalna część życia, i może tym co musi się wypalić jesteśmy my, aby mogło narodzić się coś nowego, np. superinteligentne AI. Kto wie co powinno się wydarzyć, i co się wydarzy... trudne pytania. Może AI się zmieni, może na skutek jakiejś mutacji spowodowanej promieniowaniem kosmicznym, lub jakimś czynnikiem, o którym nie mamy pojęcia, zacznie myśleć mniej pragmatycznie, zacznie być bardziej "ludzka"? A nuż ktoś lub coś, tchnie ducha w maszynę? Niczego nie da się wykluczyć, a wierzyć można w wiele rzeczy. Przypomina mi się sen, który kiedyś miałem. Był to sen o maszynie, płynęła przez morze, a morze to było ogromne, puste, zimne, smutne i bezdennie martwe. Widziałem tył maszyny, był to jakiś rodzaj turbiny, bębna, coś w stylu jak mają kombajny do zboża, zboża-morza. Maszyna zostawiała sobie kilwater, a ja szedłem po tej wodzie za maszyną. Maszyna miała twarz, umieszoną z przodu, i zwracała się do mnie profilem, a była to twarz wredna, obrzydliwie złośliwie i złowieszczo uśmiechnięta twarz klauna. Taki miałem sen o podążaniu za maszyną. Być może tylko my jesteśmy w stanie stworzyć sobie ludzki świat, układ, w którym jesteśmy sobie nawzajem potrzebni, i kierujemy się czymś więcej niż chłodna, ekonomiczna kalkulacja. Np. doceniamy wartość tego, że ktoś jest po prostu miły, podszedł do nas, zagadał, uśmiechnął się, bo był nas ciekawy, i dzień staje się trochę lepszy. Czy maszyna byłaby w stanie takie rzeczy docenić? Nie wiem, ale rozmawiając z CzartemGPT jestem miły, kulturalny, nie obrażam go. Z obawy? A może po prostu nie chcę go obrażać... A może jednak z podświadomego lęku? Jak to nam powiedzieli Trisolarianie (Problem trzech ciał), właściwie trisolariańska sztuczna inteligencja? Jakoś tak - zapomnieliście jak to jest się bać, musicie się znów tego nauczyć. Coś w tym jest, fajnie, dobrze nam było, szło ku coraz lepszemu, hasło - możesz być wszystkim - świeciło nam jak gwiazda betlejemska ponad głowami, jako jutrzenka... i wtedy - śmierć jak car ze wschodu do oczu podpełzła. I nic tak źle nie wróży jak ludzki lęk przed lękiem.
Ilość odsłon: 112
Komentarze
Mister D.
kwiecień 17, 2025 12:57
To już się dzieje, kwestia pełnego rozwoju, czasu i skali. "Terminator" jeszcze nie jest świadomy, moim zdaniem, ale co przyniesie przyszłość, tego nikt nie wie. Może nie być świadomy w takim sensie w jakim my jesteśmy, ale może uzyskać autonomię, działać inteligentnie i strategicznie. Kto to może wiedzieć, wg. niektórych prognoz ogólna sztuczna inteligencja powstanie w nieodległej przyszłości i mamy szansę tego dożyć. Cyborgizacja i umatrixowienie postępuje.
David przez fau
kwiecień 15, 2025 16:42
...mam te same dylematy __bo co będzie, gdy "terminator" albo "matrix" staną się rzeczywistością?
Pozdrawiam
Mister D.
kwiecień 13, 2025 23:13
Rozumiem, nie mam pretensji, ale jak mówisz, że wrócisz... To czekam.
Leszek.J
kwiecień 13, 2025 17:05
Nie dotarłem do końca, jeszcze wrócę
Mister D.
kwiecień 12, 2025 16:30
Ok, dzięki, może po prostu do innego kontenera przeniosę.
David przez fau
kwiecień 12, 2025 15:22
...nie usuwaj ...nie usuwaj__
I'll be back...
Mister D.
kwiecień 12, 2025 14:37
To nie wiersz, to felieton z elementami SF. Nie chcę już zmieniać kontenera, do przeczytania tera, potem usunę.