» Blog » Posthomo sapiens naiwniacus
20-08-2009 20:53

Posthomo sapiens naiwniacus

W działach: Literatura, Niedomyślenia | Odsłony: 18

Posthomo sapiens naiwniacus

Przyznam, że niewiele miałem w ostatnim czasie równie rozczarowujących lektur niż Accelerando Charlesa Strossa. Nie dlatego, że była to aż tak zła książka – bardziej dlatego, że niewiele było książek, które równie mocno mi zachwalano, a tak bardzo bym się na nich zawiódł. Teraz będzie długa i jadowita recenzja – idealna na bloga, bo nie chciało mi się pisać jakiś bezsensownych streszczeń fabuły i wypunktowywania plusów z minusami. Będzie rzeczowo – co mi się w powieści nie podoba, ze spoilerami, jeśli będzie mi to pasowało do wywodu.

 

Ale po kolei.

 

Dla mnie dobra s-f powinna zawierać przynajmniej jeden z dwóch elementów: może pokazywać ciekawą konfrontację człowieka i maszyny-wynalazku – twórcy z jego dziełem, tudzież konfrontację człowieka z obcym (ew. ogólniej: człowieka z nie-człowiekiem), za którymi kryje się mniej lub bardziej ważkie pytanie o naturę i kondycję człowieczeństwa, etyczne granice postępu i tak dalej. Z drugiej strony oczekuję przekonującej, opartej na twardych przesłankach naukowych wizji przyszłości, nie tyle takiej, której prawdopodobieństwo spełnienia będzie można uznać za wysokie (bo za dużo tu chwiejnych zmiennych, które w takiej literaturze trzeba zamienić na pewniki, żeby w ogóle brać się za pisanie), co takiej, która zwyczajnie „kupi” mnie swoją wiarygodnością i wewnętrzną spójnością (tzn. będę mógł powiedzieć: gdyby rozwój nauki potoczył się tak, jak to sobie wyobraził autor, to świat rzeczywiście mógłby tak wyglądać).

 

Stross, choć zachowuje się jak kałasznikow z niekończącym się magazynkiem jeśli chodzi o rzucanie pomysłami, wykłada się na obydwu tych elementach z jednego powodu: jest niepoprawnym fanatykiem jednej ideologii – singularyzmu - i bezkrytycznie podkłada pod nią całą konstrukcję rzeczywistości. Nie ma konfliktu, bo wzrost postludzkiej inteligencji zdaje się w powieści czymś nie do uniknięcia, oczywistą i jedyną możliwą drogą postępu. Nie ma ona wrogów prócz uprzedzonych do wszelkich zmian troglodytów i sekciarzy, reszta ludzkości bezwolnie się jej poddaje, nie widząc jakiejkolwiek alternatywy. Nie ma etycznych czy choćby czysto psychologicznych oporów – przemiany są tak oczywiste, że przeciwstawianie się im przypomina moralne obciążanie wszechświata istnieniem śmierci (choć to może złe porównanie, skoro śmierć w pewnym momencie staje się w powieści zabawnym archaizmem). Nie więc konfliktu – jest tylko pełen hurraoptymizmu fatalizm.

 

Sama konstrukcja przyszłej rzeczywistości jest obciążona tym samym problem – rozwój technologii (bardzo życzeniowy zresztą) działa jak buldożer na spróchniałą psią budę. Współczesne systemy ekonomiczne, polityczne i społeczne padają jak domki z kart pod naporem żarłocznej Sieci i nanotechnologii, podobnie bariery, które współczesna fantastyka naukowa wydawała się zaakceptować, takie jak problem dalekich podróży kosmicznych. To wszystko w sumie mógłbym zrzucić na karb maksymalnego przyspieszenia rozwoju, które Stross zdaje się stosować po to, żeby nie zmieniać bohaterów opowieści co kilka stron – zmiany technologiczne w jego powieści gnają bowiem na złamanie karku, jakby przyspieszenie postępu nie miało fizycznych ograniczeń – w pewnym momencie autor wprost stwierdza, że w ciągu dekady dokonuje się co najmniej kilka rewolucji przemysłowych zmieniających świat bardziej, niż cały postęp ludzkości od początku istnienia homo sapiens do XXI wieku.

 

Gorzej jednak, że dzieje się to wszystko jakby wbrew wszystkim wartościom, jakie wyznawała ludzkość do tej pory. Nie chodzi mi nawet o kwestie moralne czy etyczne, ale o zwykła ludzką psychikę i odruchy samozachowawcze. Wszyscy dookoła bez krępacji tworzą swoje kopie zapasowe, po to tylko, aby pracować wydajniej lub mieć większe szanse na „przeżycie”, zabijają się i wskrzeszają, dzielą swoją osobowość z innymi ludźmi albo rozbijają ją na drobne elementy (np. umieszczają je w mózgach stada gołębi - sic!) tworzą sobie ciała według własnego widzimisię, symulują dziesiątki lat swojego życia aby uzyskać najwydajniejszą osobowość albo skazują na to swoje dzieci, a tylko początek listy from the top of my head. Mogę przymknąć na to oko, kiedy chodzi o głównych bohaterów – stają się oni przez to zupełnie papierowi (co chyba jest nieodłączną cechą większości fantastyki naukowej, jak to zresztą zauważył Dukaj już jakiś czas temu) – ale przynajmniej nie zaburzają konstrukcji świata, w końcu to wysoce specyficzne wyjątki. Ale kiedy to samo odnosi się do przytłaczającej większości społeczeństwa, pojawia się myśl, dlaczego Stross mówi w kółko o tej inteligencji i samoświadomości, którą zyskuje ponoć coraz więcej istot i programów, skoro i tak wszystkie zachowują się jak te obecne „tępe” programy komputerowe, na których można bez problemu wykonać operacje copy, paste, save, load i detale.

 

To zresztą problem podstawowy – autor używa w tej powieści pojęcia „inteligencja” (a robi to nagminnie) jako w zasadzie tożsamego z pojęciem „moc obliczeniowa”. Wiąże się z tym niewypowiedziane wprost, ale wyraźnie widoczne założenie, że algorytmy procesora są w stanie działać podobnie do procesów myślowych zachodzących w mózgu, wystarczy, że uzyskają równą temu drugiemu moc obliczeniową. Jeśli uzyskają n razy większą, n razy przekroczą „intelektem” swego pierwotnego twórcę. Nic dziwnego, że człowiek staje się tu po pewnym czasie zwykłym idiotą, istotą niższą w ewolucji na podobnym poziomie, co tasiemiec wobec człowieka (to porównanie użyte w książce).

 

Mniejsza już, że to podejście (typowe dla singularystów) jest do pewnego stopnia sprzeczne z obecnymi odkryciami naukowymi, bo nie jestem na tyle oblatany w tym temacie, żeby ocenić, czy ta wiedza była dostępna w chwili pisania kolejnych opowiadań składających się na „Accelerando”, zresztą z naukowego punktu widzenia wciąż za wiele tu niewiadomych, więc dla s-f pole do popisu jest. Tyle że wg mnie to pogląd po prostu naiwny – założenie, że zdolności poznawcze, elastyczność, kreatywność czy umiejętność myślenia abstrakcyjnego, właściwe człowiekowi, są w prosty sposób przekładalne na język algorytmów komputera. Że wystarczy, jak zasugerowano w powieści, stworzyć mapę mózgu zapisaną na dysku, aby ta mapa funkcjonowałą identycznie jak w rzeczywistości, ba, rozbudowywała się do poziomu niedostępnego zwykłemu mózgowi ludzkiemu.


Mam tu pewien żal, ciężko mi w tej chwili ocenić, czy do samego dzieła, czy do jego recenzentów. Sam jestem ogromnym sceptykiem idei, że maszyny w pewnym momencie zyskają świadomość i odstawią człowieka na boczny tor (wierzę raczej w owocną synergię - zresztą obecny rozwój technologiczny zdaje się potwierdzać ten kierunek). Po serii pochwał z różnych stron dotyczących posthumanistycznej wizji zawartej w książce nastawiłem się na to, że w „Accelerando” znajdę argumenty, które zmuszą mnie do przemyślenia tej postawy. Stross tymczasem nawet nie tyka takich analiz – sztuczna inteligencja nagle staje się faktem i juhuu! jedziemy dalej.

 

Co najciekawsze, autor ignorując zalety naszego umysłu, doskonale dostrzega jego wady (lub też to, co prezentuje jako wady). Przywiązanie do fizycznego ciała, emocje, odruchy, ewolucyjne „ogony” w postaci więzi rodzinnych, dążenia do reprodukcji – to idealnie wpasowuje mu się do teorii o przewadze post-nie-ludzi nad ludźmi-tasiemcami.

 

A może nie o to tu chodzi? W gruncie rzeczy Stross wykorzystuje przecież te „wady” głównie po to, żeby konstruować banalne, hollywoodzkie fabuły – tu mamy romans, tam zdradę, a w rękawie romantyczne poświęcenie (kwintesencją jest zakończenie rozdziału 7 i wątek Pameli). A wszystko wpisane w dialogi balansujące gdzieś pomiędzy telenowelą a filmem sensacyjnym, chyba że bohaterowie dysputują akurat o postępie technologicznym.

 

Co bardziej irytujące, gdzieś w połowie powieści z samego frontu fali postępu przenosimy się na zacofane peryferia – i tam już zostajemy do końca. Ludzie stają się reliktem ewolucji i „głupiej materii”, a ponieważ nie sposób opisywać losów inteligencji miliony razy przewyższających naszą, musimy siłą rzeczy czytać o naszych potomkach-amebach próbujących ułożyć sobie życie w świecie, który już ich nie potrzebuje. A przypomina to historię o rajdowcu Formuły 1, który nagle okazuje się być niedorozwiniętym kierowcą zdezelowanego Poloneza. Zostaje pytanie – skoro fabuła jest czysto pretekstowa, na cholerę ciągnąć ją, gdy kończy się pretekst?

 

Wiem, że powyższa recenzja odmalowuje obraz kompletnego gniota, wiem też, że Accelerando zdecydowanie nim nie jest. Nie chce mi się jednak rozwodzić nad plusami powieści, skoro średnia ocen w Internecie (i na Polterze) oscyluje w okolicach 9/10. Chcecie zalet – wybierzecie losowo inną recenzję. Ja tymczasem ocenię po swojemu:

 

  • Za pomysły: 10/10
  • Za pomysłów osadzenie w rzeczywistości powieści: 5,5/10 (pół punktu za podjęcie wyzwania konstrukcji tak rozległej czasowo)
  • Za fabułę i bohaterów: 4/10
  • Średnia arytmetyczna : 6,5/10


I taką też ocenę wystawiam Accelerando.

Komentarze


Alkioneus
   
Ocena:
+1
E, przesadzasz.
Wychodzi z Ciebie po prostu "Sam jestem ogromnym sceptykiem idei". Trudno o większy bodziec odstręczający od książki, zwłaszcza takiej, w której fabuła jest odstawiona na dalszy plan wobec Strossowego wulkanu z pomysłami i snucia hipotez o tejże idei.

Ja dałem przynajmniej 9(nie pamiętam). Tym niemniej nie ma co punktować tych zarzutów, bo są mocno subiektywne albo prawdziwe(ale dla mnie nieistotne jako odbiorcy tego typu literatury).

A takiej dobrej recki dawno nie czytałem. Ostatnimi czasy dział książkowy ma wyłamane zęby jadowe. Pastwić się nad gniotami każdy potrafi, ot, konstruktywnie skoczyć na coś trendziarskiego. I jakiś flamik wyjdzie i komenty. Ostatnia tak dobra recka jaka była, to jak ktoś Endymiona przyszturmował.

Największa polecanka ostatnich tygodni.
21-08-2009 01:38
~Xer

Użytkownik niezarejestrowany
   
Ocena:
0
"Stross, choć zachowuje się jak kałasznikow z niekończącym się magazynkiem jeśli chodzi o rzucanie pomysłami, wykłada się na obydwu tych elementach z jednego powodu: jest niepoprawnym fanatykiem jednej ideologii – singularyzmu - i bezkrytycznie podkłada pod nią całą konstrukcję rzeczywistości."

Dla mnie na przykład to zaleta. Ale ja ogólnie lubię tematykę trans/posthumanistyczną (taką podaną w formie "nothing is impossible, nothing is unreachable" też).
Tak samo, jak czasem przyjemnie jest poczytać sobie coś napisanego przez autora, z którego poglądami/nadziejami się zgadzam (w sensie, że bardzo bym chciał być singularystą, ale wrodzony sceptycyzm mi nie pozwala, więc zostaje mi skromny tech-optymizm).

Heh, właściwie do większości argumentów zawartych w recenzji chciałem dopisać kontrargumenty, ale za bardzo odbiegały one od samego "Accelerando" w stronę jakiejś filozoficznej dyskusji, więc sobie odpuściłem.

W każdym razie z recenzji wynika, że wadą książki traktującej o Technologicznej Osobliwości jest to, że jest o Technologicznej Osobliwości...
21-08-2009 05:11
Scobin
   
Ocena:
+1
@Xer

Chyba to, że jest bezkrytycznie o Technologicznej Osobliwości. :) [EDIT, 14.32: według Simana, nie według mnie, bo ja książki nie czytałem :)].

@Wszyscy, zwłaszcza Siman

Czy można gdzieś sensownie przeczytać o singularyzmie? Nie znam się, zaintrygował mnie, a na pierwszy rzut oka pod palce (że strzelę sobie taką metaforę) rzucił mi się tylko tekst Dukaja, który raczej mnoży pytania, niż na nie odpowiada (pokazując szerszy kontekst i pojęcia pokrewne).
21-08-2009 13:25
Jeremiah Covenant
   
Ocena:
+2
Wyśmienita recenzja.
21-08-2009 13:28
Cherokee
   
Ocena:
+4
@Scobin - możesz zacząć od Wikipedii (ang.) bądź zajrzeć do Mekki singularytan - witryny Raya Kurzweila. Tu masz link od razu do bazy artykułów na ten temat: http://www.kurzweilai.net/brain/fr ame.html?startThought=singularity

Moja wersja superkrótka:

osobliwość technologiczna (technological singularity) to punkt na osi rozwoju technologicznego naszej cywilizacji poza który nie jesteśmy w stanie spojrzeć, tj. nie jest możliwe przewidywanie dalszego rozwoju technologii i cywilizacji. Coś jak horyzont zdarzeń otaczający czarną dziurę. :-) Momentem nastąpienia osobliwości technologicznej ma być wynalezienie sztucznej inteligencji przewyższającej swym potencjałem człowieka. Taka SI zacznie nie tylko rozwijać naukę i technologię w stopniu nieosiągalnym dla człowieka lecz także zacznie udoskonalać samą siebie co da w konsekwencji sprzężenie zwrotne prowadzące do niewyobrażalnego tempa postępu (zarówno w kwestii szybkości zmain jak i ich kierunku).

Singularytanie wierzą, że stworzenie takiej SI jest możiwe i stanie się faktem ok. 2030 roku. :-)

Siman nie. W przeciwieństwie do Xera chciałbym jednak skorzystać z okazji i przyatakować tytułową tezę recenzji. :-)

@Siman

Tyle że wg mnie to pogląd po prostu naiwny – założenie, że zdolności poznawcze, elastyczność, kreatywność czy umiejętność myślenia abstrakcyjnego, właściwe człowiekowi, są w prosty sposób przekładalne na język algorytmów komputera.

Model dostatecznie złożony przestaje być modelem. Na język algorytmów przełożone mają zostać zasady pracy neuronów i struktura tworzonej przez nie sieci. Jeśli uda się zasymulować oba aspekty wystarczająco dokładnie, inteligencja powinna pojawić się samoistnie, jako zjawisko emergentne. Nasze myśli są wszakże funkcją stanu tej sieci - jeśli puścisz w ruch model sieci otrzymasz m.in. myśli jako produkt jej pracy.
21-08-2009 14:12
Scobin
   
Ocena:
+2
Bardzo, bardzo dziękuję!

Widzę, że pewne rzeczy gubią się w przekładzie: angielskie "singularism" i "singularity" są bliskie brzmieniowe, natomiast w polskim "singularyzm" i "osobliwość" już nie. No ale trudno o lepsze tłumaczenie.

"Singularytanie" – to ciekawa forma. Odruchowo chciałem napisać: "może lepiej –singularyści", ale po namyśle widzę, że nie mamy jasnej reguły. Z jednej strony "purytanie", z drugiej "postmoderniści" (nasunęli mi się też "katolicy", ale to chyba przez greckie "katholikos").

Aha, pogląd o emergentnej inteligencji wymaga założenia, że jest ona w całości wytworem sieci neuronalnej. Nie krytykuję w tej chwili tego poglądu (swoją drogą bardzo ciekawa intelektualnie byłaby dla mnie próba pogodzenia go z katolicyzmem, ale to na inny temat; może Dukaj napisze o tym jakieś opowiadanie? A może już napisał?), wskazuję tylko ukrytą przesłankę, może się do czegoś przyda, a może nie. :) Zresztą kto wie czy za kilkadziesiąt lat (dzięki postępowi badań nad mózgiem) to założenie nie przerodzi się w teorię naukową – w końcu już jest sporo argumentów empirycznych za takim stanowiskiem...
21-08-2009 14:26
Alkioneus
   
Ocena:
+1
Placek dla Cherokee!
21-08-2009 15:37
Siman
   
Ocena:
+2
@Alkioneus
"Wychodzi z Ciebie po prostu "Sam jestem ogromnym sceptykiem idei". Trudno o większy bodziec odstręczający od książki"

Zaraz, zaraz. Wiedziałem o czym będzie książka zanim wziąłem ją do ręki, a mimo to byłem bardzo optymistycznie i pozytywnie nastawiony do lektury za sprawą różnych recenzji. Wiedziałem, że opisuje ona coś, z czym w dużym stopniu się nie zgadzam, ale sądziłem, że zrobi to na tyle wiarygodnie, że nie będę się miał do czego przyczepić, a nawet będę czerpał przyjemność ze zgłębiania tej wizji. I czasami miałem, bo co jakiś czas trafiałem na fragment, gdzie nie włączał mi się żaden error. Niestety tych z errorami było więcej.

To trochę tak jak z moim podejściem do buddyzmu - zostałem wychowany w duchu katolickim, ale zawsze ilekroć czytałem lub słuchałem o buddyzmie, wydawał mi się niezwykle spójną i mądrą filozofią, nawet jeśli nie wierzę w reinkarnację ani nirwanę. Z podobnym podejściem podszedłem do Accelerando. A dostałem, idąc tą analogią, proste szamańskie wierzenia, choć polukrowane sporą inwencją.


@Xer
"W każdym razie z recenzji wynika, że wadą książki traktującej o Technologicznej Osobliwości jest to, że jest o Technologicznej Osobliwości..."

Nie, jej wadą jest to, że jest o naiwnej Technologicznej Osobliwości, mającej w poważaniu niektóre dziedziny nauki (przede wszystkim psychologię). Czytam, czekam na s-f, a dostaję postcyberpunkową space operę (cyber operę?). Bo ta Technologiczna Osobliwość wygląda zupełnie jak napęd nadświetlny w space operze właśnie.

"Mamy urządzenie FTL i możemy walczyć w kosmosie, jupi!"

Kontra:

"Mamy inteligentne programy i możemy zrobić postludzką cywilizację, jupi!"

Przy czym nic nie mam do space opery (w końcu jestem fanem Battlestar Galactica) i nie miałbym nic do "cyber opery", gdyby ktoś nie próbował by mi jej sprzedać jako twardej s-f i to w awangardzie nowoczesności.


@Scobin
" "Singularytanie" – to ciekawa forma. Odruchowo chciałem napisać: "może lepiej –singularyści" "

Dukaj używa tej drugiej formy i jest IMO łatwiejsza do wymówienia. Poza tym to pierwsze brzmi jak nazwa sekty. :P Ale wszystko zależy od tego, która się u nas przyjmie. ;)

"Czy można gdzieś sensownie przeczytać o singularyzmie?"

Cherokee mnie ubiegł, ale faktycznie - Kurzweil to elementarz. :)


@Cherokee
"Model dostatecznie złożony przestaje być modelem. Na język algorytmów przełożone mają zostać zasady pracy neuronów i struktura tworzonej przez nie sieci. Jeśli uda się zasymulować oba aspekty wystarczająco dokładnie, inteligencja powinna pojawić się samoistnie, jako zjawisko emergentne. Nasze myśli są wszakże funkcją stanu tej sieci - jeśli puścisz w ruch model sieci otrzymasz m.in. myśli jako produkt jej pracy."

Zgadzam się, pytanie, czy skonstruowanie takiego modelu jest w ogóle możliwe. Widzisz, singularyści patrzą na mózg jako na niezwykle potężny procesor z nietypowym systemem operacyjnym. Wystarczy więc stworzyć równie potężny procesor, skopiować system i mamy mózg w maszynie. W razie czego zawsze przyjdzie nam w sukurs prawo Moore'a - jak dzisiaj komputer tego nie udźwignie, to da radę za lat 10 albo 20. Ta idea zawsze wydawała mi się wątpliwa. A ostatnio argumenty do ręki dał mi dr Szymon Pustelny w artykule zawartym w książce Rola świadomości w świecie ponowoczesnym. Poniżej spróbuję streścić jego spostrzeżenia.

Podstawowych problem jest kilka, przy czym jeden jest czysto technologiczny (obecne technologie ok. 2022 roku osiągną kres możliwości i nie będzie się dało przy ich pomocy zwiększyć wydajności procesorów), więc wydaje mi się, że to akurat kwestia która co najwyżej spowolni postęp, ale raczej w końcu zostanie wyeliminowana. Pozostałe są znacznie bardziej poważne.

Po pierwsze, bardzo możliwe, że w przeciwieństwie do procesora mózg działa w sposób niedetermistyczny. W skrócie chodzi o to, że jeśli procesorowi zadasz dane wejściowe, to po wykonaniu algorytmu i obliczeń dane wyjściowe zawsze będą takie same. Mózg potrafi identyczny problem rozwiązać za każdym razem w różny sposób (w tym błędny). Innymi słowy: komputer co prawda się nie myli, ale przez to jest mniej wszechstronny (bo nie wszystkie kwestie mają tylko jedno optymalne rozwiązanie). Mózg działa inaczej ponieważ wiele jego procesów działa już w skali kwantowej, która rządzi się zupełnie innymi prawami.

Ten problem można rozwiązać konstruując efektywny komputer kwantowy. Można więc powiedzieć, że to przeszkoda do ominięcia, choć IMO stworzenie takiego komputera, nawet jeśli dziś można usłyszeć o udanych eksperymentach, to jednak melodia na dalszy okres niż 2030 rok, bo wszystko wciąż obraca się raczej w okół teorii niż faktów.

Znacznie większym problemem jest ostatnia kwestia: mózg jest prawdopodobnie w jakiejś części niealgorytmiczny, a dotyczy to m.in. wyobraźni przestrzennej, matematycznej i intuicji. Ciężko mi to wyjaśnić, więc posłużę się przykładem Pustelnego: człowiek wie, że pomnożenie dwóch liczb parzystych nigdy nie da liczby nieparzystej. Maszyna by dojść do tego samego wniosku musiałaby wykonać nieskończoną liczbę operacji mnożenia przez siebie dwóch liczb całkowitych.

Jeśli mózg jest niealgorytmiczny to znaczy, że nie da się stworzyć algorytmu, który by wiarygodnie symulował jego działanie, ergo nie da się skonstruować kompletnego modelu mózgu w ogóle. To bariera w zasadzie nie przeskoczenia: nawet w szalonych wizjach żaden naukowiec nie ma pomysłu jak można by skonstruować procesor nie oparty o algorytmy. To po prostu sprzeczne z samym założeniem procesora, w której wykonywanie algorytmu jest funkcją najbardziej bazową.

Pozostaje jeszcze kwestia funkcjonowania procesów wewnątrz mózgu i procesora - mimo iż teoretycznie zasada budowy między neuronem a tranzystorem jest taka sama, oparta na przetwarzaniu impulsów elektrycznych, o tyle sam system jest bardzo różny - procesor potrafi aktywizować pojedynczy tranzystor kilka miliardów razy na sekundę, mózg pojedynczy neuron - tylko sto razy. Ale procesor potrafi przetwarzać na raz tylko kilka tranzystorów, mózg - wszystkie neurony na raz. To ogromna różnica w budowie - procesor błyskawicznie przetwarza kilka procesów, mózg znacznie wolniej - ale astronomiczną ich ilość (ok. 10 trylionów na raz). Nawet pomijając poprzednie przeszkody - czy pierwszy jest w stanie efektywnie symulować zachowanie drugiego?

Wreszcie - i to już moje przemyślenie - robienie symulacji, nawet jeśli kiedyś stanie się możliwe, będzie po prostu nieopłacalne. Zobacz, mamy dwa "organizmy" - jeden jest świetny w rozwiązywaniu problemów abstrakcyjnych, ale kiepski przy mechanicznych, drugi odwrotnie - mechaniczne problemy rozwala bez trudu, z abstrakcyjnymi sobie nie radzi. Co się bardziej opłaca - konstruować na tym drugim procesożerną symulację tego pierwszego, aby zniwelować jego wady, czy raczej próbować coraz efektywniej łączyć zalety ich obu? Zwłaszcza, że to drugie zjawisko dzieje się już teraz i nieustannie pogłębia, to pierwsze to nadal mglista koncepcja.

Hipoteza Scobina też jest ciekawa i dorzuca cegiełkę do mojej opinii - pewnie doczekamy się przekonujących symulacji, ale przekonujących nas, ludzi, do iluzji mechanicznego życia i używanych do zabawy, a nie prawdziwych postludzkich świadomości. Czyli Aineko (robot-kot z książki) w swojej wczesnej fazie to koncepcja jak najbardziej realna. To, co później - w moim przekonaniu już nie.
21-08-2009 19:56
Cherokee
   
Ocena:
+2
@Siman - Jeśli mózg jest niealgorytmiczny to znaczy, że nie da się stworzyć algorytmu, który by wiarygodnie symulował jego działanie, ergo nie da się skonstruować kompletnego modelu mózgu w ogóle.

Zacznę od tego miejsca, mam bowiem wrażenie, że czynisz dwa złe założenia (najlepiej widoczne w świetle tego stwierdzenia), a które czynią Twą argumentację nie tyle błędną, co nie do końca przystającą do naszego konkretnego zagadnienia. Te założenia, moim zdaniem, to:

- emulacja inteligencji MUSI opierać się na rozwiązaniach przynajmniej częściowo hardware'owych
- nie możemy mówić o inteligencji w niepełnym modelu ludzkiego mózgu.

Z założeniem drugim, choć się z nim nie do końca zgadzam, polemizować na razie nie będę, gdyż jest to faktycznie skomplikowane zagadnienie. Poddam jednak krytyce założenie pierwsze.

Jak z pewnością wiesz, klasyczne sieci neuronowe (czy raczej neuronopodobne) można zaimplementować na dwa sposoby: zbudować taką sieć lub przeprowadzić jej symulację komputerową. Na potrzeby tego drugiego podejścia nie potrzebujesz żadnych dedykowanych rozwiązań hardware'owych - wystarczy Ci komputer stojący na Twoim biurku. Każdy neuron opisujesz funkcją we/wy, wskazujesz połączenia między nimi i voila. Sieć działa. Nie musisz znać żadnych szczegółów dotyczących dynamiki tej sieci, zjawisk w niej zachodzących, itp. Jeśli jest ona podatna na jakieś rezonanse, zbieżności, rozbieżności itp., zjawiska te pojawią się w symulacji samoistnie, nie zaś dlatego, że istnieje część hardware'u czy software'u dedykowana do obsługi takich zdarzeń. Powstaje maszyna wirtualna, całkowicie niezależna od architektury sprzętu na którym została zaimplementowana.

Pójdźmy więc dalej i zaimplementujmy dobre modele prawdziwych neuronów oraz sieć połączeń między nimi. 100 parametrów na neuron, 10 miliardów neuronów, 10 tys. połączeń na neuron. Dużo? Dużo. Liczenie tego to iście tytaniczna praca. Nie zmienia to jednak faktu, że da się to zrobić.

Zjawiska o których piszesz będą zachodzić całkowicie w sferze symulacji. Nie ma znaczenia, czy użyty procesor będzie zdolny do operacji niealgorytmicznych, gdyż to nie on będzie te operacje wykonywał. On sobie będzie cierpliwie liczył przepływy jonów przez błonę nerwu, operacje niealgorytmiczne będą zachodzić tylko i wyłącznie w maszynie wirtualnej.

Oczywiście zawsze można zastanawiać się nad nieuniknionymi błędami wynikającymi choćby z kwantyzacji i dyskretyzacji sygnałów, lecz to już zmartwienie twórcy takiego modelu i kwestia ew. zwiększenia jego rozdzielczości. Osobiście myślę, że zasada pracy neuronu, choć złożona, nie jest skomplikowana tak bardzo by nie dało się zaimplementować wystarczająco dokładnego modelu.
22-08-2009 16:07
Siman
    @Cherokee
Ocena:
+1
"- emulacja inteligencji MUSI opierać się na rozwiązaniach przynajmniej częściowo hardware'owych"

Ależ ja cały czas mówię o rozwiązaniach czysto software'owych - na tym przecież polega symulacja. Nie zrozumiałeś chyba meritum mojej wypowiedzi.


"Na potrzeby tego drugiego podejścia nie potrzebujesz żadnych dedykowanych rozwiązań hardware'owych - wystarczy Ci komputer stojący na Twoim biurku. Każdy neuron opisujesz funkcją we/wy, wskazujesz połączenia między nimi i voila. Sieć działa."

No właśnie w tym rzecz, że nie działa. A w każdym razie nie tak, jak ta prawdziwa, neuronowa (oczywiście wszystko przy założeniu, że dzisiejsze przypuszczenia nauki na temat budowy mózgu są słuszne). Niealorytmiczność oznacza to właśnie, że NIE DA SIĘ napisać programu, który by w pełni opisywał zachowania neuronów. One po prostu nie zachowują się w sposób przekładalny na język matematyki, na serię poleceń "jeśli..., to...". Sam nie wiem, czemu tak się dzieje i o ile mi wiadomo psychologia też jeszcze nie ma pojęcia - ale wiele wskazuje na to, że tak jest. Być może chodzi o to, o czym wspominał Scobin - że umysł nie jest tylko sumą pracy sieci neuronowej.

Nie wykluczam, że być może można stworzyć niepełny model, który jednak wytworzy myśl, jak sugerujesz. Jeśli jednak umysł tej maszyny będzie pozbawiony ludzkiej elastyczności i myślenia abstrakcyjnego w pełnym wymiarze, w istocie będzie to umysł autystyka - co prawda myślący, świetny w obliczeniach, ale niezdolny do dostosowywania się do zmiennych warunków. Czyli jednak nie postczłowiecza osobliwość - bardziej postczłowiek upośledzony.


"Pójdźmy więc dalej i zaimplementujmy dobre modele prawdziwych neuronów oraz sieć połączeń między nimi. 100 parametrów na neuron, 10 miliardów neuronów, 10 tys. połączeń na neuron. Dużo? Dużo. Liczenie tego to iście tytaniczna praca. Nie zmienia to jednak faktu, że da się to zrobić."

OK, przyjmijmy na chwilę, że się da. Zauważ jednak, że jeśli na jedną operację symulowanego neuronu przypadać będzie, powiedzmy, 10 operacji tranzystora (bardzo optymistyczne założenie IMO, ale nie w tym rzecz), oznacza to, że procesor w istocie powinien mieć 10 razy większą moc obliczeniową niż normalny mózg, a osiągnie te same możliwości. Czy to jest opłacalne? Szczerze - dlaczego nie wykorzystać tego procesora do wsparcia normalnego mózgu i osiągnąć w ten sposób mózg dysponujący mocą obliczeniową? Mamy więc symulowany mózg o osiągach normalnego mózgu i mamy mózg o osiągach z całą pewnością o niebo lepszych, bo wspieranych przez hardware - przy tych samych (mniej więcej) kosztach. I to ten pierwszy ma wygrać konkurencję z tym drugim w starciu o władzę nad cywilizacją? Wolne żarty.

Bo widzisz, de facto ja wcale nie jestem przeciwnikiem singularyzmu, ba, jestem jej wielkim zwolennikiem - ale zupełnie nie w takiej formie, jak wyobraża to sobie większość singularystów. Bo dla mnie wydaje się logiczne, że marnotrawienie energii na symulacje padnie w przedbiegach w starciu z potęgą połączonych mocy ;) - sieci tranzystorowej (lub innej, algorytmicznej) "nałożonej" na sieć neuronalną. Moc obliczeniowa komputerowa, której systemem operacyjnym jest mózg - nie widzisz w tym możliwości? TO JEST Osobliwość - bo faktycznie nie sposób przewidzieć, jak będzie wyglądała cywilizacja rządzona przez takie hybrydy człowieka i maszyny.
23-08-2009 22:50
Scobin
   
Ocena:
+2
"Jeśli jednak umysł tej maszyny będzie pozbawiony ludzkiej elastyczności i myślenia abstrakcyjnego w pełnym wymiarze, w istocie będzie to umysł autystyka - co prawda myślący, świetny w obliczeniach, ale niezdolny do dostosowywania się do zmiennych warunków. Czyli jednak nie postczłowiecza osobliwość - bardziej postczłowiek upośledzony".

O ile wiem, w autyzmie zaburzone nie jest myślenie abstrakcyjne samo w sobie, ale kilka innych rzeczy. Na poziomie biologicznym – problemy z neuronami lustrzanymi, na poziomie psychologicznym – np. ogromne trudności w przyswojeniu języka. A że bez języka trudno sobie wyobrazić myślenie abstrakcyjne...

Analogia: nie można powiedzieć z pełnym przekonaniem, że chłopiec, który stracił palce albo wręcz bez nich się urodził (przepraszam za drastyczny przykład), nigdy nie zostałby sławnym pianistą. A nuż możliwość ćwiczeń jest jedyną rzeczą, której mu brakło – bo poza tym ma doskonały słuch, poczucie rytmu itd.?

Skądinąd czytałem kiedyś świetny tekst o współczesnej cyberkulturze, porównujący metodologię nauk przyrodniczych i ścisłych właśnie do myślenia autystów.

Swoją drogą: jak sobie radzą sieci neuronowe z neuronami lustrzanymi? :)
23-08-2009 23:27
Siman
    @Scobin
Ocena:
0
OK, przyswoiłem sobie informacje o neuronach lustrzanych z Wikipedii (tak, tak, wiem, Wiki to Wiki, ale cośtam można wyczytać). Rozumiem, że odpowiadają one za rozpoznanie zachowań, empatię i przyswajanie języka? I jeśli dobrze rozumiem, jest dzieje to wszystko do pewnego stopnia w sposób intuicyjny, prawda? Czyli jednak dotyczy to elementu, o którym mówię. :)

Poza tym oczywiście stwierdzenie o autyzmie było w dużym stopniu uproszczeniem - nie chodzi mi o to, że symulacja mózgu będzie dosłownie upośledzona autystycznie, tyle że w dużym stopniu będzie to mogło przypominać coś w rodzaju upośledzenia - zachowanie w dużym stopniu ludzkie, ale brak cech dających człowiekowi przewagę nad maszyną - intuicji, wyobraźni abstrakcyjnej itd.
23-08-2009 23:50
Scobin
   
Ocena:
+2
@Siman

Żaden ze mnie ekspert, ale według tego, co wiem o neuronach lustrzanych – tak właśnie. :)

Zgadzam się z Twoim zasadniczym tokiem rozumowania, wytknąłem tylko element, który zwrócił moją uwagę.

Swoją drogą neurony neuronami, ale jak zasymulować w maszynie np. naukę języka? Nie wystarczy skopiować mózg niemowlęcia i zostawić na piętnaście lat w słoiku, bo mózg rozwija się (i to wszechstronnie) w kontakcie z otoczeniem, a nie sam w sobie (co wiąże się poniekąd z naszym problemem autyzmu).

Skopiować mózg dorosłego? Można spróbować, ale czy taka sieć neuronalna nie będzie dostosowana do warunków typowych dla człowieka (np. ciągłego kontaktu z innymi ludźmi) i nie zwariuje, gdy zostanie ich pozbawiona? Puścić SI w świat? No ale chyba chcemy, żeby wykonywała obliczenia, a nie wchodziła w interakcje z BN-ami? I co z ciałem, z którym mózg jest przecież sprzężony i które może też trzeba byłoby zasymulować (a przecież nasza wiedza z biologii czy chemii jest do tego daleeeko niewystarczająca)?
24-08-2009 00:03
Siman
   
Ocena:
+2
"Skopiować mózg dorosłego? Można spróbować, ale czy taka sieć neuronalna nie będzie dostosowana do warunków typowych dla człowieka (np. ciągłego kontaktu z innymi ludźmi) i nie zwariuje, gdy zostanie ich pozbawiona?"

Tu akurat może być ciekawe. Ostatnio okazuje się, że mózg może mieć świetne zdolności adaptacyjne nawet przy kompletnie zmienionych impulsach zewnętrznych. Np. Japończycy stworzyli biorobota sterowanego mózgiem ćmy. Oczywiście, ćma to nie człowiek, ale fakt, że mózg owej ćmy zdołał bez problemu przejąć kontrolę nad zupełnie nowym "ciałem", jest fascynujące.

Ale znów - to prawdziwy mózg podłączony do maszyny, a nie maszyna myśląca jak mózg. Co chyba potwierdza moją teorię. :)

BTW - nie wydaje wam się, że singularyści zdają się zupełnie nie doceniać możliwości biologii? Jakby intuicyjnie stwierdzali, że skoro coś może chorować, psuć się i umierać, to nie warto na tym opierać rozwoju ludzkości. ;)
24-08-2009 00:28
Scobin
   
Ocena:
+1
Ćma ćmą, ale nikt nie spodziewał się deprywacji sensorycznej! :)

Co do możliwości biologii: potwierdzam z całą mocą zaocznego eksperta. ;)
24-08-2009 00:35
Cherokee
   
Ocena:
+2
@Siman

Simanie, wrzucasz tu do jednego wora tyle różnych pojęć, że chyba sam zaczynasz się w tym gubić.

No właśnie w tym rzecz, że nie działa. A w każdym razie nie tak, jak ta prawdziwa, neuronowa

Pisząc o sieciach neuronopodobnych miałem na myśli współczesne przemysłowe sieci neuronowe. Oczywiście, że nie działają one jak sieć rzeczywistych neuronów, gdyż z prawdziwymi neuronami dzielą one właściwie tylko nazwę. Jedyne zapożyczenie od Matki Natury to koncepcja ważonej sumy wejść.

Niealgorytmiczność oznacza to właśnie, że NIE DA SIĘ napisać programu, który by w pełni opisywał zachowania neuronów.

Przede wszystkim: neurony nie są niealgorytmiczne. Nie są też algorytmiczne. Tak samo nie da się w ten sposób mówić o pojedynczych tranzystorach. Algorytmiczne lub niealgorytmiczne mogą być ich układy/sieci lecz nie pojedyncze neurony.

Po drugie, przemysłowe sieci neuronopodobne też działają w sposób niealgorytmiczny, a jednak z powodzeniem się je modeluje software'owo.

Po trzecie, niealgorytmicznie działają wszelkie układy analogowe, a do takich zalicza się też mózg. Układy analogowe też z powodzeniem można symulować komputerowo. Jeśli zbudujesz software'owy model obwodu elektrycznego radia, podasz na wejście sygnał z anteny, a wyjściem wysterujesz wzmacniacz, to takie radio będzie grało. Mimo, że nie wykonuje ani jednej instrukcji "jeśli..., to...".

Pojedynczy neuron to skomplikowany elektryczny układ analogowy, którego dokładnej zasady działania wciąż nie znamy. Nie zmienia to jednak faktu, że że gdy poznamy wszystkie czynniki wpływające na pracę neuronu, będzie można zbudować jego wierny model software'owy.

I powtórzę jeszcze raz: obecność pewnych zjawisk w sieci nie oznacza, że musimy te zjawiska przełożyć na język algorytmów. Cały czas opierasz się na założeniu przeciwnym. Nie modelujemy zachowania sieci. Modelujemy tylko cegiełki, z których jest złożona. Wszystkie zachowania sieci to zjawiska emergentne i są wynikiem obliczeń prowadzonych przez elementy sieci w trakcie rozwoju symulacji. Komputer oblicza jedynie zachowanie poszczególnych elementów składowych sieci. Sieć działa sama z siebie i potrafi to co potrafi sieć o danej architekturze, nie zaś to co potrafi komputer na którym jest liczona.

Bo widzisz, de facto ja wcale nie jestem przeciwnikiem singularyzmu, ba, jestem jej wielkim zwolennikiem - ale zupełnie nie w takiej formie, jak wyobraża to sobie większość singularystów. Bo dla mnie wydaje się logiczne, że marnotrawienie energii na symulacje padnie w przedbiegach w starciu z potęgą połączonych mocy

Myślę Simanie, że nie doceniasz singularystów. To grupa naprawdę łebskich facetów, wiedzą na ten temat więcej niż my tu razem wszyscy wzięci. ;-)

Rozwiązaniem, którego jesteś zwolennikiem, choć oczywiście bardzo kuszące, ma jeden zasadniczy problem. Do jego wprowadzenia w życie musisz posiąść wiedzę z trzech dziedzin: zasada pracy neuronu, architektura sieci i wreszcie znaczenie każdego neuronu w sieci (a więc zasadę pracy sieci). By zdobyć wiedzę z tej ostatniej dziedziny musisz w praktyce zdobyć wpierw wiedzę z dwóch pierwszych. By przeprowadzić w symulację software'ową, wystarczą Ci tylko dwie pierwsze (co usilnie staram się wykazać). Myślę, że to dlatego sinularyści spoglądają głównie w tym kierunku. Po prostu te dwa pierwsze bastiony już są w połowie zdobyte, ostatni wciąż czeka.

BTW, myślę, że rozbudowa mózgu o komponenty elektroniczne musi doprowadzić do jego wcześniejszej czy późnieszej eliminacji jako najsłabszego ogniwa. :-)

@Scobin

Twoje uwagi na temat deprywacji sensorycznej są oczywiście jak najbardziej słuszne. Pominąłem je w dyskusji, gdyż dla zwięzłości dyskusji musimy operować pewnymi uproszczeniami i skrótami. Takich problemów związanych w "kopiowaniem" mózgu jest zapewne dużo więcej, lecz to już dyskusja na temat technicznych aspektów całego projektu. W swoich wywodach staram się na razie ograniczyć do próby wyjaśnienia, dlaczego syngularyści są tacy pewni siebie i dlaczego idea jakiejkolwiek sztucznej inteligencji wydaje się im tak prawdopodobna. Kopiowanie ludzkiego mózgu traktuję trochę jak eksperyment myślowy - najmniej finezyjna, lecz wymagająca najmniej komentarza metoda. :-)
24-08-2009 22:28
Siman
   
Ocena:
+2
"Pisząc o sieciach neuronopodobnych miałem na myśli współczesne przemysłowe sieci neuronowe."

To w takim razie ty zboczyłeś z tematu, bo o sieciach neuronopodobnych w ogóle nie mówiliśmy. Właśnie dlatego, że prawdziwych sieci zapożyczają jedynie ogólną metodę działania i ma z nimi bardzo odległe konotacje. Wydaje mi się, być może błędnie, że zakładasz, że jednak symulacje prawdziwych sieci neuronalnych są bardziej skomplikowanymi (nawet jeśli o wiele rzędów wielkości) wersjami sieci pseudoneuronowych. A tymczasem to zdecydowanie nieprawda (co stwierdzają wprost ludzie zajmujący się tymi zagadnieniami).


"Przede wszystkim: neurony nie są niealgorytmiczne. Nie są też algorytmiczne. Tak samo nie da się w ten sposób mówić o pojedynczych tranzystorach. Algorytmiczne lub niealgorytmiczne mogą być ich układy/sieci lecz nie pojedyncze neurony."

Oczywiście, to było moje nieuściślenie. Chodziło mi o procesy w mózgu zachodzące. I oczywiście wszystkie procesy neuronowe są niealgorytmiczne w tym sensie, że nie wynikają z żadnych algorytmów (w końcu to efekt ewolucji). Mi chodziło o niealgorytmiczność w sensie niealgorytmizowalności - nieprzekładalności na algorytmy. Ale chodzi ci o coś jeszcze innego, rozumiem.


"Po trzecie, niealgorytmicznie działają wszelkie układy analogowe, a do takich zalicza się też mózg. Układy analogowe też z powodzeniem można symulować komputerowo. Jeśli zbudujesz software'owy model obwodu elektrycznego radia, podasz na wejście sygnał z anteny, a wyjściem wysterujesz wzmacniacz, to takie radio będzie grało. Mimo, że nie wykonuje ani jednej instrukcji "jeśli..., to..."."

"I powtórzę jeszcze raz: obecność pewnych zjawisk w sieci nie oznacza, że musimy te zjawiska przełożyć na język algorytmów. Cały czas opierasz się na założeniu przeciwnym. Nie modelujemy zachowania sieci. Modelujemy tylko cegiełki, z których jest złożona. Wszystkie zachowania sieci to zjawiska emergentne i są wynikiem obliczeń prowadzonych przez elementy sieci w trakcie rozwoju symulacji."

Widzisz, właśnie robisz to, o czym mówię: traktujesz mózg jako bardziej złożone radio, do tego dokonujące jako sieć jakiś rodzaj obliczeń.

Twoje założenie brzmi tak, że jeśli stworzyć dokładną symulację dowolnego fragmentu rzeczywistości, wszystkie reguły rządzące tą rzeczywistością powstaną same. Czyli gdyby zasymulować kompletny model plemnika i jajnika łączących się razem oraz model układu rozrodczego kobiety, po 9 miesiącach dostalibyśmy człowieka.

Nie twierdzę, że się mylisz - w tej chwili niedomaga zarówno moja wiedza o biologii, fizyce, jak i informatyce, więc na razie wygląda na to, że faktycznie możesz mieć rację, chociaż moja intuicja się buntuje. Ale na pewno będę zgłębiał te kwestię, możliwe, że jeszcze ją poruszę, jak dowiem się czegoś nowego. :)

BTW, zapominasz o jeszcze jednym - mózg nie jest odseparowaną jednostką, którą można wyjąć z ciała, włożyć do probówki i będzie działała. Co np. zrobisz z wpływem hormonów na funkcjonowanie mózgu? To nie takie proste. Być może aby mózg mógł działać prawidłowo należałoby stworzyć także kompletną symulację ciała funkcjonującą w kompletnej symulacji rzeczywistości, które je otacza.


"Myślę Simanie, że nie doceniasz singularystów. To grupa naprawdę łebskich facetów, wiedzą na ten temat więcej niż my tu razem wszyscy wzięci. ;-)"

Łebski nie wyklucza naiwny. ;) Widzisz, ich plan powstania Osobliwości wypali, jeśli wypalą wszystkie jego bez wyjątku elementy (a co więcej jeszcze będą "wypalały" w sposób wykładniczy i niepowstrzymany). Takie plany nie wychodzą z zasady, zwłaszcza że są w dużej mierze życzeniowe (Kurzweil w końcu stwierdza wprost - Osobliwość jest mu potrzebna do wywinięcia się śmierci).

Poza tym - dalekie loty kosmiczne gdzieś do lat 70-tych też miały zwolenników wśród wielu tęgich umysłów. I też miały być tuż za rogiem, zaraz po uporaniu się z drobnymi przeciwnościami. Jak to wygląda dzisiaj - dobrze wiemy.


"Rozwiązaniem, którego jesteś zwolennikiem, choć oczywiście bardzo kuszące, ma jeden zasadniczy problem. Do jego wprowadzenia w życie musisz posiąść wiedzę z trzech dziedzin: zasada pracy neuronu, architektura sieci i wreszcie znaczenie każdego neuronu w sieci (a więc zasadę pracy sieci). By zdobyć wiedzę z tej ostatniej dziedziny musisz w praktyce zdobyć wpierw wiedzę z dwóch pierwszych. By przeprowadzić w symulację software'ową, wystarczą Ci tylko dwie pierwsze (co usilnie staram się wykazać). Myślę, że to dlatego sinularyści spoglądają głównie w tym kierunku. Po prostu te dwa pierwsze bastiony już są w połowie zdobyte, ostatni wciąż czeka."

Otóż właśnie prawdopodobieństwo jest po mojej stronie. Bo wcale nie potrzebujemy kompletnego zrozumienia wszystkich trzech dziedzin. Zdolności adaptacyjne mózgu są na tyle ogromne, że być może potrzebujemy tylko podpięcia się do kluczowych punktów, a umysł sam się dostosuje. Bo akurat w biologii (w tym także neurobiologii), na ile mam o niej jakiekolwiek pojęcie, jest dokładnie odwrotnie, niż w informatyce - w tej drugiej musisz wszystko zaprojektować ręcznie (ew. skorzystać z narzędzi, które też wcześniej ręcznie zostały zrobione). W tej pierwszej musisz "tylko" wymyślić sposób jak sprawić, by coś zrobiło się samo.

W każdym razie aby stworzyć postczłowieka singularystów, trzeba zdobyć kompletną wiedzę o dwóch pierwszych elementach. "Mój" postczłowiek wymaga wiedzy z trzech dziedzin - ale tylko w kilku kluczowych miejscach.


"BTW, myślę, że rozbudowa mózgu o komponenty elektroniczne musi doprowadzić do jego wcześniejszej czy późnieszej eliminacji jako najsłabszego ogniwa. :-)"

A wg jakich kryteriów oceniłeś siłę poszczególnych ogniw? :)
25-08-2009 03:58
~

Użytkownik niezarejestrowany
   
Ocena:
+2
@Siman

Wydaje mi się, być może błędnie, że zakładasz, że jednak symulacje prawdziwych sieci neuronalnych są bardziej skomplikowanymi (nawet jeśli o wiele rzędów wielkości) wersjami sieci pseudoneuronowych. A tymczasem to zdecydowanie nieprawda (co stwierdzają wprost ludzie zajmujący się tymi zagadnieniami).

Wydaje Ci się dobrze, Simanie. :-) Przyjmuję to niemal za pewnik. Także Twój zdecydowany sprzeciw nieco mnie zaskakuje. Z chęcią ujrzałbym rozwinięcie ostatniego zdania.

BTW, zapominasz o jeszcze jednym - mózg nie jest odseparowaną jednostką, którą można wyjąć z ciała, włożyć do probówki i będzie działała.

Nie zapominam o tym, tak jak nie zapomniałem o deprywacji sensorycznej. Ale to jest już element dyskusji nad złożonością symulacji (bo wszelkie owe "okołomózgowe" aspekty należałoby w najgorszym wypadku także zasymulować), a ja staram się nie odbiegać za bardzo od tematu naszego sporu, czyli samej możliwości jej przeprowadzenia.

Poza tym - dalekie loty kosmiczne gdzieś do lat 70-tych też miały zwolenników wśród wielu tęgich umysłów. I też miały być tuż za rogiem, zaraz po uporaniu się z drobnymi przeciwnościami. Jak to wygląda dzisiaj - dobrze wiemy.

Loty kosmiczne nie utknęły w miejscu z powodu bariery technologicznej (chyba, że przez "dalekie loty kosmiczne" rozumiesz wizje wypraw poza układ słoneczny z prędkościami porównywalnymi z prądkością światła). Zatrzymała je bariera ekonomiczna. Wyścig w kosmos z lat 70-tych był napędzany w głównej mierze potrzebami politycznymi. Wraz z zanikiem tych potrzeb zanikł strumień pieniędzy potrzebny na kontynuowanie badań. Kilku łebskich facetów mogło byc zaskoczonych, gdyż techno-futuryści często nie biorą pod uwagę ogromnej roli czynnika ekonomicznego (nawiązywałem do tego zagadnienia podczas naszej krótkiej dyskusji o selekcji temów).

Czy Kurzweil popełnia ten sam błąd? Jedyny właściwie moment, w którym pojawia się aspekt ekonomiczny zagadnienia, to koszt mocy obliczeniowej. Lecz pomijalność tego czynnika to właśnie część credo Kurzweila, którym bombarduje słuchaczy jego wykładów od co najmniej 10 lat. :-) I ja szczerze mówiąc z logiką jego rozumowania się zgadzam.

Zdolności adaptacyjne mózgu są na tyle ogromne, że być może potrzebujemy tylko podpięcia się do kluczowych punktów, a umysł sam się dostosuje.

Jestem świadom zdolności adaptacyjnych mózgu i możliwości, jakie moga oferować (też widziałem małpę z cyberęką ;-) ). Myślę jednak, że skala problemu w przypadku Twojej propozycji jest tak duża, że wykracza poza te zdolności. Rozwiązania dające praktyczne zastosowanie wymagałyby bowiem opracownia precyzyjnego interface'u dwukierunkowego.

Wyobraź sobei taką sytuację: pokazuję Ci czerwony ołówek. W jednek chwili informacja zostaje rozbita na czynniki pierwsze i zakodowana w (zgaduję) tysiącach neuronów. Jeśli zabiorę ołówek z pola widzenia, będziesz i tak mógł sobie przypomnieć scenę, która przed chwilą widziałeś. Załóżmy więc, ze chcesz odczytać lub wykasować to wspomnienie z pamięci. W tym celu musisz wiedzieć zawczasu, w których neuronach szukać cząstowych informacji o tym zdarzeniu. To samą w druga stronę: chcąc zapisać takie wspomnienie do pamięci musisz wiedzieć w których neuronach należy wstawić jaką informację, by mózg odczytał to jako logiczną całość. A to jest, na ile wiem, terra kompletnie incognita. ;-)

Zdolności adaptacyjne mózgu mogą zadziwiać lecz mają swoje granice. Uszkodzona kora wzrokowa nie odtworzy się w innym miejscu. Tak samo mam poważne wątpliwości, czy wystarczyłoby podpiąć się do miliona losowo wybranych neuronów w korze by mózg sam nauczył się odczytywac dane w formacie FAT32. ;-)

Ale powiedzmy, że nie wykluczam, bo wiążącą odpowiedź na to da dopiero rzeczywistość.

le na pewno będę zgłębiał te kwestię, możliwe, że jeszcze ją poruszę, jak dowiem się czegoś nowego. :)

Trzymam za słowo i jednocześnie ponawiam prośbę z pierwszego akapitu. Jeśli mam braki w wiedzy, z chęcią nadrobię zaległości. :-)
25-08-2009 14:00
Siman
   
Ocena:
+1
"Wydaje Ci się dobrze, Simanie. :-) Przyjmuję to niemal za pewnik. Także Twój zdecydowany sprzeciw nieco mnie zaskakuje. Z chęcią ujrzałbym rozwinięcie ostatniego zdania."

Dam ci proste porównanie: skrzydła samolotu i skrzydła ptaka. Podstawowa zasada funkcjonowania w oparciu o działanie siły nośnej jest w zasadzie identyczna. Zachodzi między nimi analogia rozwiązań, tym niemniej jedno nie jest modelem drugiego i wielu kwestiach funkcjonują one w zupełnie inny sposób.

To samo jest ze sztucznymi sieciami neuronowymi. Tak jak skrzydła samolotu korzystają z rozwiązań zaobserwowanych w naturze, ale nie stają się przy tym uproszczoną wersją prawdziwego układu nerwowego. Przy czym o ile latanie jest zjawiskiem na tyle prostym, że człowiek może go łatwo powtórzyć korzystając ze stali i silnika w miejsce piór i mięśni, o tyle nie ma pewności, że to samo da się zrobić z myśleniem.


"Loty kosmiczne nie utknęły w miejscu z powodu bariery technologicznej (chyba, że przez "dalekie loty kosmiczne" rozumiesz wizje wypraw poza układ słoneczny z prędkościami porównywalnymi z prądkością światła)."

Wiesz, trudno żebym lot na Marsa traktował jako lot daleki w skali kosmicznej. :) Pisząc "dalekie" miałem na myśli loty przynajmniej poza układ słoneczny i do najbliższych gwiazd (a w planach także dalsze). Vide program Orion i wiele innych. A dla wielu naukowców tamtego czasu bariera prędkości światła naprawdę wydawała się tylko tymczasową przeszkodą.


"Czy Kurzweil popełnia ten sam błąd?"

Odnośnie Kurzweila będę wygodnicki i odeślę do artykułu Dukaja, z którego przemyśleniami w większości się zgadzam.


"Załóżmy więc, ze chcesz odczytać lub wykasować to wspomnienie z pamięci. W tym celu musisz wiedzieć zawczasu, w których neuronach szukać cząstowych informacji o tym zdarzeniu. To samą w druga stronę: chcąc zapisać takie wspomnienie do pamięci musisz wiedzieć w których neuronach należy wstawić jaką informację, by mózg odczytał to jako logiczną całość."

Ale ty zakładasz, że to komputer obsługuje mózg. A jest odwrotnie - to mózg ma być "systemem operacyjnym". Chodzi mi o to, żeby stworzyć takie połączenie między mózgiem a procesorem, żeby ten pierwszy uznał ten drugi za, nazwijmy to, kolejny narząd wewnętrzny. Mózg odbiera informację o ołówku i to on każe komputerowi ją zapisać na dysku. Działanie w drugą stronę też jest kuszące, ale jak sam stwierdziłeś, znacznie trudniejsze. Ale nic nie stoi na przeszkodzie, że dodawać je z czasem - w końcu tak wygląda postęp.


No i nadal nie odpowiedziałeś na moje pytanie:
"A wg jakich kryteriów oceniłeś siłę poszczególnych ogniw? :)"
25-08-2009 16:45
Cherokee
   
Ocena:
+1
@Siman

Tak jak skrzydła samolotu korzystają z rozwiązań zaobserwowanych w naturze, ale nie stają się przy tym uproszczoną wersją prawdziwego układu nerwowego.

Sęk w tym, że skrzydła samolotu ani przez chwilę nie miały symulować układu nerwowego, nie dziwota więc, że go nie przypominają. Nie miały nawet symulować skrzydła ptaka, gdyż od początku zakładano, że korzystać będą z przepływu stacjonarnego, były więc konstrukcjami sztywnymi. Jakieś tam próby kopiowania ptasiej anatomii pojawiły się przy okazji konstruowania ornitopterów lecz zaniechano ich zapewne w związku z prostotą konstrukcyjną skrzydła sztywnego, które pozwalało osiągnąć podobny efekt znacznie mniejszym kosztem.

Mogę więc Twój argument uznać co najwyżej za głos wspierający Twoją tezę o przewadze rozwiązań cząstkowych nad całościowymi lecz z pewnością nie jako dowód na niemożliwość zbudowania modelu doskonałego umysłu ludzkiego.

Wiesz, trudno żebym lot na Marsa traktował jako lot daleki w skali kosmicznej

Wobec obecnych dokonań astronautyki to jest daleki lot. :-) Inna sprawa, że program Orion (jak i te wiele innych zapewne) utknął w martwym punkcie z powodu kwestii praktycznych (czytaj: także ekonomicznych) nie zaś datego, że rzeczywistość praw fizyki rozpatrzyła odmownie teoretyczne rozważania futurystów.

Jeśli chodzi o Dukaja (dzięki wielkie za linka), to krytkuje on głównie hurraoptymizm Kurzweila, nie zaś samą możliwość stworzenia SI. Mogę się zgodzić, że deadline-y Kurzweila to sprawa dyskusyjna lecz nadal logiczne wydaje mi się założenie o nieuniknioności nadejścia odpowiedniej technologii. Tak się bowiem składa, że wizje K. nie zakładają odkrycia nowych praw fizyki (jak wizję podróży z prędkościami nadświetlnymi), a jedynie rozwinięcie technologii już istniejących lub powstających.

Inna sprawa, że Dukaj najpierw krytykuje rozumowanie indukcujne K., by chwilę potem zastosować tę samą metodę do prognozowania ewentualnych problemów. Chciałbym go zobaczyć dyskutującego naszą rzeczywistość z perspektywy lat 50-tych. Wynalazek komputera i rewolucja informatyczna musiałby napotkać wg niego na bardzo poważny opór. Tymczasem stało się tak jak wg Dukaja prognozuje K. - ewentulną deflację nakrył czapką ogólny rozwój.

Ale ty zakładasz, że to komputer obsługuje mózg. A jest odwrotnie - to mózg ma być "systemem operacyjnym".

Nie zakładam tego. Natomiast Ty zakładasz (nieświadomie, jak się domyślam), że interface łączący krzem z białkiem bedzie szeregowy, tj. jeden (lub najwyżej kilka neuronów) będzie wydawać komendy nakładce hardware'owej i przesyłać bądź odbierać dane, a następnie przekazyawać je do właściwych neuronów w korze. Tak nie będzie. Nie ma takiej grupy neuronów, która mogłaby zmieniać stan dowolnych pozostałych neuronów w korze. Hardware'owa nakładka musiałaby się łączyć bezpośrednio z każdym neuronem, którego właściwości chiałaby zmienić. Owszem, być może mózg widziałby ją wtedy jako część kory, ale nadal musiałby być połączona z setkami tysięcy właściwych neuronów.

No i nadal nie odpowiedziałeś na moje pytanie:
"A wg jakich kryteriów oceniłeś siłę poszczególnych ogniw? :)"


Nie odpowiedziałem, gdyż w trakcie lektury Twojej poprzedniej odpowiedzi zauważyłem, że doszliśmy do momentu, w którym pozosaje nam przerzucanie się już tylko argumentami wiary. Ja wierzę w możliwość stworzenia SI, gdyż nie widzę żadnych dowodów wykluczających taką możliwość. Ty wątpisz, gdyż nie widzisz żadnych mocnych dowodów bezsprzecznie taką mozliwość potwierdzających.

Moje twierdzenie opiera się na tezie, że można stworzyć działającą cyfrową kopię mózgu (lub potrzebniej jego części). Jeśli jesteś w stanie zaakceptować tę tezę, to reszta rozumowania jest dosyć prosta. Jeśli tej tezy nie akcpetujesz, to reszty rozumowania też nie przyjmiesz. Mając na uwadze to i długość mojej poprzedniej odpowiedzi, zrezygnowałem z rozwijania tego wątku. :-)
26-08-2009 21:49

Komentowanie dostępne jest po zalogowaniu.