Technologiczna osobliwość
Z Wikipedii
W futurologii, technologiczna osobliwość (lub po prostu Osobliwość, z ang. Singularity) to prognozowany punkt w przyszłym rozwoju cywilizacji, w którym postęp techniczny przyspiesza poza możliwość zrozumienia dzisiejszego człowieka.
Teoria ta, pod współczesną nazwą została rozpowszechniona w latach 80. XX wieku przez Vernora Vinge'a, chociaż podobne idee były omawiane już w latach 50. i 60., m.in. przez I.J. Gooda i von Neumanna. Wedle pierwotnych teorii, głównym wydarzeniem mającym doprowadzić do osobliwości byłoby stworzenie sztucznej inteligencji dorównującej możliwościom ludzkiemu umysłowi. Taka inteligencja mogłaby sama nauczyć się poprawiać swoje możliwości intelektualne, rozpoczynając ciąg zmian, które w krótkim czasie pozwoliłyby jej znacznie wyprzedzić możliwości zwykłych ludzi. Inny scenariusz, promowany między innymi przez Raymonda Kurzweila, opiera się na obserwacji, że przełomy w rozwoju technologicznym zdarzają się w coraz mniejszych odstępach czasu, przyspieszając w sposób wykładniczy. Ekstrapolacja tego trendu sugeruje gigantyczne technologiczne zmiany w XXI stuleciu i osobliwość około 2045 roku.
Spis treści |
[edytuj] Rozwój inteligencji
W 1993 roku Vernor Vinge opublikował esej pod tytułem „Nadchodząca Technologiczna Osobliwość”, zawierający często cytowany potem fragment: „W ciągu najbliższych trzydziestu lat, nasza technologia umożliwi stworzenie nadludzkich inteligencji. Wkrótce potem, era ludzkości dobiegnie końca”.
Vinge spekulował, że nadludzkie inteligencje, niezależnie od tego jak powstaną, będą zdolne do tworzenia inteligencji jeszcze lepszych niż te stworzone przez ludzi. Nastąpi wtedy błyskawiczny rozwój technologii służących doskonaleniu inteligencji daleko poza pierwotne pomysły.
Większość hipotetycznych metod tworzenia takich nadludzkich lub postludzkich umysłów można zaklasyfikować do dwóch kategorii: zwiększania możliwości ludzkiego umysłu, bądź tworzenia zupełnie nowych sztucznych inteligencji. Pierwsza obejmuje między innymi inżynierię genetyczną, wspomaganie farmakologiczne, interfejsy neuralne i uploading umysłów. Druga kategoria potencjalnie daje większe możliwości, nie ograniczając się do rozwiązań narzucanych przez naturę.
Rozwój taki mógłby się wiązać z dużymi niebezpieczeństwami. Niektórzy futuryści zwrócili uwagę że cele SI mogą nie uwzględniać przetrwania albo rozwoju ludzkości. Hugo de Garis zasugerował, że SI mogą po prostu wyeliminować ludzi, i ludzie nie będą w stanie ich przed tym powstrzymać. Przykładową metodą w jaką jedna zaawansowana inteligencja może zagrozić całej ludzkości jest przejęcie kontroli nad zasobami broni nuklearnej lub wytworzenie militarnej nanotechnologii.
[edytuj] Krytyka
Teoria Kurzweila dotycząca przyspieszających zmian technologicznych, stała się obiektem ostrej krytyki z kilku punktów widzenia. Theodore Modis i Jonathan Huebner pokazali że tempo zmian technologicznych wcale nie przyspiesza, ale w pewnym sensie nawet maleje. Inni futuryści pokazali, że z analizy statystycznej można wywnioskować pojawienie się analogicznych ”osobliwości” również w zupełnie innych obszarach, takich jak populacja Ziemi czy PKB różnych krajów[potrzebne źródło].
Schmidhuber (2006) zasugerował, że obserwowane przyspieszenie zmian odzwierciedla jedynie szczegółowość pamiętania niedawnych zdarzeń w stosunku do odległych. Według tej sugestii, analogiczne mechanizmy były przyczyną wszelkich apokaliptycznych przewidywań w przeszłości.
[edytuj] Zobacz też
[edytuj] Linki zewnętrzne
- KurzweilAI.net (en)
- Acceleration Watch (en)
- Accelerating Future (en)
- The SL4 Wiki (en)
- Accelerating Technology (en)
- Singularity! A Tough Guide to the Rapture of the Nerds (en)
- Polska strona poświęcona Technologicznej Osobliwości