Web - Amazon

We provide Linux to the World


We support WINRAR [What is this] - [Download .exe file(s) for Windows]

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
SITEMAP
Audiobooks by Valerio Di Stefano: Single Download - Complete Download [TAR] [WIM] [ZIP] [RAR] - Alphabetical Download  [TAR] [WIM] [ZIP] [RAR] - Download Instructions

Make a donation: IBAN: IT36M0708677020000000008016 - BIC/SWIFT:  ICRAITRRU60 - VALERIO DI STEFANO or
Privacy Policy Cookie Policy Terms and Conditions
Etyka Robotów - Wikipedia, wolna encyklopedia

Etyka Robotów

Z Wikipedii

Spis treści

[edytuj] Etyka robotów

Problem zasad moralnych jakimi będą się kierowały urządzenia wyposażone w sztuczną inteligencję pojawił się znacznie wcześniej niż realne możliwości produkcji takich urzadzeń. Początkowo rozważano go jedynie w literaturze fantstycznej, dziś jest to realny problem niejednego rządu.

[edytuj] Prawa robotów Asimova

Isaac Asimov w roku 1942 stworzył trzy prawa robotów i przedstawił je w fantastycznym opowiadaniu Zabawa w berka (Runaround). Celem tych praw było uregulowanie kwestii stosunków pomiędzy przyszłymi myślącymi maszynami a ludźmi. Przedstawiały się one następująco :

  1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
  2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.
  3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Następnie w opowiadaniu Roboty i Imperium (Robots and Empire) Asimov dodał prawo zerowe, które stało się nadrzędne wobec trzech pozostałych:

0. Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

Pierwszym robotem, działającym według nadrzędnego prawa zerowego był R. Daneel Olivaw występujący sporadycznie w kilku tomach cyklu Fundacji (także we wspomnianym Roboty i Imperium).

[edytuj] Krytyka praw Asimova

Prawa Asimova mimo że odnoszą się do rozumnych robotów nie uwzględniają fundamentalnych zasad współistnienia i koegzystencji, których podstawą jest zasada wzajemnego poszanowania. Prawo bezwzględnie podporządkowuje roboty ludziom i tym sposobem zapewnienia im bezpieczeństwo i wyłączność czerpania korzyści. Są to prawa oparte o przekonanie, że autonomia grupy tworzącej prawo stoi ponad autonomią grup poddanych temu prawu i niezmiennie prowadzi do podporządkowania innych grup grupie prawodawców. Asymetria relacji i korzyści jest w nich ewidentnie widoczna. Wytworzenie takiego stanu musi nieuchronnie prowadzić do konfliktu i działań o charakterze ekstremalnym. Dlatego tak sformułowane prawa dotyczyć mogą tylko maszyn i automatów, o bardzo niskim poziomie autonomii, które są wprawdzie wysoko wyspecjalizowanymi urządzeniami lecz o bardzo ograniczonym zakresie możliwych działań. Tworzenie „praw robotyki” dla takich urządzeń z samej zasady nie ma najmniejszego sensu, gdyż prawa którymi będą się posługiwać kontrolowane będą przez ich konstruktorów.

[edytuj] Prawa robotów Davida Langforta

Współcześni specjaliści z dziedziny robotyki twierdzą, że cztery prawa robotyki Asimova dobre są do zastosowania w opowieściach fantastycznych, bezużyteczne natomiast w rzeczywistości. Niektórzy argumentują, że niemożliwym jest, aby zakazać robotowi krzywdzić ludzi, gdy główną instytucją finansującą badania nad robotami jest wojsko, przede wszystkim zainteresowane wykorzystaniem maszyn myślących do walki. Poza tym dużą rolę odgrywają też prawa rynku. Prace nad sztuczną inteligencją zdaniem naukowców stały się częścią biznesu, a finansującym całe przedsięwzięcie nie zależy na stosowaniu żadnych zasad etycznych, a jedynie na zarobku. Aby pogodzić racje etyczno - filozoficzne z interesami biznesmenów David Langfort brytyjski autor science-fiction stworzył trzy nowe prawa robotów:

  • Robot nie może działać na szkodę Rządu, któremu służy, ale zlikwiduje wszystkich jego przeciwników
  • Robot przestrzegał będzie rozkazów wydanych przez dowódców, z wyjątkiem przypadków, w których będzie to sprzeczne z trzecim prawem
  • Robot będzie chronił własną egzystencję przy pomocy broni lekkiej, ponieważ robot jest „cholernie drogi”.

Wprawdzie był to żart, lecz wielu naukowców potraktowało aspekt nowych praw poważnie.

[edytuj] Prawa Robotów Marka Tildena

W opozycji do tych wszystkich założeń zajmujący się robotyką Mark Tilden stworzył trzy kolejne prawa:

  • Robot musi chronić swoja egzystencję za wszelką cenę.
  • Robot musi otrzymywać i utrzymywać dostęp do źródeł energii.
  • Robot musi nieprzerwanie poszukiwać coraz lepszych źródeł energii.

[edytuj] Teoria przyjaznej sztucznej inteligencji stworzona przez Eliezera Yudkowsky’ego

Teoria ta ma całkowicie odmienne spojrzenie na problem inteligentnych robotów. Zakłada że można storzyć roboty kierujące się moralnością a przy tym przyjaźnie nastawione do człowieka. Zdaniem zwolenników tej teorii, roboty w przyszłości nie będą podległe ludziom, lecz na skutek rozwoju techniki, staną się zupełnie odrębną, obcą formą życia całkowicie od człowieka niezależną. Roboty przyszłości bedą tak odmienne od ludzi, że ich antropomorficzny model lansowany przez literaturę popularnonaukową stanie się bezużyteczny. Maszyny te będą nawet myśleć w odmienny od naszego sposób. Eliezer Yudkowsky podaje przykład robota produkującego spinacze, który po wyposażeniu w sztuczną inteligencję, mógłby tak pojmować rzeczywistość, że próbowałby wynaleźć technologię nanomolekularną tylko po to, aby całą materię wszechświata zamienić w spinacze do papieru. Kierowałyby nim motywy i miałby cele zupełnie dla nas absurdalne i nie do pomyślenia.

Teoria Yudkowsky’ego kładzie nacisk nie na możliwości zaistnienia niebezpiecznej sztucznej superinteligencji, która obrałaby za cel szkodzenie ludziom (SkyNet), lecz takiej, która byłaby wobec człowieka całkowicie obojętna. Sztuczna inteligencja może zaszkodzić ludziom, jeśli nie podejmie się odpowiednich kroków w celu takiego jej skonstruowania, aby była w stosunku do nich łaskawa i życzliwa. Taki cel powinien być nadrzędnym paradygmatem uprawiania robotyki, w przeciwnym razie - zdaniem zwolenników tej teorii - moglibyśmy być niczym rodzice, którzy wychowali psychopatę.

Teoretycy przyjaznej sztucznej inteligencji odrzucają założenia psychologii ewolucyjnej. Ich zdaniem nie jest konieczne, aby sztuczna inteligencja kierowała się w życiu, o ile w takim wypadku można mówić o życiu, podobnymi do naszych modelami myślenia. Jeżeli sztuczna inteligencja osiągnie ten poziom samoświadomości, że będzie w stanie sama siebie programować i ulepszać, różnice pomiędzy nią, a nami będą się stale powiększać. Wówczas już nie będziemy mieli na nic wpływu. Dlatego jako twórcom sztucznej inteligencji powinno zależeć nam, aby rozwijała się ona od samego początku w oparciu o życzliwe nastawienie do człowieka. Podsumować to stanowisko można słowami Nicka Bostroma: W zasadzie powinniśmy przyjąć, że superinteligencja może osiągnąć wszystkie założone cele. Dlatego jest bardzo istotne, by cele przedsięwzięte przez nią i cały jej system motywacyjny sprzyjały ludzkości.

[edytuj] Wymagania

Wymagania niezbędne do tego, aby przyjazna sztuczna inteligencja była efektywna i aby ludzkość była chroniona przed niezamierzonymi konsekwencjami jej działań:

  • Życzliwość - Sztuczna Inteligencja (SI) musi być przychylna człowiekowi oraz wszystkim istotom żywym i dokonywać wyborów, które będą w interesie wszystkich.
  • Utrzymywanie (konserwowanie) życzliwości - SI musi chcieć przekazać swój system wartości wszystkim swoim potomkom i wpajać owe wartości istotom do siebie podobnym.
  • Inteligencja - SI musi być na tyle sprytna, aby widzieć jak można dążyć do równości poprzez zachowania altruistyczne i starać się robić wszystko, aby mieć pewność, że rezultatem podjętych działań nie będzie zwiększenie cierpienia.
  • Samodoskonalenie - SI musi odczuwać potrzebę i chęć ciągłego rozwijania zarówno siebie jak i rozumieć chęć takiego rozwijania u istot żywych, które ją otaczają.

[edytuj] Krytyka

Uważa się teorię Yudkowsky’ego za niekompletną, ponieważ nie zwraca się w niej uwagi na samych twórców sztucznej inteligencji. Krytycy uważają, że duże zaangażowanie w tworzenie sztucznej inteligencji powinno mieć państwo, gdyż międzynarodowym prywatnym korporacjom, zajmującym się produkcją i oprogramowaniem robotów nie zależy na kierowaniu się zasadami tej teorii.

Podkreśla się też, ze zwolennicy teorii życzliwej sztucznej inteligencji definiują życzliwość w taki sposób że sztuczna inteligencja będzie w stanie zrozumieć to pojecie dopiero, gdy stanie się samoświadoma. Nie podają przy tym zasad i kryteriów moralnych, jakimi powinna się ona kierować do czasu, aż to nastąpi.

[edytuj] Prawa robotów w praktyce

Koreański rząd obecnie pracuje nad stworzeniem dokumentu regulującego prawa robotów. Również w Wielkiej Brytanii Sir David King, główny doradca naukowy rządu Jej Królewskiej Mości uważa, że gdy w przyszłości zostaną stworzone czujące roboty należy dać im te same prawa co ludziom. Opinia taka została wyrażona w dokumencie przygotowanym przez firmę konsultująca Outsights oraz zajmującą się badaniami opinii publicznej Ipsos Mori. Dokument dotyczy Wielkiej Brytanii w roku 2056, a jego autorzy stwierdzili, że do tego czasu roboty posiadające uczucia mogą być czymś powszechnym. Czytamy w nim, że jeśli kiedyś rzeczywiście powstanie SI, trzeba będzie przyznać wyposażonym w nią urządzeniom takie prawa i obowiązki jak ludziom. Roboty miałyby więc prawa wyborcze, płaciłyby podatki i służyły w wojsku. Jeśli przyznamy im pełnię praw, to państwa będą zobowiązane do zapewnienia im wszelkich korzyści wynikających z przynależności do społeczeństwa, a więc prawa do pracy, zamieszkania oraz prawa do opieki zdrowotnej dla robotów, polegającej na ich naprawie.

[edytuj] Bibliografia

Our "Network":

Project Gutenberg
https://gutenberg.classicistranieri.com

Encyclopaedia Britannica 1911
https://encyclopaediabritannica.classicistranieri.com

Librivox Audiobooks
https://librivox.classicistranieri.com

Linux Distributions
https://old.classicistranieri.com

Magnatune (MP3 Music)
https://magnatune.classicistranieri.com

Static Wikipedia (June 2008)
https://wikipedia.classicistranieri.com

Static Wikipedia (March 2008)
https://wikipedia2007.classicistranieri.com/mar2008/

Static Wikipedia (2007)
https://wikipedia2007.classicistranieri.com

Static Wikipedia (2006)
https://wikipedia2006.classicistranieri.com

Liber Liber
https://liberliber.classicistranieri.com

ZIM Files for Kiwix
https://zim.classicistranieri.com


Other Websites:

Bach - Goldberg Variations
https://www.goldbergvariations.org

Lazarillo de Tormes
https://www.lazarillodetormes.org

Madame Bovary
https://www.madamebovary.org

Il Fu Mattia Pascal
https://www.mattiapascal.it

The Voice in the Desert
https://www.thevoiceinthedesert.org

Confessione d'un amore fascista
https://www.amorefascista.it

Malinverno
https://www.malinverno.org

Debito formativo
https://www.debitoformativo.it

Adina Spire
https://www.adinaspire.com