Dyskusja:Prawdopodobieństwo subiektywne
Z Wikipedii
[edytuj] Info z en.wikipedia, dla zintegrowania
Witam jestem nowym wikipedysta i chciałbym rozwijać ten artykuł, gdyż wydaje mi się troche zbyt ogólny, osoba chcąca dowiedzieć się czegoś konkretnego nie znajdzie tu za dużo informacji. Jako, że moja wiedza na ten temat jest ograniczona, a także brak mi wprawy w używaniu z Wikipedi z chęcią przyjmę każdą pomysł i wysłucham komentarzy.
Krótkie uzupełnienie do definicji, w porównaniu z zawartością anglojęzycznej Wikipedi
Definicja
Prawdopodobieństwo subiektywne (bayesiańskie) - interpretacja pojęcia prawdopodobieństwa jako „miary stanu wiedzy”.Interpretowana jako rozszerzenie Arystotelesowskiej logiki. Najbardziej nowoczesne metody uczenia maszynowego bazują na zasadach bayesiańskich.
Przydał by się krótki rys historyczny, o to co przygotowałem na podstawie anglojęzycznej Wikipedi
Historia
Bayesianskie równanie i prawdopodobieństwo Bayesianskie (subiektywne) bierze nazwę od Thomasa Bayesa (1702-1761) który dowiódł twierdzenia zwanego teraz twierdzeniem Bayesa będącego podstawą rachunku prawdopodobieństwa subiektywnego . Laplace udowodnił bardziej ogólną postać tego równania i użył go do rozwiązania problemów mechaniki nieba, medycznych statystyk. Podczas gdy Bayesianskie wnioskowanie jest w użytku od od dobrych 200 lat, nowoczesna Bayesiańska interpretacja prawdopodobieństwa powstała stosunkowo niedawno. Postulat że prawdopodobieństwo powinno być interpretowane jako „subiektywny stopień wiary w zdarzenie” zostało niezależnie zaproponowane przez Bruno de Finetti we Włoszech w „Fondamenti Logicindel Ragionamento Probabilistico” (1930) i Franka Ramseya w Cambridge w „The Foundations of Matchematics” (1931), zostało ono opracowane do do rozwiązania problemów klasycznej definicji prawdopodobieństwa i zastąpienia jej. Interpretacja subiektywna była rrozwijana przez Harolda Jeffreys'a,Richarda T. Cox'a, I.J. Good'a, L. J. Savage'a i Edwina Jaynes'a. Inni dobrze znani zwolennicy prawdopodobieństwa Bayesiańskiego to John Maynard Keynes, B.O. Koopman i Denis Lindley. Bayesianskie spojrzenie na prawdopodobieństwo może być umotywowane w kilka sposobów. Jedne z nich bazuje na założeniu: stopień wiedzy odbija się w szansach i stawkach takich, że podmiot jest chętny obstawiać daną propozycje. Richard T. Cox pokazał, że Bayesianskie wnioskowanie jest tylko indukcyjnym wnioskowaniem które przestrzega logicznej spójności.
Nie wiem czy warto je tu przytaczac, czy wstawić je do jakiegoś ogólniejszego artykułu o prawdopodobieństwie.
Własności prawdopodobieństwa
1. P(a) powinno należeć do przedziału od 0 do 1
2. Jeśli a jest pewne P(a) = 1
3. Jeśli a i b obustronnie wykluczające (nie mogą zajść w tym samym czasie) P(a + b) = P(a) + P(b)
4. Jeśli ~a negacja a to P(a + ~a) = P(a) + P(~a) = 1
A = {a1,a2,...,an}
P(A) = {P(a1,P(a2),...,P(an)}
prawdopodobieństwo łączne
P(A,B) = {P(a1,b1),P(a1,b2),...,P(a1,bn),P(a2,b1),...P(a2,bn),...,P(an,b1),...P(an,bn)}
P(a)
Nie wiem czy starczy tu tylko link do istniejącego artykułu. Na podstawie E.T. Jaynes "Propability Theory :The Logic of Science" i tego wstępu do prawdopodobieństwa bayesiańskiego
Twierdzenie Bayesa
Równanie to można odczytać jako zmiana prawdopodobieństwa A w świetle nowych dowodów B. Równanie bardzo wygodne dzięki symetrii P(A|B), P(B|A), można rozwiązać je zamiennie w zależności od komplikacji tych problemów.
Przykład zastosowania równania Bayesa.
mamy dwa torby zawierające białe i czarne kule. Jedna torba zawiera 3 razy więcej białych kul niż czarnych. Pozostałe zawierają 3 razy więcej czarnych niż białych. Losujemy jedną torbę i wyciągamy z niej losowo 5 kul w wyniku czego otrzymujemy 4 białe i jedną czarną. Jakie jest prawdopodobieństwo, że używaliśmy worka z większą liczbą białych kul?
A - zmienna losowa - "wybór torby"
A={a1,a2}
a1 - worek zawierający więcej białych kul
a2 - worek zawierający więcej czarnych kul
B - zdarzenie wylosowania 4 białych i jednej czarnej kuli
Dla torby głównie z białymi kulami prawdopodobieństwo ze kula jest biała 3/4 a, że czarna 1/4 . Korzystając z Dwumianu Newtona.
Postać logarytmiczna równania Bayesa
Czasami wygodnie jest wyrazić prawdopodobieństwo za pomocą skali dziesiętnej
Postać logarytmiczna równania Bayesa (J.I. Good)
Zamiast obliczać prawdopodobieństwo możemy równie dobrze obliczać jakąkolwiek znaną monotoniczną funkcje prawdopodobieństwa jeśli wiemy jaka to funkcja.
Równanie Bayesa dla prawdopodobieństwa a, że A jest fałszywe.
definiujemy niezgodność na zdarzenie A w następujący sposób
możemy zapisać twierdzenie Bayesa jako
Niezgodność jest monotoniczną funkcją prawdopodobieństwa. Definiujemy nową funkcje - funkcje dowodu, będzie ona równierz monotoniczna.
e(A | EX) = 10log10O(A | EX)
Do opisanego w artykule zastosowania poza filtrowaniem spamu powinny znaleźć się inne zastosowania.
Zastosowanie
Od 1950 Teoria Bayesa była szeroko stosowana w Teorii Cox'a, Zasadzie maksymalnej entropii. Czynnik Bayesa jest stosowany z Brzytwą Ockhama do weryfikacji hipotez naukowych . Z niektórych względów w metodach naukowych korzystne jest stosowane Bayesianskiego wnioskowania probabilistycznego. Równanie Bayesa jest w nich wprost lub domyślnie stosowane do ustalania stopnia naukowej wiary w daną hipotezę w świetle uzyskanych nowych dowodów otrzymanych w eksperymencie. P'(h) = P(h|e), „P'(h)” - jest prawdopodobieństwem późniejszym hipotezy „h” w świetle nowego dowodu „e”. Dostosowanie wiary naukowej w dana hipotezę może prowadzić do jej zaakceptowania lub odrzucenia.
[edytuj] Dyskusja pomiędzy zwolennikami prawdopodobieństwa obiektywnego i subiektywnego
Ja nie czuję się na siłach by to opracować na razie, może ktoś mógł by pomóc.
--Lodka (dyskusja) 22:27, 13 mar 2008 (CET)
[edytuj] Nazwe artykułów
Czy ktoś ma coś przeciwko zmian nazw?
- od Prawdopodobieństwo subiektywne do Prawdopodobieństwo bayesowskie ?
- od Prawdopodobieństwo obiektywne do Prawdopodobieństwo częstotliwościowe ?