Ostrzegam, że nie jestem teoretykiem strun, a zatem praca Susskinda nie jest dla mnie w pełni przyzwyczajenia (i prawdopodobnie nie mógłbym tego zrozumieć, gdyby był), więc nie znam w pełni kontekstu (rzekomego cytatu że entropia jest ukrytą informacją).
Ale to, co może rozumieć przez „ukrytą” informację, to jedna lub obie z dwóch rzeczy: pierwsza teoretyczna, druga praktyczna:
- Złożoność Kołmogorowa $ K (\ Omega) $ dla danego systemu $ \ Omega $ (a dokładniej: złożoność jednoznacznego opisu systemu) jest na ogół nieobliczalna . $ K (\ Omega) $ jest powiązany z koncepcją entropii Shannona $ S_ {Sha } (\ Omega) $ (patrz przypis);
- Zarówno złożoność Kołmogorowa, jak i entropia Shannona są maskowane przed makroskopowymi obserwacjami przez statystyczne korelacje między mikroskopowymi składnikami układów: układy termodynamiczne mierzalna entropia $ S_ {exp} (\ Omega) $ (zwykle jest to Boltzmann) równa się prawdziwej entropii Shannona $ S_ {Sha } (\ Omega) $ oraz wszelkie informacje wzajemne $ M (\ Omega) $ (logarytmiczna miara korelacji statystycznej) między elementami systemu: $ S_ {exp} (\ Omega) = S_ {Sha} (\ Omega) + M (\ Omega) $
Mamy nadzieję, że następujące wyjaśnienia pokażą, dlaczego te pojęcia „ukrytego” nie są w żaden sposób związane z byciem „zniszczonym” lub nawet „nieodwracalnym”.
Złożoność Kołmogorowa systemu to rozmiar (zwykle mierzony w bitach) najmniejszego możliwego opisu stanu systemu. Lub, jak cudownie ujął to użytkownik @Johannes: jest to minimalna liczba pytań tak / nie, na które należałoby odpowiedzieć, aby jednoznacznie określić system. Nawet jeśli możesz jednoznacznie i doskonale opisać stan systemu, na ogół nie ma algorytmu decydującego o tym, czy bardziej skompresowany opis może być równoważny. Zobacz na przykład omówienie twierdzenia o nieobliczalności dla złożoności Kołmogorowa w Wikipedii. Zatem w tym sensie prawdziwa entropia rzeczy jest ukryta przed obserwatorem, mimo że rzecz i jej doskonały opis są przez niego w pełni obserwowalne.
Tyle o ukrywaniu entropii (ilości informacji). Ale co z samą informacją? Nieobliczalność złożoności Kołmogorowa ma również wpływ na to pytanie: biorąc pod uwagę, że wielkość entropii opisującej stan systemu jest nieobliczalna, w zasadzie nie ma sposobu, aby stwierdzić, czy stan tego systemu został odwracalnie zakodowany w stanie systemu rozszerzonego, jeśli nasz oryginalny system łączy się z innymi systemami: inaczej mówiąc słowami bardziej stosownymi do czarnych dziur: nie ma algorytmu, który mógłby stwierdzić, czy stan naszego pierwotnego systemu jest zakodowany w stanie innego systemu, który pochłania pierwszy.
W celu omówienia drugiego punktu, tj. Różnic między eksperymentalnie zmierzoną entropią a złożonością Kołmogorowa, zobacz moją odpowiedź. Omawiam tam również, dlaczego informacje mogą nie zostać zniszczone w pewnych prostych sytuacjach, a mianowicie: jeśli odpowiednie prawa fizyki są odwracalne, a zatem
Świat musi w jakiś sposób pamiętać, jak wrócić do dowolnego stanu, z którego wyewoluował (mapowanie między stanami systemu w różnychrazy jest jeden do jednego i na).
Jest to bardziej ogólny sposób umieszczenia opisu ewolucji jednostkowej podanego w innych odpowiedziach.
Posłowie : Charles Bennett w swoim artykule „Termodynamika obliczeń - przegląd” przedstawia intrygującą i satysfakcjonującą teorię, która mówi, że powód, dla którego chemicy fizyczni nie mogą przyjść z niezawodnym algorytmem obliczania entropii cząsteczek, z którymi mają do czynienia, jest właśnie to twierdzenie o nieobliczalności (zauważ, że nie wyklucza się algorytmów dla pewnych konkretnych przypadków, więc twierdzenie nie może udowodnić, dlaczego chemicy fizyczni nie mogą obliczyć entropii, ale jest wysoce prawdopodobne w tym samym sensie, że można powiedzieć, że jednym z powodów, dla których debugowanie oprogramowania jest trudnym problemem, jest nierozstrzygalność twierdzenia Turinga o problemie zatrzymania).
Przypis : Entropia Shannona jest pojęciem łatwiejszym do zastosowania w systemach, które uważa się za należące do procesu stochastycznego, gdy ma się szczegółowy opis statystyczny procesu. Natomiast złożoność Kołmogorowa odnosi się bardziej do „opisów” i należy zdefiniować język opisu, aby w pełni zdefiniować $ K (\ Omega) $ . Dokładnie to, w jaki sposób są one powiązane (lub nawet jeśli którekolwiek jest istotne) w takich pytaniach, jak te poruszone w paradoksie informacji o czarnej dziurze, jest pytaniem, na które odpowiedź prawdopodobnie oczekuje dalszej pracy poza „poglądami” społeczności fizyków (jak ujęte w innej odpowiedzi), czy informacja nie przeżyje materii i energii wrzuconej do czarnej dziury.
Kolejny przypis (26 lipca, 13): Zobacz także stronę Wikipedii w Berry Paradox i cudowną rozmowę Gregory'ego Chaitina zatytułowaną „The Berry Paradox” i wygłoszony na kolokwium z fizyki i informatyki na University of New Mexico. Berry Paradox wprowadza (aczkolwiek nie do końca, ale w codziennych słowach) początki idei leżących u podstaw Złożoności Kołmogorowa i rzeczywiście prowadzi Chaitina do jego niezależnego odkrycia Złożoności Kołmogorowa, mimo że niesformalizowany Paradoks Jagodowy jest w rzeczywistości niejednoznaczny. Wykład podaje również kilka przejmujących przykładów osobistego kontaktu z Kurtem Gödelem.
Edycja 2 sierpnia 2013 Odpowiedzi na pytania Prathyusha :
Mogę nie rozumiem związku między entropią termodynamiczną a złożonością Kolmogorowa, czy mógłbyś to skomentować. Zwłaszcza część „Zatem w tym sensie prawdziwa entropia rzeczy jest ukryta przed obserwatorem, nawet jeśli ta rzecz i jej doskonały opis są przez nich w pełni obserwowalne”. Jeśli znasz dokładny stan układu, to w entropia fizyki wynosi zero, nie przychodzi do głowy to, czy możemy uprościć opis,
Najpierw spróbujmy sobie z tym poradzić
Jeśli znasz dokładny stan system, to w fizyce entropia wynosi zero, czy możemy uprościć opis, nie przychodzi do głowy
Właściwie to, czy istnieje możliwe uproszczenie, jest kluczowe dla obecnego problemu. Załóżmy, że opis naszego systemu $ \ Omega $ ma długość $ N_ \ Omega $ . Ponadto załóżmy, że ciężko pracowaliśmy, aby uzyskać jak najkrótszy pełny opis, więc mamy nadzieję, że $ N_ \ Omega $ jest gdzieś blisko złożoności Kołmogorowa $ K (\ Omega) < N_ \ Omega $ . Nadchodzi kolejny system „swallower” $ \ Sigma $ , który dokładnie badamy, dopóki nie otrzymamy czegoś, co uważamy za pełny opis $ \ Sigma $ , czyli $ N_ \ Sigma $ bity. Ponownie uważamy, że $ N_ \ Sigma $ jest bliski złożoności Kolmogorowa $ \ Sigma $ $ K (\ Sigma) < N_ \ Sigma $ Połykacz $ \ Sigma $ pochłania system $ \ Omega $ - więc te dwa systemy łączą się po pewnym fizycznym procesie. Teraz bardzo dokładnie przestudiujemy nasz połączony system i stwierdzimy, że w jakiś sposób możemy uzyskać pełny opis, którego długość $ N _ {\ Omega \ cup \ Sigma} $ jest znacznie krótsza niż $ N_ \ Omega + N_ \ Sigma $ bity. Czy możemy powiedzieć, że proces scalania był nieodwracalny, w tym sensie, że gdybyśmy cofnęli czas, oryginalne, oddzielone $ \ Omega $ i $ \ Sigma $ nie pojawi się ponownie? Chodzi o to, że nie możemy, nawet jeśli $ N _ {\ Omega \ cup \ Sigma} \ ll N_ \ Omega + N_ \ Sigma $ . Czemu? Ponieważ nigdy nie możemy być pewni, że naprawdę znaleźliśmy najkrótsze możliwe opisy $ \ Omega $ i $ \ Sigma $ . Nie ma sposobu, aby stwierdzić, czy $ K (\ Omega) = N_ \ Omega, K (\ Sigma) = N_ \ Sigma $ .
Ostatecznie chodzi o to, czy ewolucja czasu w fizyce jest funkcją jeden do jednego, tj. biorąc pod uwagę stan końcowy systemu, czy zawsze oznacza to jednoznacznie wyjątkowy stan początkowy? Nasz wielki centralny problem polega na tym, wybaczcie pewną florę mowy, że nie wiemy, jak Natura koduje stany swoich systemów. Mówiąc obrazowo, schemat kodowania i książka kodów są tym, co fizycy zajmują się wypracowywaniem. Zakłada się, że złożoność Kołmogorowa lub powiązane koncepcje mają tu znaczenie, ponieważ zakłada się, że jeśli naprawdę wie się, jak działa Natura, to wiadomo, jaka jest maksymalnie skompresowana (w sensie teorii informacji) przestrzeń konfiguracyjna dla danego systemu, a zatem Najkrótszy możliwy opis stanu systemu to liczba określająca, w którym z punktów przestrzeni konfiguracyjnej znajduje się dany system. Jeśli liczba możliwych punktów w końcowej przestrzeni konfiguracyjnej - końcowa złożoność Kołmogorowa (modulo, stała addytywna) - jest mniejsza niż liczba możliwych punktów w przestrzeni początkowej, to możemy ogólnie powiedzieć, że proces niszczy informacje, ponieważ dwa lub więcej Stany początkowe odwzorowują stan końcowy. Znalezienie ukrytego porządku w pozornie przypadkowym zachowaniu jest trudnym problemem: fakt ten sprawia, że kryptografia działa. Pozornie losowe sekwencje można generować z niezwykle prostych praw: świadek Blum Blum Shub lub Mersenne Twisters. Możemy zaobserwować pozornie przypadkową lub w inny sposób subtelną strukturę w czymś i założyć, że musimy mieć niezwykle skomplikowaną teorię, aby to opisać, podczas gdy Natura może używać metaforycznego twistera Mersenne przez cały czas i podsumowywać znakomitą strukturę w kilku bitach w swoim książce kodów! / p>
Teraz spróbujmy poradzić sobie z:
Nie mogłem zrozumieć związku między entropią termodynamiczną a złożonością Kolmogorowa, czy możesz to skomentować.
Jedną z interpretacji entropii termodynamicznej jest to, że jest ona przybliżeniem „zawartości informacyjnej” systemu lub liczby bitów potrzebnych do pełnego określenia systemu, biorąc pod uwagę tylko jego makroskopowe właściwości. Właściwie Twój komentarz „Nie mogłem zrozumieć związku między entropią termodynamiczną a złożonością Kolmogorowa” jest bardzo dobrą odpowiedzią na całe to pytanie! - na ogół nie znamy związku między nimi i to udaremnia wysiłki, aby dowiedzieć się, ile informacji naprawdę potrzeba, aby jednoznacznie zakodować stan systemu.
Jednak w niektórych przypadkach pojęcia są ze sobą powiązane. Klasycznym przykładem jest tutaj Boltzmann $ H $ -entropy dla gazu złożonego z statystycznie niezależnych cząstek:
$ H = - \ sum_i p_i \ log_2 p_i $
gdzie $ p_i $ to prawdopodobieństwo, że cząstka jest w stanie o numerze $ i $ . Powyższe wyrażenie jest wyrażone w bitach na cząstkę (tutaj właśnie przeskalowałem jednostki, tak aby stała Boltzmanna $ k_B = \ log_e 2 $ ).
Jeśli rzeczywiście zajmowanie stanów przez cząstki jest naprawdę losowe i statystycznie niezależne, to za pomocą Shannon Noiseless Coding Theorem można wykazać, że liczba bitów potrzebna do zakodowania stanów dużej liczba $ N $ z nich to dokładnie $ H $ bitów na cząsteczkę. Jest to minimalna liczba bitów w tym sensie, że jeśli ktoś spróbuje skonstruować kod, który przypisze $ H- \ epsilon $ bitów na cząstkę, to jako $ N \ rightarrow \ infty $ prawdopodobieństwo błędu kodowania zbliża się do jedności, dla dowolnego $ \ epsilon > 0 $ . I odwrotnie, jeśli jesteśmy skłonni przypisać $ H + \ epsilon $ , to zawsze istnieje taki kod, że prawdopodobieństwo całkowicie jednoznacznego kodowania zbliża się do jedności jako $ N \ rightarrow \ infty $ dla dowolnego $ \ epsilon > 0 $ . Zatem w tym szczególnym przypadku entropia Boltzmanna równa się złożoności Kołmogorowa jako $ N \ rightarrow \ infty $ : musimy wybrać $ H + \ epsilon $ bitów na cząstkę plus stały narzut opisujący, jak działa kodowanie w języku, z którym pracujemy. To obciążenie rozłożone na wszystkie cząstki zbliża się do zera bitów na cząstkę jako $ N \ rightarrow \ infty $ .
Gdy układ termodynamiczny jest w stanie „równowagi "i statystycznie niezależne zajęcia stanu cząstek, możemy podłączyć rozkład prawdopodobieństwa Boltzmanna
$ p_i = \ mathcal {Z} ^ {- 1} e ^ {- \ beta E_i} $
do $ H $ i pokaż, że daje to to samo co entropia Clausiusa $ S_ {exp} $ pochodzi z eksperymentalnych makrostatów.
Jeśli istnieje korelacja między zajęciami cząstek, podobne komentarze w zasadzie odnoszą się do Entropii Gibbsa, jeśli wspólne rozkłady prawdopodobieństwa stanu są znane dla wszystkich cząstek. Jednak łącznych rozkładów prawdopodobieństwa na ogół nie można znaleźć, przynajmniej na podstawie pomiarów makroskopowych. Zobacz artykuł Gibbs vs Boltzmann Entropy autorstwa E. T. Jaynes, a także wiele innych prac jego autorstwa na ten temat). Ponadto użytkownik Nathaniel z Physics Stack Exchange ma doskonałą pracę doktorską, a także kilka artykułów, które mogą być interesujące. Trudność zmierzenia entropii Gibbsa jest kolejną trudnością w całym tym problemie. Podałem też inną odpowiedź podsumowującą ten problem.
Ostatni sposób na powiązanie KK z innymi koncepcjami entropii: jeśli chcesz, możesz użyć pojęcia KK, aby zdefiniować , co rozumiemy przez „losowy” i „statystycznie niezależny”. Motywowani twierdzeniem Shannon Noiseless Coding, możemy go nawet użyć do zdefiniowania prawdopodobieństw. Sekwencja zmiennych jest losowa, jeśli nie ma modelu (brak opisu), którego można użyć do opisania ich wartości w inny sposób niż nazwanie ich wartości. Stopień „losowości” zmiennej losowej można wyobrazić sobie w ten sposób: można znaleźć model, który w pewien sposób opisuje sekwencję zmiennych - ale jest on tylko przybliżony. Krótszy opis ciągu losowego polega na zdefiniowaniu modelu i jego warunków brzegowych, a następnie zakodowaniu tego modelu i warunków oraz rozbieżności między obserwowanymi zmiennymi a modelem. Jeśli model jest lepszy niż zgadywanie, będzie to bardziej zwięzły opis niż po prostu pełne nazwanie wartości. Zmienne są „statystycznie niezależne”, jeśli nie ma opisu, nawet w zasadzie, który mógłby modelować, w jaki sposób wartość niektórych zmiennych wpływa na inne, a zatem najbardziej zwięzłym opisem sekwencji jest pełne nazwanie wszystkich oddzielnych zmiennych. To właśnie robią funkcje korelacji między rvs, na przykład: znajomość wartości X może być wykorzystana do zmniejszenia wariancji drugiej skorelowanej zmiennej Y poprzez model liniowy uwzględniający współczynnik korelacji (mam na myśli zmniejszenie wariancji w warunkowy rozkład prawdopodobieństwa ). Na koniec możemy obrócić twierdzenie Shannona o bezszumowym kodowaniu do góry nogami i użyć go do zdefiniowania prawdopodobieństw za pomocą KC: prawdopodobieństwa, że dyskretne rv $ X $ span> równa się $ x $ to $ p $ , jeśli następujące elementy są wstrzymane. Weź sekwencję rvs i dla każdego zapisz sekwencję wartości prawdy $ X = x $ "lub $ X \ neq x $ i „znajdź możliwie najdokładniejszy opis” (będziemy potrzebować „wyroczni” ze względu na nieobliczalność KK) tej sekwencji wartości prawdy i jej długości w bitach i bitach na składową sekwencji. Prawdopodobieństwo „p” jest wtedy liczbą taką, że $ - p \ log_2 p - (1-p) \ log_2 (1-p) $ równa się tym bitom na element sekwencji, jako sekwencja length $ \ rightarrow \ infty $ (wzięcie limitu zarówno poprawia szacunki statystyczne , jak i rozciąga narzut o stałej długości przy opisywaniu schematu kodowania na wiele składowych sekwencji, tak aby ten narzut nie przyczyniał się do liczby bitów na składową sekwencji) .To podejście omija niektóre filozoficzne pola minowe, które powstają nawet przy definiowaniu losowości i prawdopodobieństwa - patrz Stanford Dictionary of Philosophy wpis „Szansa a przypadkowość, aby to wyjaśnić.
Na koniec”:
Jeśli znasz dokładny stan systemu, to w fizyce entropia wynosi zero
Tutaj naszymi problemami są subtelne rozróżnienia (1) między instancją zespołu systemów, z których wszystkie zakłada się, że są członkami tego samego losowego procesu lub „populacji”, a samym zespołem; warunkowe entropie teorii informacji.
Kiedy powiedziałem, że „prawdziwa entropia rzeczy jest ukryta przed obserwatorem, nawet jeśli ta rzecz i jej doskonały opis są przez nich w pełni obserwowalne”, no cóż, oczywiście informacyjna entropia Shannona, uwarunkowana pełna wiedza obserwatora o systemie jest niczym. Natomiast entropia termodynamiczna będzie taka sama dla każdego. Z drugiej strony, entropia teorii informacji dla innego obserwatora, który nie ma pełnej wiedzy, jest niezerowa. To, do czego dążyłem w tym przypadku, to złożoność Kołmogorowa lub liczba pytań tak / nie potrzebnych do określenia systemu z tej samej podstawowej populacji statystycznej, ponieważ ta wielkość, jeśli można ją obliczyć przed i po procesie fizycznym, jest czego można użyć, aby stwierdzić, czy proces był odwracalny (w sensie bycia funkcją jeden do jednego konfiguracji systemu).
Mam nadzieję, że te refleksje pomogą Ci Prathyush w dążeniu do zrozumienia niezniszczalność lub w inny sposób informacji w fizyce.