Pytanie:
Dlaczego informacje są niezniszczalne?
HDE
2012-05-29 21:34:20 UTC
view on stackexchange narkive permalink

Naprawdę nie rozumiem, co Leonard Susskind ma na myśli, kiedy mówi w filmie Leonard Susskind w filmie The World As Hologram, że informacje są niezniszczalne.

Czy te informacje są utracone, przez wzrost entropii naprawdę możliwe do odzyskania?

On sam powiedział, że entropia to ukryta informacja. Wtedy, chociaż ukryte informacje mają wymierne skutki, myślę, że informacji utraconych w nieodwracalnym procesie nie można odzyskać. Jednak twierdzenie Susskinda jest zupełnie odwrotne. Jak należy rozumieć utratę informacji przez proces wzrostu entropii i jej związek ze stwierdzeniem „informacja jest niezniszczalna”.

Fizyka czarnej dziury może być użyta w odpowiedziach, ale, jak proponuje on ogólne prawo fizyki, wolałbym odpowiedź nie obejmującą czarnych dziur.

Informacja została utracona dla naszej percepcji, ale nadal istnieje we wszechświecie.
Jest to związane z jednością ewolucji QM.
Jest to bardzo niejasne i niemożliwe do odpowiedzi. Czy opiera się na popularyzacji?
Myślę, że ma na myśli, że ewolucja czasu jest odwracalna ... innymi słowy, komentarz +1 @Raskolnikov.
@BenCrowell HDE publikuje link, w którym zgaduję, że Susskind składa oświadczenie lub przynajmniej jeden OP renderuje jako post.
Prostym językiem, jak to rozumiem, zgodnie z QM możemy opisać świat funkcją falową. Równanie ruchu tej funkcji falowej jest odwracalne, więc jeśli znasz funkcję falową w pewnym momencie, możesz użyć równania ewolucji funkcji falowej, aby przewidzieć, jaka będzie funkcja falowa w przyszłości lub w przeszłości.
Mikroskopijne prawa fizyki są odwracalne, nieodwracalność pojawia się tylko z powodu gruboziarnistego ziarna na większą efektywną skalę, ale informacje mikroskopowe nie giną. Dlatego też jedyny kontekst, w jakim pozostaje pytanie, czy informacje mogą zostać zniszczone, dotyczy czarnych dziur, o których PO nie chce słyszeć. Ale nawet w tym przypadku problem został rozwiązany, o czym można przeczytać na przykład w artykułach TRF [many] (site: motls.blogspot.com black-hole information).
Czy nie zakłada to jednak odpowiedzi na wciąż nieuregulowany problem interpretacyjny mechaniki kwantowej?W szczególności to, co, jeśli w ogóle, stanowi „rzeczywisty” stan Wszechświata pomiędzy obserwacjami / pomiarami, a ponadto to, że „załamanie funkcji falowej” widoczne w nich (a konkretnie redukcja wielu możliwości do jednej) jest subiektywne, a nie obiektywne.(tj. rzeczywiste fizyczne usunięcie „prawdziwych” gałęzi)?
Ma kilka książek (seria Theoretical Minimum) i wykłady z mechaniki statystycznej, które obejmują te pojęcia.Zasadniczo traktuje transformacje jednostkowe w QM i twierdzeniu Liouville'a w mechanice klasycznej jako wersje zachowania informacji.Przez „informacje ukryte” odnosi się do gruboziarnistej entropii i interpretacji jej jako niedostępnej informacji przez Jayne'a.
Osiem odpowiedzi:
Johannes
2013-07-31 21:30:30 UTC
view on stackexchange narkive permalink

W jaki sposób twierdzenie „informacja jest niezniszczalna” jest zgodna z „informacja jest zagubiona w entropii”?

Zróbmy rzeczy tak konkretne i tak proste, jak to tylko możliwe. Zapomnijmy o fizyce kwantowej i dynamice jednostkowej, bawmy się całkowicie prostymi, odwracalnymi automatami komórkowymi.

Rozważmy czasoprzestrzeń składającą się z kwadratowej sieci komórek ze zdefiniowanym na niej trójargumentowym (trójwartościowym) polem. Wartości są kodowane kolorami w taki sposób, że komórki mogą być żółte, pomarańczowe i czerwone. „Równania pól” składają się z zestawu dozwolonych kolorów dla każdego bloku 2x2 komórek:

enter image description here

Dozwolonych jest łącznie 27 lokalnych wzorów kolorów. Są one zdefiniowane w taki sposób, że gdy trzy z czterech kwadratów są kolorowe, kolor czwartej komórki jest jednoznacznie określony. (Sprawdź to!)

Równania pola nie zawierają „kierunku ewolucji”. Jak więc zdefiniować czasowy kierunek? Załóżmy, że patrząc na „północ” lub „zachód” wzdłuż krat, trafisz w horyzont, za którym rozciąga się nieskończone morze żółtych kwadratów:

enter image description here

„Północ” a „Zachód” określamy jako „promienie światła z przeszłości”. Te dwa promienie komórek stanowią „migawkę” Wszechświata pobraną z punktu czasoprzestrzeni określonego przez przecięcie się dwóch promieni. Biorąc pod uwagę tę „migawkę” i używając równań pola (dozwolone zabarwienia 2x2), możemy rozpocząć rekonstrukcję przeszłości:

enter image description here

Tutaj reguła zastosowana do pokolorowania komórka wynika z kwadratu na dole środkowej kolumny w przeglądzie 27 dozwolonych kwadratów 2x2. Jest to jedyny wzór 2x2 z 27, który pasuje do podanych kolorów po prawej stronie, na dole i po prawej dolnej stronie kolorowanej komórki. Identyfikując ten wzór 2x2 jako unikalnie pasujący do podanych kolorów komórek, kolor w lewym górnym rogu zostaje ustalony.

Kontynuując w ten sposób, otrzymujemy pełną przeszłość wszechświata do dowolnego punktu, w jakim chcemy:

enter image description here

Zauważamy, że całą przeszłość skonstruowaliśmy znając zabarwienie „komórek promieni świetlnych” na „migawce”, która, z wyłączeniem jednolitego morza poza horyzontami, liczy nie więcej niż 25 komórek. Identyfikujemy tę liczbę jako entropię (liczbę trytów) obserwowaną od punktu, w którym spotykają się dwa promienie świetlne. Zauważ, że później entropia jest większa: ten prosty model przestrzega drugiej zasady termodynamiki.

Teraz odwracamy dynamikę i dzieje się interesująca rzecz: znając tylko 9 wartości kolorów promieni świetlnych do przyszłość (znowu z wyłączeniem jednolitego morza za horyzontem):

enter image description here

Możemy zrekonstruować pełną przyszłość:

enter image description here

Odnosimy się do tych 9 trytów, które definiują pełną ewolucję wszechświata automatów komórkowych jako „zawartość informacyjną” wszechświata. Oczywiście 25 trytów entropii zawiera 9 trytów informacji. Ta informacja jest obecna, ale „ukryta” w trytach entropii. Entropia w tym modelu będzie rosła. 9 trytów informacji pozostaje niezmiennych i ukrytych (ale możliwych do odzyskania) z coraz większej liczby trytów entropii.

Zauważ, że żadne z dokonanych obserwacji nie zależy od szczegółów „równań pola”. W rzeczywistości każdy zestaw dozwolonych kolorów 2x2, które jednoznacznie definiują kolor pozostałej komórki, biorąc pod uwagę kolory trzech komórek, da te same obserwacje.

Na podstawie tego modelu zabawki można dokonać o wiele więcej obserwacji. Jedną z oczywistych cech jest to, że model nie ma „wielkiego wybuchu”, ale raczej „duże odbicie”. Co więcej, zawartość informacyjna (9 trytów w powyższym przykładzie) definiująca ten wszechświat jest znacznie mniejsza niż późniejsza entropia (która rośnie bez ograniczeń). Jest to bezpośrednia konsekwencja obecności w modelu „horyzontu z przeszłości”. Ponadto, mimo że „równania pola” w tym modelu są w pełni odwracalne, „migawka” pozwala zrekonstruować pełną przeszłość, ale nie przyszłość. Tę „strzałę czasu” można ominąć, rekonstruując przeszłość poza „wielkim odbiciem”, w którym przeszłe i przyszłe role zmieniają się, a z dokonanej rekonstrukcji można uzyskać nowy obraz. Ta migawka jest zorientowana na przyszłość i pozwala konstruować przyszłość poza oryginalną migawką.

Te obserwacje jednak wykraczają daleko poza zadawane pytania.

Ten post brzmi fajnie, ale trochę trudno go śledzić ... Czy możesz sprecyzować część dotyczącą rekonstrukcji? Skąd pochodzą niektóre liczby?
Jeśli „entropia” jest „ukrytą informacją”, czy entropia nie powinna wynosić 9 cech, a nie 25? Te 9 cech to niewątpliwie te, które są ukryte.
@Peter - poprawnie, informacja ukryta jest w entropii. W przedstawionym CA entropia to liczba trytów, która rośnie (25 w danym momencie i wzrastająca o dwa w każdym kroku). Informacja ukryta w entropii to nie więcej niż 9 trytów. PS. poprawili wiodące pytanie.
@kηives - dodaliśmy figurę, aby uwydatnić dynamikę rekonstrukcji. czy to pomaga?
Podczas gdy odpowiedź WIMP odpowiadała bezpośrednio na pytanie, uznałem ten model zabawki za bardzo interesujący i ilustrujący kilka podstawowych pomysłów.
Dziękuję Prathyush. Dziękuję za ożywienie tego wątku. Fajnie było opracować ten model zabawki i przekształcić go w „wszechświat rosnący entropijnie”.
Twój przykład jest bardzo ładny i oryginalny, ale ja mam inne zdanie na jego temat. Myślę, że „stan początkowy” odpowiada wszystkim polom górnym i lewym, a „stanowi końcowemu” wszystkim polom prawym i dolnym. „Informacja” jest zachowana, po prostu dlatego, że we wszystkich pudełkach są kolory, a jest to możliwe dzięki „jednolitym” regułom automatu komórkowego, który zawsze pozwala nadać kolor każdemu pudełku.
Moglibyśmy zdefiniować „entropię” dla stanów początkowych i końcowych, biorąc pod uwagę, że prawdopodobieństwo, że stan jest w jakimś kolorze, jest równe liczbie pól tego koloru podzielonej przez całkowitą liczbę pudełek (25), dla rozważany stan i obliczyć entropię Shannona. Teraz, jeśli obliczysz różnicę tej "entropii" między "stanem początkowym" (góra / lewo) a "stanem końcowym" (prawy / dół), zobaczysz, że „entropia” wzrosła, podczas gdy „informacja” została zachowana.
To takie fajne wyjaśnienie !!! Jednak w modelu liczby cząstek avogadro w pudełku, podczas gdy dynamika Newtona jest z pewnością deterministyczna, odtworzenie stanu początkowego za pomocą migawki wykonanej w znacznie późniejszym czasie jest prawie niemożliwe i nasza zdolność do tego jest ograniczona.A co z wykładnikiem Lapunowa?
@Johannes - Lepiej 4 lata późno niż wcale.:) Jak wymyśliłeś swoje automaty komórkowe!?!Byłem nim tak zafascynowany, że stworzyłem arkusz kalkulacyjny, żeby się nim bawić.Jak na pewno wiesz, rozszerzenie powyższego wzoru na przeszłość lub przyszłość skutkuje powstaniem dywanu Sierpińskiego (SC)!Poszukałem w Google, aby sprawdzić, czy ktoś utworzył SC przy użyciu czegoś takiego jak twoje 27 płytek 2x2, ale nic nie znalazłem.Czy mógłbyś powiedzieć trochę więcej o tym, jak wymyśliłeś ten oparty na kafelkach automat komórkowy i dlaczego uważasz, że ma on zastosowanie do zachowania informacji i entropii?Z przyjemnością udostępnię mój arkusz kalkulacyjny, jeśli ktoś jest zainteresowany.
Ponieważ nie otrzymałem odpowiedzi od @Johannes,, czuję się zmuszony do publicznego przedstawienia mojej krytyki jego odpowiedzi, bez możliwości wcześniejszego omówienia z nim moich obaw.Jak zauważyłem powyżej, wzorce i zasady, które wprowadza, definiują automaty komórkowe, które tworzą wzór znany jako dywan Sierpińskiego.Oto obrazek wygenerowany z reguł: [Sierpinski Carpet] (https://drive.google.com/open?id=19mQhq4oWRLu7l4mrL1hFHlILIsPVGZ1y).Nie sądzę, aby deterministycznie generowanie obrazu na podstawie zestawu reguł i wzorca początkowego naprawdę rzucało dużo światła na ten problem.
WIMP
2012-05-30 12:53:03 UTC
view on stackexchange narkive permalink

Nie wiem, w jakim kontekście Susskind o tym wspomniał, ale prawdopodobnie miał na myśli, że czas ewolucji jest jednolity. Oznacza to między innymi, że jest odwracalny, tj. Żadna informacja nie może się nigdy zgubić, ponieważ zasadniczo można, zaczynając od dowolnego czasu (wycinek podobny do czasu), cofnąć czas (teoretycznie) i obliczyć, co się stało wcześniej.

Gdyby ewolucja czarnej dziury była rzeczywiście całkowicie termiczna, naruszyłaby jedność, a informacje zostałyby rzeczywiście utracone. Myślę, że Susskind uważa, że ​​tak nie jest.

W swoim pytaniu starałem się podkreślić fakt, że w praktyce ** nie da się tego obliczyć **, a ja nie mówię tylko o niemożliwości „obliczeniowych pomiarów”, ale nawet o stanie kwantowym (o wystarczająco złożonym system rzeczywisty), ponieważ musi być określony, na początek będziesz potrzebował pomiarów, więc cały stan nie będzie obliczalny. Stwierdzenie „informacja jest niezniszczalna” jest dziwne, chciałbym zrozumieć, do czego się odnosi. Moje pytanie brzmi, jak „informacja hipotetyczna” ** niemożliwa do odzyskania w żaden sposób ** może być nadal nazywana informacją?
Myślę, że za dużo czytasz słowami. Jak powiedziałem, prawdopodobnie mówił tylko o jedności.
Selene Routley
2013-07-17 10:22:23 UTC
view on stackexchange narkive permalink

Ostrzegam, że nie jestem teoretykiem strun, a zatem praca Susskinda nie jest dla mnie w pełni przyzwyczajenia (i prawdopodobnie nie mógłbym tego zrozumieć, gdyby był), więc nie znam w pełni kontekstu (rzekomego cytatu że entropia jest ukrytą informacją).

Ale to, co może rozumieć przez „ukrytą” informację, to jedna lub obie z dwóch rzeczy: pierwsza teoretyczna, druga praktyczna:

  1. Złożoność Kołmogorowa $ K (\ Omega) $ dla danego systemu $ \ Omega $ (a dokładniej: złożoność jednoznacznego opisu systemu) jest na ogół nieobliczalna . $ K (\ Omega) $ jest powiązany z koncepcją entropii Shannona $ S_ {Sha } (\ Omega) $ (patrz przypis);
  2. Zarówno złożoność Kołmogorowa, jak i entropia Shannona są maskowane przed makroskopowymi obserwacjami przez statystyczne korelacje między mikroskopowymi składnikami układów: układy termodynamiczne mierzalna entropia $ S_ {exp} (\ Omega) $ (zwykle jest to Boltzmann) równa się prawdziwej entropii Shannona $ S_ {Sha } (\ Omega) $ oraz wszelkie informacje wzajemne $ M (\ Omega) $ (logarytmiczna miara korelacji statystycznej) między elementami systemu: $ S_ {exp} (\ Omega) = S_ {Sha} (\ Omega) + M (\ Omega) $

Mamy nadzieję, że następujące wyjaśnienia pokażą, dlaczego te pojęcia „ukrytego” nie są w żaden sposób związane z byciem „zniszczonym” lub nawet „nieodwracalnym”.

Złożoność Kołmogorowa systemu to rozmiar (zwykle mierzony w bitach) najmniejszego możliwego opisu stanu systemu. Lub, jak cudownie ujął to użytkownik @Johannes: jest to minimalna liczba pytań tak / nie, na które należałoby odpowiedzieć, aby jednoznacznie określić system. Nawet jeśli możesz jednoznacznie i doskonale opisać stan systemu, na ogół nie ma algorytmu decydującego o tym, czy bardziej skompresowany opis może być równoważny. Zobacz na przykład omówienie twierdzenia o nieobliczalności dla złożoności Kołmogorowa w Wikipedii. Zatem w tym sensie prawdziwa entropia rzeczy jest ukryta przed obserwatorem, mimo że rzecz i jej doskonały opis są przez niego w pełni obserwowalne.

Tyle o ukrywaniu entropii (ilości informacji). Ale co z samą informacją? Nieobliczalność złożoności Kołmogorowa ma również wpływ na to pytanie: biorąc pod uwagę, że wielkość entropii opisującej stan systemu jest nieobliczalna, w zasadzie nie ma sposobu, aby stwierdzić, czy stan tego systemu został odwracalnie zakodowany w stanie systemu rozszerzonego, jeśli nasz oryginalny system łączy się z innymi systemami: inaczej mówiąc słowami bardziej stosownymi do czarnych dziur: nie ma algorytmu, który mógłby stwierdzić, czy stan naszego pierwotnego systemu jest zakodowany w stanie innego systemu, który pochłania pierwszy.

W celu omówienia drugiego punktu, tj. Różnic między eksperymentalnie zmierzoną entropią a złożonością Kołmogorowa, zobacz moją odpowiedź. Omawiam tam również, dlaczego informacje mogą nie zostać zniszczone w pewnych prostych sytuacjach, a mianowicie: jeśli odpowiednie prawa fizyki są odwracalne, a zatem

Świat musi w jakiś sposób pamiętać, jak wrócić do dowolnego stanu, z którego wyewoluował (mapowanie między stanami systemu w różnychrazy jest jeden do jednego i na).

Jest to bardziej ogólny sposób umieszczenia opisu ewolucji jednostkowej podanego w innych odpowiedziach.

Posłowie : Charles Bennett w swoim artykule „Termodynamika obliczeń - przegląd” przedstawia intrygującą i satysfakcjonującą teorię, która mówi, że powód, dla którego chemicy fizyczni nie mogą przyjść z niezawodnym algorytmem obliczania entropii cząsteczek, z którymi mają do czynienia, jest właśnie to twierdzenie o nieobliczalności (zauważ, że nie wyklucza się algorytmów dla pewnych konkretnych przypadków, więc twierdzenie nie może udowodnić, dlaczego chemicy fizyczni nie mogą obliczyć entropii, ale jest wysoce prawdopodobne w tym samym sensie, że można powiedzieć, że jednym z powodów, dla których debugowanie oprogramowania jest trudnym problemem, jest nierozstrzygalność twierdzenia Turinga o problemie zatrzymania).

Przypis : Entropia Shannona jest pojęciem łatwiejszym do zastosowania w systemach, które uważa się za należące do procesu stochastycznego, gdy ma się szczegółowy opis statystyczny procesu. Natomiast złożoność Kołmogorowa odnosi się bardziej do „opisów” i należy zdefiniować język opisu, aby w pełni zdefiniować $ K (\ Omega) $ . Dokładnie to, w jaki sposób są one powiązane (lub nawet jeśli którekolwiek jest istotne) w takich pytaniach, jak te poruszone w paradoksie informacji o czarnej dziurze, jest pytaniem, na które odpowiedź prawdopodobnie oczekuje dalszej pracy poza „poglądami” społeczności fizyków (jak ujęte w innej odpowiedzi), czy informacja nie przeżyje materii i energii wrzuconej do czarnej dziury.

Kolejny przypis (26 lipca, 13): Zobacz także stronę Wikipedii w Berry Paradox i cudowną rozmowę Gregory'ego Chaitina zatytułowaną „The Berry Paradox” i wygłoszony na kolokwium z fizyki i informatyki na University of New Mexico. Berry Paradox wprowadza (aczkolwiek nie do końca, ale w codziennych słowach) początki idei leżących u podstaw Złożoności Kołmogorowa i rzeczywiście prowadzi Chaitina do jego niezależnego odkrycia Złożoności Kołmogorowa, mimo że niesformalizowany Paradoks Jagodowy jest w rzeczywistości niejednoznaczny. Wykład podaje również kilka przejmujących przykładów osobistego kontaktu z Kurtem Gödelem.

Edycja 2 sierpnia 2013 Odpowiedzi na pytania Prathyusha :

Mogę nie rozumiem związku między entropią termodynamiczną a złożonością Kolmogorowa, czy mógłbyś to skomentować. Zwłaszcza część „Zatem w tym sensie prawdziwa entropia rzeczy jest ukryta przed obserwatorem, nawet jeśli ta rzecz i jej doskonały opis są przez nich w pełni obserwowalne”. Jeśli znasz dokładny stan układu, to w entropia fizyki wynosi zero, nie przychodzi do głowy to, czy możemy uprościć opis,

Najpierw spróbujmy sobie z tym poradzić

Jeśli znasz dokładny stan system, to w fizyce entropia wynosi zero, czy możemy uprościć opis, nie przychodzi do głowy

Właściwie to, czy istnieje możliwe uproszczenie, jest kluczowe dla obecnego problemu. Załóżmy, że opis naszego systemu $ \ Omega $ ma długość $ N_ \ Omega $ . Ponadto załóżmy, że ciężko pracowaliśmy, aby uzyskać jak najkrótszy pełny opis, więc mamy nadzieję, że $ N_ \ Omega $ jest gdzieś blisko złożoności Kołmogorowa $ K (\ Omega) < N_ \ Omega $ . Nadchodzi kolejny system „swallower” $ \ Sigma $ , który dokładnie badamy, dopóki nie otrzymamy czegoś, co uważamy za pełny opis $ \ Sigma $ , czyli $ N_ \ Sigma $ bity. Ponownie uważamy, że $ N_ \ Sigma $ jest bliski złożoności Kolmogorowa $ \ Sigma $ $ K (\ Sigma) < N_ \ Sigma $ Połykacz $ \ Sigma $ pochłania system $ \ Omega $ - więc te dwa systemy łączą się po pewnym fizycznym procesie. Teraz bardzo dokładnie przestudiujemy nasz połączony system i stwierdzimy, że w jakiś sposób możemy uzyskać pełny opis, którego długość $ N _ {\ Omega \ cup \ Sigma} $ jest znacznie krótsza niż $ N_ \ Omega + N_ \ Sigma $ bity. Czy możemy powiedzieć, że proces scalania był nieodwracalny, w tym sensie, że gdybyśmy cofnęli czas, oryginalne, oddzielone $ \ Omega $ i $ \ Sigma $ nie pojawi się ponownie? Chodzi o to, że nie możemy, nawet jeśli $ N _ {\ Omega \ cup \ Sigma} \ ll N_ \ Omega + N_ \ Sigma $ . Czemu? Ponieważ nigdy nie możemy być pewni, że naprawdę znaleźliśmy najkrótsze możliwe opisy $ \ Omega $ i $ \ Sigma $ . Nie ma sposobu, aby stwierdzić, czy $ K (\ Omega) = N_ \ Omega, K (\ Sigma) = N_ \ Sigma $ .

Ostatecznie chodzi o to, czy ewolucja czasu w fizyce jest funkcją jeden do jednego, tj. biorąc pod uwagę stan końcowy systemu, czy zawsze oznacza to jednoznacznie wyjątkowy stan początkowy? Nasz wielki centralny problem polega na tym, wybaczcie pewną florę mowy, że nie wiemy, jak Natura koduje stany swoich systemów. Mówiąc obrazowo, schemat kodowania i książka kodów są tym, co fizycy zajmują się wypracowywaniem. Zakłada się, że złożoność Kołmogorowa lub powiązane koncepcje mają tu znaczenie, ponieważ zakłada się, że jeśli naprawdę wie się, jak działa Natura, to wiadomo, jaka jest maksymalnie skompresowana (w sensie teorii informacji) przestrzeń konfiguracyjna dla danego systemu, a zatem Najkrótszy możliwy opis stanu systemu to liczba określająca, w którym z punktów przestrzeni konfiguracyjnej znajduje się dany system. Jeśli liczba możliwych punktów w końcowej przestrzeni konfiguracyjnej - końcowa złożoność Kołmogorowa (modulo, stała addytywna) - jest mniejsza niż liczba możliwych punktów w przestrzeni początkowej, to możemy ogólnie powiedzieć, że proces niszczy informacje, ponieważ dwa lub więcej Stany początkowe odwzorowują stan końcowy. Znalezienie ukrytego porządku w pozornie przypadkowym zachowaniu jest trudnym problemem: fakt ten sprawia, że ​​kryptografia działa. Pozornie losowe sekwencje można generować z niezwykle prostych praw: świadek Blum Blum Shub lub Mersenne Twisters. Możemy zaobserwować pozornie przypadkową lub w inny sposób subtelną strukturę w czymś i założyć, że musimy mieć niezwykle skomplikowaną teorię, aby to opisać, podczas gdy Natura może używać metaforycznego twistera Mersenne przez cały czas i podsumowywać znakomitą strukturę w kilku bitach w swoim książce kodów! / p>

Teraz spróbujmy poradzić sobie z:

Nie mogłem zrozumieć związku między entropią termodynamiczną a złożonością Kolmogorowa, czy możesz to skomentować.

Jedną z interpretacji entropii termodynamicznej jest to, że jest ona przybliżeniem „zawartości informacyjnej” systemu lub liczby bitów potrzebnych do pełnego określenia systemu, biorąc pod uwagę tylko jego makroskopowe właściwości. Właściwie Twój komentarz „Nie mogłem zrozumieć związku między entropią termodynamiczną a złożonością Kolmogorowa” jest bardzo dobrą odpowiedzią na całe to pytanie! - na ogół nie znamy związku między nimi i to udaremnia wysiłki, aby dowiedzieć się, ile informacji naprawdę potrzeba, aby jednoznacznie zakodować stan systemu.

Jednak w niektórych przypadkach pojęcia są ze sobą powiązane. Klasycznym przykładem jest tutaj Boltzmann $ H $ -entropy dla gazu złożonego z statystycznie niezależnych cząstek:

$ H = - \ sum_i p_i \ log_2 p_i $

gdzie $ p_i $ to prawdopodobieństwo, że cząstka jest w stanie o numerze $ i $ . Powyższe wyrażenie jest wyrażone w bitach na cząstkę (tutaj właśnie przeskalowałem jednostki, tak aby stała Boltzmanna $ k_B = \ log_e 2 $ ).

Jeśli rzeczywiście zajmowanie stanów przez cząstki jest naprawdę losowe i statystycznie niezależne, to za pomocą Shannon Noiseless Coding Theorem można wykazać, że liczba bitów potrzebna do zakodowania stanów dużej liczba $ N $ z nich to dokładnie $ H $ bitów na cząsteczkę. Jest to minimalna liczba bitów w tym sensie, że jeśli ktoś spróbuje skonstruować kod, który przypisze $ H- \ epsilon $ bitów na cząstkę, to jako $ N \ rightarrow \ infty $ prawdopodobieństwo błędu kodowania zbliża się do jedności, dla dowolnego $ \ epsilon > 0 $ . I odwrotnie, jeśli jesteśmy skłonni przypisać $ H + \ epsilon $ , to zawsze istnieje taki kod, że prawdopodobieństwo całkowicie jednoznacznego kodowania zbliża się do jedności jako $ N \ rightarrow \ infty $ dla dowolnego $ \ epsilon > 0 $ . Zatem w tym szczególnym przypadku entropia Boltzmanna równa się złożoności Kołmogorowa jako $ N \ rightarrow \ infty $ : musimy wybrać $ H + \ epsilon $ bitów na cząstkę plus stały narzut opisujący, jak działa kodowanie w języku, z którym pracujemy. To obciążenie rozłożone na wszystkie cząstki zbliża się do zera bitów na cząstkę jako $ N \ rightarrow \ infty $ .

Gdy układ termodynamiczny jest w stanie „równowagi "i statystycznie niezależne zajęcia stanu cząstek, możemy podłączyć rozkład prawdopodobieństwa Boltzmanna

$ p_i = \ mathcal {Z} ^ {- 1} e ^ {- \ beta E_i} $

do $ H $ i pokaż, że daje to to samo co entropia Clausiusa $ S_ {exp} $ pochodzi z eksperymentalnych makrostatów.

Jeśli istnieje korelacja między zajęciami cząstek, podobne komentarze w zasadzie odnoszą się do Entropii Gibbsa, jeśli wspólne rozkłady prawdopodobieństwa stanu są znane dla wszystkich cząstek. Jednak łącznych rozkładów prawdopodobieństwa na ogół nie można znaleźć, przynajmniej na podstawie pomiarów makroskopowych. Zobacz artykuł Gibbs vs Boltzmann Entropy autorstwa E. T. Jaynes, a także wiele innych prac jego autorstwa na ten temat). Ponadto użytkownik Nathaniel z Physics Stack Exchange ma doskonałą pracę doktorską, a także kilka artykułów, które mogą być interesujące. Trudność zmierzenia entropii Gibbsa jest kolejną trudnością w całym tym problemie. Podałem też inną odpowiedź podsumowującą ten problem.

Ostatni sposób na powiązanie KK z innymi koncepcjami entropii: jeśli chcesz, możesz użyć pojęcia KK, aby zdefiniować , co rozumiemy przez „losowy” i „statystycznie niezależny”. Motywowani twierdzeniem Shannon Noiseless Coding, możemy go nawet użyć do zdefiniowania prawdopodobieństw. Sekwencja zmiennych jest losowa, jeśli nie ma modelu (brak opisu), którego można użyć do opisania ich wartości w inny sposób niż nazwanie ich wartości. Stopień „losowości” zmiennej losowej można wyobrazić sobie w ten sposób: można znaleźć model, który w pewien sposób opisuje sekwencję zmiennych - ale jest on tylko przybliżony. Krótszy opis ciągu losowego polega na zdefiniowaniu modelu i jego warunków brzegowych, a następnie zakodowaniu tego modelu i warunków oraz rozbieżności między obserwowanymi zmiennymi a modelem. Jeśli model jest lepszy niż zgadywanie, będzie to bardziej zwięzły opis niż po prostu pełne nazwanie wartości. Zmienne są „statystycznie niezależne”, jeśli nie ma opisu, nawet w zasadzie, który mógłby modelować, w jaki sposób wartość niektórych zmiennych wpływa na inne, a zatem najbardziej zwięzłym opisem sekwencji jest pełne nazwanie wszystkich oddzielnych zmiennych. To właśnie robią funkcje korelacji między rvs, na przykład: znajomość wartości X może być wykorzystana do zmniejszenia wariancji drugiej skorelowanej zmiennej Y poprzez model liniowy uwzględniający współczynnik korelacji (mam na myśli zmniejszenie wariancji w warunkowy rozkład prawdopodobieństwa ). Na koniec możemy obrócić twierdzenie Shannona o bezszumowym kodowaniu do góry nogami i użyć go do zdefiniowania prawdopodobieństw za pomocą KC: prawdopodobieństwa, że ​​dyskretne rv $ X $ span> równa się $ x $ to $ p $ , jeśli następujące elementy są wstrzymane. Weź sekwencję rvs i dla każdego zapisz sekwencję wartości prawdy $ X = x $ "lub $ X \ neq x $ i „znajdź możliwie najdokładniejszy opis” (będziemy potrzebować „wyroczni” ze względu na nieobliczalność KK) tej sekwencji wartości prawdy i jej długości w bitach i bitach na składową sekwencji. Prawdopodobieństwo „p” jest wtedy liczbą taką, że $ - p \ log_2 p - (1-p) \ log_2 (1-p) $ równa się tym bitom na element sekwencji, jako sekwencja length $ \ rightarrow \ infty $ (wzięcie limitu zarówno poprawia szacunki statystyczne , jak i rozciąga narzut o stałej długości przy opisywaniu schematu kodowania na wiele składowych sekwencji, tak aby ten narzut nie przyczyniał się do liczby bitów na składową sekwencji) .To podejście omija niektóre filozoficzne pola minowe, które powstają nawet przy definiowaniu losowości i prawdopodobieństwa - patrz Stanford Dictionary of Philosophy wpis „Szansa a przypadkowość, aby to wyjaśnić.

Na koniec”:

Jeśli znasz dokładny stan systemu, to w fizyce entropia wynosi zero

Tutaj naszymi problemami są subtelne rozróżnienia (1) między instancją zespołu systemów, z których wszystkie zakłada się, że są członkami tego samego losowego procesu lub „populacji”, a samym zespołem; warunkowe entropie teorii informacji.

Kiedy powiedziałem, że „prawdziwa entropia rzeczy jest ukryta przed obserwatorem, nawet jeśli ta rzecz i jej doskonały opis są przez nich w pełni obserwowalne”, no cóż, oczywiście informacyjna entropia Shannona, uwarunkowana pełna wiedza obserwatora o systemie jest niczym. Natomiast entropia termodynamiczna będzie taka sama dla każdego. Z drugiej strony, entropia teorii informacji dla innego obserwatora, który nie ma pełnej wiedzy, jest niezerowa. To, do czego dążyłem w tym przypadku, to złożoność Kołmogorowa lub liczba pytań tak / nie potrzebnych do określenia systemu z tej samej podstawowej populacji statystycznej, ponieważ ta wielkość, jeśli można ją obliczyć przed i po procesie fizycznym, jest czego można użyć, aby stwierdzić, czy proces był odwracalny (w sensie bycia funkcją jeden do jednego konfiguracji systemu).

Mam nadzieję, że te refleksje pomogą Ci Prathyush w dążeniu do zrozumienia niezniszczalność lub w inny sposób informacji w fizyce.

Złożoność Kołmogorowa nie jest „prawdziwą entropią Shannona”. To dwie różne (ale powiązane) rzeczy.
@PeterShor Drogi Piotrze, spójrz jeszcze raz na dyskusję, jeśli chcesz. Zmagam się z tymi koncepcjami w sytuacjach takich jak ta (szczególnie, czy probabalistyczne pomysły są nawet sensowne w sytuacjach takich jak IP Black Hole) i nie sądzę, że jestem sam. Po prostu próbuję poradzić sobie z poglądem, że ukryte to nie to samo, co zniszczone lub nawet nie do odzyskania, i nie chciałem zbytnio zaśmiecać tego innymi pomysłami - te głębokie dyskusje poważnie sprawdzają moje umiejętności techniczne w pisaniu.
Downvoter: poważnie? Co jest złego w tym wyjaśnieniu, w jaki sposób informacje * mogą * być ukrywane, ale nie niszczone? Proszę podać powody: możemy się czegoś od Ciebie nauczyć. Rozumiem, że jednym z głównych celów tej witryny jest dzielenie się wiedzą.
To jest kwestia nagród, więc bardziej agresywne głosy przeciwne można prawdopodobnie wytłumaczyć tym, że ludzie grają ostrzej niż zwykle ...: - /
@Dilaton Aaah! Nie zauważyłem tej nagrody! Trochę powoli przejmuję się polityką. To sprawia, że ​​czuję się lepiej - pomyślałem, że mogę coś przeoczyć, coś wspaniałego w nieobliczalności, temat, który nigdy nie przestaje mnie ekscytować.
Nie mogłem zrozumieć związku między entropią termodynamiczną a złożonością Kolmogorowa, czy możesz to skomentować. Zwłaszcza część „Zatem w tym sensie prawdziwa entropia rzeczy jest ukryta przed obserwatorem, nawet jeśli ta rzecz i jej doskonały opis są przez nich w pełni obserwowalne”. Jeśli znasz dokładny stan układu, to w entropia fizyki jest równa zeru, to, czy możemy uprościć opis, nie wchodzi w grę.
@Prathyush Edytowałem, aby spróbować odpowiedzieć na Twoje pytania
@Prathyush Dodałem inny sposób połączenia KC z innymi koncepcjami entropii
Jeśli spojrzysz na połączone wideo Susskinda, jest całkiem jasne, że mówi on o entropii Shannona, a nie o złożoności Kołmogorowa.
@PeterShor Interesujące. Muszę teraz dokładnie przyjrzeć się filmowi, gdy odpowiedziałem (lub próbowałem) na pytania Pratyusha. Popraw mnie, jeśli to nie jest twoje rozumienie, ale entropia Shannona jest również ukryta w tym sensie, że jest taka sama, jak entropia Gibbsa, która pochodzi ze wspólnego rozkładu prawdopodobieństwa cząstek, a nie z iloczynu rozkładów krańcowych (tak jakby były niezależny). Ukrywanie entropii Gibbsa jest omówione w cytowanych przeze mnie pracach Edwina Jaynesa i moim prostym podsumowaniu powyższego mechanizmu (korelacje ukryte lub nieobserwowalne).
Tak ... entropia Shannona jest również ukryta w tym sensie.
Siva
2013-04-20 06:23:06 UTC
view on stackexchange narkive permalink

Jak wiele osób tu powiedziało, prawdopodobnie mówi o jedności. Susskind powtarza ogólny pogląd wśród fizyków. Myślę, że nie mamy (jeszcze) konkretnego sposobu na precyzyjne sformułowanie zasady, zostawiając w spokoju jakiekolwiek dowody. Ale opierając się na jedności w mechanice kwantowej i (jeśli jest to warte) fizycznej intuicji na temat grawitacji, wydaje się , że rozsądną rzeczą byłoby zachowanie zawartości informacji.

Prosty ilustracją tej zasady byłoby twierdzenie o braku klonowania. Z mojego punktu widzenia mówi, że nie można zniszczyć informacji w rejestrze (kubicie do , do którego nie można skopiować niektórych informacji) w sposób zgodny z ewolucja jednostkowa. Jeśli udało ci się to zrobić, powinieneś być w stanie odwrócić jednolitą ewolucję i wygenerować informacje z rejestru, który miałeś zniszczyć.

Jeśli chodzi o informacje ukryte, pomyśl o nich jako o tymczasowo ukryty. Kiedy jakieś informacje znajdują się wewnątrz czarnej dziury, nie możesz uzyskać do nich dostępu, a czarna dziura ma odpowiednią entropię. Kiedy czarna dziura wyparuje, nie pozostaje nic, co mogłoby zawierać entropię, więc informacja musiała zostać w jakiś sposób wysłana i teraz nie jest ukryta (a przynajmniej tak się uważa, na dzień dzisiejszy). Ponownie, nie sądzę, aby istniały konkretne obliczenia, które pozwoliłyby to ostatecznie ustalić - głównie dlatego, że nie mamy dobrego zrozumienia kwantowej grawitacji.

Nat
2018-04-04 19:18:37 UTC
view on stackexchange narkive permalink

tl; dr - Niezniszczalność informacji jest bardziej ideałem naukowców niż prawem natury. Jest to idealne rozwiązanie, ponieważ przemiany fizyczne mogą w najlepszym przypadku rozróżniać tyle stanów przed transformacją, ile po niej; nic więcej jest niemożliwe, podczas gdy coś mniej wygląda na okazję do poprawy.


W istocie wiemy, że nie możemy uzyskać informacji bez pomiaru / obserwacji. Tak więc najlepszym modelem fizycznym jest ochrona informacji.

Na przykład, jeśli znanych jest 10 bitów informacji o systemie fizycznym i nie uzyskuje się więcej informacji (np. poprzez pomiary), to jest absolutnie niemożliwe przy żadnym hipotetycznym typie fizyki, aby kiedykolwiek mieć więcej niż 10 bitów system fizyczny po dowolnej transformacji, np po przejściu do przodu lub do tyłu w czasie.

Z drugiej strony łatwo stracić informacje. W rzeczywistości, jeśli ktoś po prostu zapomina o tym, co wie o fizyce, to nawet idealne systemy Newtona tracą 100% informacji, ponieważ nie można przewidzieć ich ewolucji. (Warto zauważyć, że informacja jest własnością modelu, a nie samego wszechświata, więc różni obserwatorzy mogą dostrzec różne wycieki informacji.)

A więc idealne zachowanie informacji. Ilekroć nie zachowujemy informacji, nie możemy być pewni, że nasze modele są kompletne. Następnie twierdzenie, że informacje są niezniszczalne, jest zasadniczo idealistycznym żądaniem, aby prawa fizyki osiągnęły tę teoretyczną optymalność.

Jako ideał warto zauważyć, że nie jest to koniecznie praktyczna prawda. Możemy skonstruować hipotetyczne prawa fizyki, które praktycznie nie zachowałyby informacji; jeśli tak się stanie, to twierdzenie, że informacje są niezniszczalne, nadal pozostanie niezrealizowane.

Niezależnie od tego systemy, które wydają się tracić informacje, są rażącymi celami dla naukowców z dwóch ważnych powodów:

  1. Każdy rodzaj przewidywania , którego można dokonać na podstawie „ utraconej ” informacji, stanowi nowe odkrycie.

  2. Większość aktualnych praw fizyki ma na celu ochronę informacji, więc są one gotowymi narzędziami do ataku na system ze stratami.

Problem z czarną dziurą jest przykładem drugiego punktu.Jeśli wydaje się, że czarne dziury wyciekają z informacji, podczas gdy obecne teorie nie, to jest to doskonała okazja do zaatakowania modeli czarnych dziur innymi teoriami i zobaczenia, co z tego wyniknie.

To najlepsza odpowiedź tutaj i naprawdę prowadzi do sedna pytania.Krótko mówiąc, naukowcy * mają nadzieję *, że informacja jest niezniszczalna, i wiążą się teoretycznymi węzłami, aby upewnić się, że ta możliwość zostanie zachowana.
Robotbugs
2018-04-04 16:49:45 UTC
view on stackexchange narkive permalink

Odpowiedziało kilka osób, ale z bardzo skomplikowanymi informacjami. Dlatego zamierzam odpowiedzieć kilkoma bardziej zrozumiałymi i zabawnymi rzeczami ...

Po pierwsze, Susskind uważa, podobnie jak wielu ludzi, że prawa fizyczne są odwracalne i dlatego ma się rozumieć, że informacji nie można utracić, w przeciwnym razie nie byłby w stanie tego odwrócić.

A kiedy mówi, że informacja nie jest utracona, ma na myśli teoretycznie, odnosząc się do całego wszechświata z boskim stanem wiedzy, a nie do żadnej konkretnej osoby.

Następnie pojawia się pytanie, co dokładnie rozumiesz przez entropię. Entropia to informacja w systemie, której nie znasz. Na przykład w wannie z wodą konwencjonalne obserwacje mogą obejmować temperaturę, ciśnienie i objętość, ale istnieje niezliczona ilość informacji zakodowanych w stanach wszystkich cząsteczek wody, ich ruchach i modach wibracyjnych. Są to nieznane informacje i wiele z nich nie jest nawet obserwowanych w praktyce; wszystko, co wiemy, to kwestia dystrybucji energii. Liczba bitów entropii byłaby liczbą bitów dodatkowych informacji powyżej tego, co już znasz, które musiałbyś mozolnie skatalogować, aby w jednej chwili w pełni opisać system.

Rozważmy jeden sposób utraty informacji: usuwanie danych komputerowych. Ilekroć bit jest odwracany w pamięci komputera, informacja ta jest nadpisywana i konwencjonalnie uważamy ją za utraconą.

Jednak fizyczne odwrócenie tych bitów generuje ciepło w obwodzie, a ta kaskada zdarzeń w skali atomowej obejmuje rozproszenie tego fragmentu informacji w postaci drgań termicznych. W rzeczywistości $ E = kTln2 $ to maksymalna ilość energii, która zostanie uwolniona, przewracając się nieco w temperaturze T.

Więc pytasz, czy te informacje można odzyskać ze środowiska, abyśmy mogli poznać wartość bitu? Odpowiedź brzmi: nie w tym konkretnym przypadku, ponieważ ciepło z wędzidła ma prawie nieskończone wymiary, w którym może się rozproszyć, a więc nie ma praktycznego sposobu na zebranie tego z powrotem, ale nie oznacza to, że informacja jest zniszczona, tylko że nie jest już dla nas dostępny i dlatego staje się nieznaną informacją, o której wiemy, że istnieje i jest policzalna, dlatego nazywamy to entropią.

Pozwólcie, że pokażę wam sposób, w jaki można faktycznie zmniejszyć entropię. Załóżmy, że masz pudełko, do którego wrzucasz kable komputerowe, takie jak kable USB lub kable zasilające. Może początkowo położysz je jeden na drugim w uporządkowany sposób. Ale rok później przychodzisz do tego pudełka i wszystkie sznury są zaplątane w wielki futrzak. Początkowy stan uporządkowany ma niską entropię. Kable układasz jeden na drugim w jakiejś kolejności, więc podobno powinieneś znać trochę informacji o ułożeniu zawartości pudełka, nawet jeśli nie znasz wszystkich szczegółów. Teraz z biegiem czasu ludzie mogą grzebać w pudełku, szukając jednego lub drugiego kabla, mieszając się wokół zawartości i odpychając rzeczy na bok i wibrując zawartość na różne sposoby. Są to nieuporządkowane nieznane informacje o środowisku, które są dodawane do zawartości pudełka. Jest to losowa grupa sił na różnych kablach w czasie, a ty nie odnotowujesz tych informacji. Więc entropia systemu (ukryta informacja z zewnętrznych, losowych perturbacji) jest zwiększana.

W końcu masz całą masę kabli, które są ze sobą związane na różne sposoby, zamiast być niezależnymi i po prostu zorganizowanymi. Informacje zakodowane we wszystkich tych węzłach i splotach pochodziły z przypadkowych informacji środowiskowych, które zostały dodane. To jest wzrost entropii.

Więc nie będąc zadowolonym z tej sytuacji, postanawiasz je zorganizować. Ale w praktyce oznacza to, że musisz rozwiązać wszystkie węzły, percepcyjnie podążając za każdym kablem przez system i uświadamiając sobie informacje, które zostały dodane, aby rozwikłać wszystkie sploty i ponownie je rozdzielić. Tak więc ten proces sortowania, który wykonujesz, obniża entropię systemu, ponieważ wyczerpująco katalogujesz (i szybko zapominasz) dokładnie, w jaki sposób ukryta informacja została zakodowana w splocie kabli. Ale pamiętaj również, że ten proces wymagał z Twojej strony energii i czasu. A informacja, która została zakodowana w splocie kabli, trafiła do twojego mózgu, a następnie została zapomniana i rozproszona jako energia cieplna.

Ale dziwne jest to, że entropia jest związana ze stanem wiedzy. Oznacza to, że ty i ja możemy potencjalnie przypisać różną entropię temu samemu systemowi, w zależności od tego, co wiemy z góry.

Na przykład, jeśli otrzymam milion bitów informacji, mogę obliczyć częstotliwość jedynek i zer oraz innych statystyk, co daje mi pewne informacje, ale resztę uważam za ukrytą i dlatego mogę umieścić duża liczba entropii na nim. Ale ktoś inny mógłby mieć pewną ilość informacji o tym, że bity są jakąś zakodowaną wiadomością, więc dla niego entropia jest niższa, ponieważ dodatkowa informacja ogranicza wzorzec bitów do ustrukturyzowanej przestrzeni mniejszej niż 2 ^ N $.

W ten sam sposób, gdyby ktoś w jakiś sposób zauważył, jak każda interakcja ze skrzynką z kablami wpłynęła na niego w czasie, to na końcu entropia byłaby niska z punktu widzenia tej osoby, mimo że kable nadal byłyby splątane.Tyle tylko, że osoba, która obserwowała, jak się zaplątała, nie pozwoliła na ukrycie informacji i teoretycznie nie musi faktycznie analizować kabli na końcu, aby je zrozumieć, mogli je mechanicznie rozplątać jak robotz zerowym lub niskim poziomem percepcji.

A co z wszechświatem śmierci ciepła, gdzie poszły te informacje?
Brian Moths
2013-12-12 03:52:11 UTC
view on stackexchange narkive permalink

Zawsze rozumiałem, że jest to rezultat środka chroniącego ewolucję czasu w przestrzeni stanów. Mamy więc przestrzeń stanów $ \ mathcal {P} $ z miarą $ \ mu $ i zbiór stanów w $ \ mathcal {P} $ rozłożonych według innej miary $ \ nu $. Mamy również dynamiczny system opisujący ewolucję czasu $ f: \ mathcal {P} \ times \ mathbb {R} \ to \ mathcal {P} $ gdzie $ f (p, t) $ jest stanem, w którym cząstka początkowo jest w stanie $ p $ kończy się po czasie $ t $. Kluczową właściwością $ f $ jest to, że zachowuje miarę w tym sensie, że jeśli mały obszar przestrzeni fazowej ma jakąś objętość przestrzeni fazowej $ V $, to w dowolnym momencie będzie miał tę samą objętość przestrzeni fazowej $ V $.

$ \ DeclareMathOperator {\ Tr} {Tr} $ Przyjrzyjmy się teraz klasycznej mechanice cząstek $ N $ w wymiarach $ d $. Miara $ \ mu $ jest określona wzorem $ d \ mu = d ^ {dN} xd ^ {dN} p $. Funkcja $ f (p, t) $ jest określona przez równania Hamiltona. Mamy zbiór stanów podzielonych według pewnej miary $ \ nu $. Zwykle mówimy o gęstości przestrzeni fazowej $ \ rho $ podanej przez $ d \ nu = \ rho d \ mu $. Następnie entropia jest zdefiniowana przez $ S = - \ rho (p) \ log \ rho (p) d \ mu $.

Rozważmy teraz ewolucję entropii w czasie. Mamy $ S (t) = - \ int \ rho (p, t) \ log \ rho (p, t) d \ mu $. Dlatego musimy znaleźć ewolucję $ \ rho $ w czasie. Mamy $ \ rho (p, t) = \ frac {\ rho (f ^ {- 1} (p), 0)} {\ det \ części_p f (p, t)} $. Ale twierdzenie Louiville'a mówi, że wyznacznik w mianowniku musi być jeden, więc $ \ rho (p, t) = \ rho (f ^ {- 1} (p), 0) $. Teraz $ S (t) = - \ int \ rho (f ^ {- 1} (p), 0) \ log \ rho (f ^ {- 1} (p), 0) d \ mu $. Teraz znowu według twierdzenia Louville'a możemy dokonać zmiany zmiennych $ f ^ {- 1} (p) \ do p $, aby otrzymać $ S (t) = - \ int \ rho (p, 0) \ log \ rho (p , 0) d \ mu = S (0) $, więc entropia musi być stała.

Kolejnym przypadkiem, któremu należy się przyjrzeć, jest mechanika kwantowa. Tutaj przestrzeń fazowa $ \ mathcal {P} $ jest przestrzenią funkcji falowych, a $ \ mu $ jest miarą w tej przestrzeni (jest to bardziej skomplikowane dla nieskończenie wymiarowych przestrzeni Hilberta). Funkcja $ f $ jest dana przez $ | \ psi (0) \ rangle \ to U (t, 0) | \ psi (0) \ rangle $, gdzie $ U $ jest (jednostkowym) operatorem ewolucji czasu. Mamy rozkład stanów określony przez $ \ nu $, a macierz gęstości opisującą ten zbiór stanów jest przez $ \ rho = \ int | \ psi \ rangle \ langle \ psi | d \ nu $. Entropia jest wtedy definiowana jako $ S = - \ Tr (\ rho \ log \ rho). $

Rozważmy teraz ewolucję entropii w czasie. Mamy $ S (t) = - \ Tr (\ rho (t) \ log \ rho (t)) $. Dlatego musimy znaleźć ewolucję $ \ rho $ w czasie. Mamy $ \ rho (t) = \ int | \ psi \ rangle \ langle \ psi | d \ nu_t $, gdzie indeks dolny $ t $ oznacza, że ​​mówimy o dystrybucji w czasie $ t $. Ponieważ $ \ nu_t $ jest przesunięciem $ \ nu_0 $ poniżej $ f (\ cdot, t) $, mamy to $ \ rho (t) = \ int U (t, 0) | \ psi \ rangle \ langle \ psi | U ^ \ dagger (t, 0) d \ nu_0 = U (t, 0) \ int | \ psi \ rangle \ langle \ psi | d \ nu_0 U ^ \ dagger (t, 0) = U (t, 0) \ rho (0) U ^ \ dagger (t, 0) $. Teraz, ponieważ $ \ log (U (t, 0) \ rho (0) U ^ \ dagger (t, 0)) = U (t, 0) \ log (\ rho (0)) U ^ \ dagger (t, 0) $ i przez cykliczność śladu mamy $ S (t) = - \ Tr (\ rho (t) \ log \ rho (t)) = - \ Tr (\ rho (0) \ log \ rho ( 0)) = S (0) $, więc entropia jest stała.

Zauważ tutaj, że nie wystarczyło, aby dynamika była odwracalna. Oscylator harmoniczny z tłumieniem jest odwracalny, ale jego entropia maleje (daje entropię otoczeniu, zakładając, że jego energia początkowa jest znacznie większa niż $ kT $). Dynamika naprawdę musi zachować głośność w przestrzeni stanów.

Może się mylę, ale naprawdę nie sądzę, aby oryginalny plakat podążał za tą nadmiernie techniczną odpowiedzią.Trudno nawet zrozumieć, jak to odpowiada na pytanie, i prawie rozumiem Twoją matematykę.
unity100
2014-05-09 01:13:27 UTC
view on stackexchange narkive permalink

To będzie filozoficzna odpowiedź, jednak przydatna:

Logika jest w rzeczywistości dość prosta:

Nie ma żadnej nieciągłości. Jest przyczyna i skutek.

JAKIEKOLWIEK obecny stan rzeczy jest „skutkiem” wynikającym z nieskończonej ilości przyczyn. Jest to również sama przyczyna następczych skutków.

Krótko mówiąc, tak jak materia, informacja również przekształca się, przechodząc w różne stany poprzez mechanikę przyczyny i skutku.

A więc, co my nazywanie „chaosem” lub „entropią” lub jakimkolwiek innym pozornie niezrozumiałym i niemożliwym do prześledzenia stanem istnienia, jest również stanem wynikającym z nieskończonej liczby przyczyn prowadzących do skutków.

Tego nie jesteśmy w stanie śledzić rozróżniać, obliczać, rozumieć, wyjaśniać takie stany istnienia nie oznacza, że ​​są one poza mechaniką przyczynowo-skutkową i innymi mechanikami, które tworzą istnienie.

Zatem każdy stan w chaotycznym, entropicznym stanie powinien być teoretycznie możliwe do prześledzenia do wcześniejszych stanów, powinno faktycznie dochodzić do bycia z powodu mechaniki przyczynowo-skutkowej, którą można zaobserwować, obliczyć, gdybyś miał środki, a także naturalnie powinno być powiązane z jakimkolwiek wcześniejszym stanem informacji - w tym stanem, w którym entropia chaos czy „zniszczona informacja” jeszcze nie powstały, a wcześniejsze informacje, które obserwowaliśmy, były tam takie, jakie były.

Zachowanie informacji, jeśli wolisz. Informacje podlegają również mechanice przyczynowo-skutkowej, która jest nienaruszalna wszędzie tam, gdzie istnieją. (To, że niektóre przypadki wydają się „naruszać” związki przyczynowo-skutkowe - jak niektóre eksperymenty z fizyki kwantowej - nie oznacza, że ​​naruszają one mechanikę samej ogólnej egzystencji, odłóż na bok wszechświat)

Jeśli spojrzysz w przypadku czarnych dziur i wyjaśnień susskind i innych przyniesionych nie ma wyjątku - informacje są chronione i konserwowane oraz łączone w ten czy inny sposób.

Dlatego jest niezniszczalny: powinieneś być w stanie zrekonstruować każdą informację, która doprowadziła do BIEŻĄCEGO stanu informacji, analizując aktualny stan informacji i dekonstruując ją. Obejmuje to wszystko wpadające w czarną dziurę i łączące się w osobliwość.

Twoja intuicja jest błędna: przyczynowość i ciągłość ewolucji w czasie nie wystarczą, aby zagwarantować zachowanie informacji.Dość łatwo jest skonstruować równania opisujące ciągłą ewolucję systemu w czasie, w którym informacje są nadal trwale tracone w czasie.Musisz nałożyć dodatkowe ograniczenie, aby zapewnić zachowanie informacji;w formalizmie mechaniki kwantowej to ograniczenie to [unitarity] (http://en.wikipedia.org/wiki/Unitarity_ (fizyka)).
Zobacz, jak to się zaczyna: „To będzie filozoficzna odpowiedź”. I odnieś się do punktu, w którym to mówi „To, że nie jesteśmy w stanie śledzić, rozróżniać, obliczać, pojmować, wyjaśniać takich stanów istnienia, nie oznacza, że są one poza mechaniką przyczynowo-skutkową i innymi mechanikami, które tworzą istnienie”. Koncepcyjne i kalkulacyjne narzędzia do przetwarzania transformacji i relacji między stanami nie oznaczają, że mają one nieciągłość. Podobnie jak czarne dziury „niszczyły informacje”, dopóki susskind nie wymyślił wyjaśnienia.
„Filozofia” nie jest wymówką, żeby się mylić.Czy faktycznie przeczytałeś mój komentarz?Nie obchodzi mnie, czy przemiany są ciągłe czy nieciągłe, bo to nieistotne.Chodzi mi konkretnie o to, co wydaje się być twoim głównym argumentem: * „Nie ma nieciągłości. Jest przyczyna i skutek.” * To po prostu nie wyjaśnia zachowania informacji.
To, co nie jest wybaczalne, to mówienie o dziedzinie, która ma najwięcej filozofii spośród nauk, a potem staje się wredna i lekceważąca.Jeśli słowo filozofia jest zbyt trudne do umieszczenia w kontekście, zastąp je słowem logika. Logika ciągłości istnieje poza potencjałem nieskończonych równoległych wszechświatów lub alternatywnych rzeczywistości, czy też wszystkich innych nadrzędnych koncepcji, które są podejmowane w tej dziedzinie.Nie ogranicza się do wąskiego tematu, na który się teraz patrzysz. Ciągłość pochodzi z przyczyny i skutku.I to wykracza poza wielki wybuch.
Nie zrozumiałeś.Uważam naukę za subdyscyplinę filozofii;Nigdy nie lekceważyłbym filozofii.Odrzuciłem twój argument dotyczący ciągłości, ponieważ nie jest to poprawna odpowiedź na pytanie.Wydajesz się bardzo przekonany, że ciągłość / przyczynowość jest istotna, więc zastanawiam się, czy w ogóle mówimy o tym samym?Używam standardowej definicji fizyki [informacji] (http://en.wikipedia.org/wiki/Physical_information).Najwyraźniej do tego właśnie odnoszą się OP i Susskind.Być może to, co mówisz, ma sens, jeśli użyjesz innej definicji informacji.
Ciągłość i przyczynowość są istotne, PONIEWAŻ całe istnienie po Wielkim Wybuchu jest łańcuchem zdarzeń przyczynowo-skutkowych, które prowadzą do obecnego stanu rzeczy.Ale ponieważ samo pojęcie „nieciągłości” gdziekolwiek oznaczałoby obecność „nicości” w tym miejscu, to zniszczyłoby całą egzystencję, unieważniając wszystko samo przez się: koncepcyjnie nicość można wypełnić tylko nieskończonością.Dlatego przypadkowość i ciągłość muszą zdarzać się od nieskończoności.Oznacza to, że idzie dalej niż Wielki Wybuch.
Informacja nie jest pojęciem, które pochodzi z tego istnienia lub rezyduje poza nim - jest to pojęcie, które jest również związane wszystkimi regułami, które istnieją dla wszystkiego innego.Nawet jeśli weźmiesz informację, która jest ograniczona, zlokalizowana w pewnym ograniczonym systemie fizycznym i zauważysz, że została `` zniszczona '' w tym systemie, informacje nadal będą możliwe do prześledzenia i odtworzenia poprzez ciągłość, która musi istnieć WEWNĄTRZ iPoza tym ograniczonym, zlokalizowanym systemem: ponieważ istnieją nieustanne łańcuchy przyczynowo-skutkowe.Dlatego informacje są niezniszczalne.
„Zniszczenie” informacji w danym ograniczonym, zlokalizowanym systemie fizycznym samo w sobie nie może się zdarzyć - ponieważ, gdy system został zmieniony w celu `` zniszczenia '' tej informacji, cały system i jego stan, w tym ta konkretna informacja, zostały zmienione na coś innegoto jest skutek dokonanych przyczyn.Informacja „zniszczona” jest nadal zawarta, ukryta w stanie systemu poprzez łańcuchy przyczynowo-skutkowe poprzez ciągłość.Dlatego informacji nie można zniszczyć.ale przekształcony.nawet w zlokalizowanych i ograniczonych systemach fizycznych.
@MarkMitchison dziękuję za wymianę uwag.Wierzę, że powiedzenie, że się mylisz, ma wartość.Może uczyć lub dostarczać wglądu, więc byłem zaskoczony tym, jak zdawało się odkładanie debaty na temat unity100.Twoja wymiana pomogła mi uświadomić sobie, jaką wartość zła ma, można stracić bez motywacji do fałszowania własnych wniosków.Może ta motywacja jest sprzeczna z ludzką naturą.Wydaje się jednak, że wszystko na tym korzysta - nauka, polityka, a nawet związki.


To pytanie i odpowiedź zostało automatycznie przetłumaczone z języka angielskiego.Oryginalna treść jest dostępna na stackexchange, za co dziękujemy za licencję cc by-sa 3.0, w ramach której jest rozpowszechniana.
Loading...