Pytanie:
Jakie jest najbardziej wydajne przechowywanie informacji?
Tyler
2014-11-04 10:02:34 UTC
view on stackexchange narkive permalink

Jaki jest najskuteczniejszy sposób przechowywania danych, które są obecnie przedmiotem hipotezy? Czy teoretycznie możliwe jest przechowywanie więcej niż jednego bitu na atom?

Aż do komentarza Florisa nie uważałem, że wydajność zależy od tego, co próbujesz zoptymalizować. Kiedy pisałem to pytanie, miałem na myśli sprawność materii. Czy istnieją inne ortogonalne wymiary, które warto zoptymalizować?

I żeby było jasne, przez sprawność materii mam na myśli przedstawienie większości danych (prawdopodobnie bitów) z najmniejszą ilością materii.

Zdefiniuj wydajne.Ile różnych stanów może mieć atom?
Pytanie prowokujące do myślenia.Zobacz edycję.
Możesz myśleć o wydajności jako „na jednostkę masy” (faworyzując lżejsze atomy), „koszt energii do odczytu / zapisu bitu” (faworyzując stany stabilne o niskiej energii, które można odwrócić) itp.
To byłoby interesujące, ale najbardziej interesowała mnie hipotetyka większości informacji, które można przechowywać.Na przykład chciałbym wiedzieć, czy kiedykolwiek ludzie mogliby przechowywać wszystkie $ 2 ^ {(1080 * 720 * 24)} bity potrzebne do wygenerowania każdego możliwego obrazu w rozdzielczości 1080p.Ponieważ całe przechowywanie wymaga materii, aw tym zakresie jesteśmy ** o wiele ** więcej niż liczba atomów we wszechświecie, zastanawiam się, czy kiedykolwiek byłby sposób na przechowywanie ~ 2 $ ^ {(1080 * 720 * 24)} / 10 ^ {80} $ bitów na atom.Po prostu próbowałem uogólnić pytanie, aby było bardziej przydatne dla innych.Czy powinienem sprecyzować?
Łatwym sposobem na przechowywanie tych informacji jest ich skompresowanie.„Wszystkie możliwe obrazy 1080p” to właściwie całkiem dobra kompresja - z krótkiego opisu algorytmicznego każdy mógłby wygenerować (obliczyć w locie) dowolny z tych obrazów.Podobnie jak „$ \ pi $” to naprawdę skuteczny sposób na przechowywanie określonej sekwencji miliardów liczb.Są dane, ale nie ma entropii.
W pewnym momencie musisz uporać się z teorią informacji Shannona (która jest bardzo ściśle związana z mechaniką kwantową).Hałas jest czynnikiem ograniczającym.
Pięć odpowiedzi:
Selene Routley
2014-11-04 11:50:01 UTC
view on stackexchange narkive permalink

Brzmi to tak, jakbyś szukał po omacku ​​ Bekestein Bound (patrz strona Wiki o tej nazwie) z dziedziny termodynamiki czarnych dziur. To ograniczenie zakłada, że ​​całkowita maksymalna pojemność przechowywania informacji (w bitach) dla obszaru kulistego w przestrzeni $ R $ zawierającego całkowitą energię $ E $ wynosi:

$$ I \ leq \ frac {2 \, \ pi \, R \, E} {\ hbar \, c \, \ log 2} \ tag {1} $$

gdzie $ I $ to liczba bitów zawartych w stanach kwantowych tego regionu przestrzeni. Jeśli spróbujesz wepchnąć zbyt dużo energii w obszar przestrzeni, uformuje się horyzont Schwarzschilda i czarna dziura, do granicy Bekensteina oznacza maksymalną pojemność przechowywania informacji dla obszaru przestrzeni niezależnego od $ E $; limit zostanie osiągnięty, gdy $ E $ będzie tak wysokie, że $ R $ stanie się promieniem Schwarzschilda (promieniem horyzontu zdarzeń) tej czarnej dziury; z tego pojęcia otrzymujemy:

$$ E \ leq \ frac {R \, c ^ 4} {2 \, G} \ tag {2} $$

aby zapobiec formuje się czarna dziura, której równość utrzymuje się na progu tworzenia horyzontu. Z (1) i (2) znajdujemy:

$$ I \ leq \ frac {\ pi \, R ^ 2 \, c ^ 3} {\ hbar \, G \, \ log \ , 2} \ tag {3} $$

co jest rzeczywiście entropią czarnej dziury w bitach: to jest słynna formuła Hawkinga $ I = A / (4 \, \ log 2) $ bits, gdzie $ A $ to powierzchnia horyzontu czarnej dziury Schwartzschilda (ale wyrażona w jednostkach Plancka). Bekenstein wyprowadził te granice przez (1) postulując, że druga zasada termodynamiki pozostaje prawdziwa dla układów zawierających czarne dziury, a następnie pokazując, że (2) drugie prawo można uczynić „bezpiecznymi” tylko wtedy, gdy te granice się utrzymają. W przeciwnym razie można sobie wyobrazić eksperymenty myślowe, które naruszałyby drugie prawo, wrzucając przedmioty do czarnych dziur. Więcej na temat uziemienia granic można znaleźć na stronie Scholarpedia dla granicy Bekenstein.

Dla tych formuł uzyskuje się naprawdę kolosalne możliwości przechowywania. Dla obszaru o promieniu 5 centymetrów (wielkości piłki tenisowej) otrzymujemy 4,3 $ \ times10 ^ {67} $ bitów z (3). Należy to porównać z szacunkową całkowitą pamięcią masową systemów komputerowych Ziemi wynoszącą około 10 ^ {23} bitów w 2013 r. (Patrz Wikipedia Zettabyte Page). Półtora kilograma ludzkiego mózgu może pomieścić około 3 \ razy 10 ^ {42} $ bitów, a masa Ziemi z grubsza 10 ^ {75} $ bitów. Te dwa ostatnie są bardziej wskazujące na „normalną” materię, ponieważ przykład piłki tenisowej zakłada, że ​​zgromadziliśmy tyle energii, że zaraz uformuje się czarna dziura. Zatem piłka tenisowa byłaby wykonana z ultrakompresowanej materii, takiej jak materiał gwiazdy neutronowej.

Na przykładzie ludzkiego mózgu załóżmy, że mamy atomów $ (1500/12) \ razy 10 ^ {24} $. (w przybliżeniu liczba Avagadro razy liczba moli węgla w tej masie). Treść informacyjna opracowana powyżej wyniosłaby więcej niż 10 ^ {16} $ bitów na atom.

Żadne z tych ograniczeń nie mówi o faktycznej realizacji przechowywania danych. Jednak teoretycznie byłoby trywialne przechowywanie więcej niż jednego bitu na atom przez wybranie pierwiastka z, powiedzmy, trzema lub czterema stabilnymi izotopami i ustawienie atomów w kratkę. Kodujesz swoje dane, umieszczając odpowiedni izotop w każdej podanej pozycji w sieci i odzyskujesz swoje bity, odczytując, który izotop jest obecny w każdej pozycji sieci. Na przykład Krzem ma trzy stabilne izotopy: kodujesz wiadomość w kratce krzemu w ten sposób, a twoja pamięć wynosi $ \ log_2 3 \ około 1,58 $ bitów na atom.


Edytuj w odpowiedź na pytanie OP:

" ponieważ jest to, o ile wiem, fizyka relatywistyczna / w makroskali, czy jest miejsce na znaczącą zmianę, gdy fizyka kwantowa jest (tj. czy to prawdopodobnie pozostanie niezmienione lub zmieni się, gdy odkryta zostanie teoria jednocząca? A może jest całkowicie niezależne od problemu teorii unifikującej?) "

Tak, to fizyka w makroskali, ale nie poprawi się, gdy zostaną uwzględnione efekty kwantowe, JEŚLI druga zasada termodynamiki dotyczy systemów czarnych dziur i wydaje mi się, że wielu fizyków badających grawitację kwantową uważa, że ​​tak. Makroskopowe zespoły układów kwantowych nadal uwzględniają drugie prawo, gdy mierzymy entropię stanów mieszanych za pomocą entropii von Neumanna: jest to kwantowe rozszerzenie entropii Gibbsa. A jeśli mówisz o drugiej zasadzie, to zawsze mówisz o zachowaniu zespołu / dużego systemu: entropia waha się w górę i w dół: pomijalnie dla systemów makr, ale znacząco dla układy małej liczby cząstek kwantowych. Jeśli jednak się nad tym zastanowisz, prawdopodobnie najbardziej interesuje Cię zachowanie makr, ponieważ chcesz wiedzieć, ile informacji jest przechowywanych średnio na cząstkę kwantową. Jak rozumiem, znaczna część teorii grawitacji kwantowej opiera się na założeniu, że systemy czarnych dziur rzeczywiście są zgodne z drugim prawem. Na przykład w teorii mnogości przyczynowych zakładane „atomy” czasoprzestrzeni wpływają na siebie przyczynowo i oczywiście mamy pary tych atomów, które są splątane (przyczynowo wpływają na siebie), ale leżą po obu stronach horyzontu Schwarzschilda: para znajduje się wewnątrz czarnej dziury i dlatego nie można jej zbadać z zewnątrz, podczas gdy drugi członek pary znajduje się w naszym wszechświecie. Jest splątany, a zatem przyczynowo połączony z elementem pary wewnątrz czarnej dziury, której nie możemy zobaczyć. Element pary poza horyzontem obserwowany w naszym wszechświecie ma zatem „ukryte” zmienne stanu, tj. zakodowane w stanie elementu pary wewnątrz horyzontu, które dodają się do jego entropii von Neumanna, tak jak byśmy to postrzegali poza horyzontem. Dlatego teoria mnogości przyczynowych przepowiada entropię proporcjonalną do obszaru horyzontu (słynne równanie Hawkinga $ S = k \, A / 4 $), ponieważ jest to obszar proporcjonalny do liczby takich par okrążających horyzont.


Linki z odpowiedzią Jerry'ego Schirmera po dyskusjach z użytkownikami Charles i user27542; zobacz także pytanie Charlesa „Jak duży jest wzbudzony atom wodoru?”

Jerry Schirmer poprawnie (IMO) stwierdza, że ​​teoretycznie można zakodować nieskończoną liczbę bitów w stanach własnych wzbudzony atom wodoru; dzieje się tak oczywiście, jeśli możemy nieskończenie precyzyjnie mierzyć energię i rozróżniać stany; ponieważ odstępy między sąsiednimi poziomami energii zmieniają się i wynoszą 1 $ / n ^ 3 $, gdzie $ n $ jest główną liczbą quantun, musielibyśmy chcieć czekać coraz dłużej, aby odczytać nasz kod, gdy próbujemy wkuwać coraz więcej danych do naszego atomu wodoru. Nawet jeśli jesteśmy gotowi to zrobić, schemat kodowania nie jest nawet bliski naruszenia granicy Bekensteina, ponieważ rozmiar orbitali o wyższym stanie energii rośnie, teoretycznie bez ograniczeń, wraz z główną liczbą kwantową. Obliczam średni promień $ \ bar {r} $ orbitalu o głównej liczbie kwantowej $ n $ w mojej odpowiedzi tutaj, a odpowiedź to $ \ bar {r} \ ok. N \, (n + \ frac {3} {2}) \, a \ sim n ^ 2 $. Ponadto liczby kwantowe pędu są ograniczone przez $ \ ell \ in1, \, 2, \, \ cdots, \, n-1 $ i $ m \ in- \ ell, \, - \ ell + 1, \, \ cdots, \, \ ell-1, \, \ ell $, zatem całkowita liczba stanów własnych o głównej liczbie kwantowej $ n $ wynosi 1 $ + 3 + 5 + \ cdots 2n-1 = n ^ 2 $, a więc suma liczba $ N (n) $ stanów własnych energii o głównej liczbie kwantowej $ n $ lub mniejszej to $ N (n) = 1 ^ 2 + 2 ^ 2 + \ cdots + n ^ 2 \ ok n ^ 3/3 $. Więc $ \ bar {r} \ propto n ^ 2 $ i $ N \ propto n ^ 3 $ więc $ N \ propto \ sqrt {\ bar {r} ^ 3} $ i $ I = \ log N \ ok. A + \ frac {3} {2} \, \ log_2 \, \ bar {r} $ gdzie $ I $ jest kodowaną zawartością informacji w bitach, a $ A $ jest stałą.

To jest dokładnie to, czego chciałem.(Cóż, szczerze mówiąc, nie wiedziałem, czego chcę. Ale teraz wiem i to wszystko.) Dziękuję za wyjątkowo dokładną odpowiedź.
@Tyler Dzięki.Zobacz także dobrą odpowiedź Jerry'ego Schirmera: ciekawie byłoby zobaczyć jego odpowiedź na moje pytanie, ponieważ jest on prawdziwym relatywistą (jestem tylko amatorem).Podejrzewam, że odpowiedź będzie taka, że tak, zaprzecza związaniu Bekensteina, ale jest to jedna z wielu rzeczy, które może rozwiązać pełna teoria czarnych dziur.Właściwie nie zgadzam się z jego odpowiedzią: w każdym razie jest jasne, że teoretycznie pojemność atomu jest znacznie większa niż jeden bit i że można nawet przewidzieć, że technologia przekroczy wartość 1 bitu na atom.
Więc innymi słowy, nie;nigdy nie będzie możliwe przechowywanie wszystkich obrazów w nieskompresowanej formie.Zgodnie z tym wzorem wymagałoby to 6,6 $ \ times 10 ^ {8426761} \ text {ly} ^ 3 $ lub 10 $ ^ {8426729} $ razy objętość wszechświata.
@Rod,, skoro jest to, o ile wiem, fizyka relatywistyczna / w makroskali, czy jest miejsce na znaczącą zmianę, gdy / jeśli fizyka kwantowa zostanie włączona?(Tj. Czy to prawdopodobnie pozostanie niezmienione, czy zmieni się, gdy odkryta zostanie teoria jednocząca? A może jest całkowicie niezależna od problemu teorii unifikującej?)
@Tyler Proszę zobaczyć moją zmianę na końcu odpowiedzi.
@Tyler Dodałem trochę więcej, co wyjaśnia, dlaczego świetna odpowiedź Jerry'ego i moja są w pełni zgodne: atom H staje się większy, im więcej informacji staramy się w nim wcisnąć.
Chcę tylko zaznaczyć, że twierdzenie, że ludzki mózg może przechowywać 3 $ \ times 10 ^ {42} bitów $ jest niepoprawne, zakładając, że mówisz o znaczących informacjach.Nie wiemy nawet, w jaki sposób mózg koduje większość swoich informacji, ani jak wrażliwa jest każda synapsa na małe zmiany w wzmocnieniu, a tym bardziej nie wiemy dokładnie, w ilu funkcjonalnie dyskretnych stanach mózg może swobodnie się poruszać.Trudno jest wiedzieć, jaka jest odpowiedź dla komputera, biorąc pod uwagę, że pamięć jest oddzielona od przetwarzania, a pamięć może istnieć tylko w bardzo łatwo mierzalnej liczbie stanów.
Jest to górna granica wyznaczona przez granicę Bekensteina - to maksymalne potencjalne magazynowanie w obszarze przestrzeni o danej zawartości energii.Jak mówisz, to, jaka liczba bitów jest dostępna dla mechanizmów * myśli * ludzkiego mózgu, to zupełnie inna sprawa.Różni się to od informacji potrzebnych do określenia całkowitego stanu kwantowego.
Jerry Schirmer
2014-11-04 12:36:28 UTC
view on stackexchange narkive permalink

Zakładając nieskończoną precyzję pomiaru, w jednym atomie może być przechowywana nieskończona liczba bitów.

Weź informacje, które chcesz przechowywać, zakoduj je w łańcuchu, a następnie oblicz liczbę Gödela łańcucha. Zadzwoń pod ten numer n. Następnie wzbudz atom wodoru dokładnie do poziomu energii n $ {} ^ {\ rm th} $.

W praktyce właściwości prawdziwego atomu wodoru sprawią, że będzie to oczywiście całkowicie niepraktyczne, ale mówimy tylko o czystej teorii.

+1 Najciekawszy i schludny, przejrzysty przykład.Nie jestem pewien, jak to pasuje do związania Bekensteina (byłbyś lepiej przygotowany niż ja, aby to skomentować), jeśli to drugie rzeczywiście się sprawdza;być może stany energii H uległyby zmianie w pełnym kwantowym opisie czasoprzestrzeni, tak że nieskończona liczba bardzo wysokich $ n $ stanie się w rzeczywistości skończona.Myślę, że ten komentarz byłby tylko jednym z wielu nierozwiązanych problemów, które należy rozwiązać za pomocą pełnej rozdzielczości paradoksu informacji o czarnej dziurze.
@WetSavannaAnimalakaRodVance:, cóż, w tym przykładzie w pewnym sensie oszukujesz Bekensteina, ponieważ zasadniczo wykorzystujesz stan zerowej entropii pojedynczego atomu do przechowywania informacji.Nie ma powodu, aby spodziewać się, że obiekt zapadnie się w czarną dziurę, ponieważ nadal jest to tylko atom wodoru z bardzo prawie zjonizowanym elektronem.
tak, jeśli możesz pozbyć się szumu, możesz również obliczać za pomocą sieci neuronowych w liczbach rzeczywistych, które są również niepraktyczne, ale demonstracyjnie potężniejsze niż komputer Turinga.Bekestein Bound jest związany z cyfrową pamięcią masową, która jest jedynym paradygmatem, jaki znamy, aby działać ponad szumem termicznym (mam na myśli, że można kodować przy użyciu innych kodów poza binarnymi, takich jak użycie n stanów atomu, ale istnieje górna granican, n nie może być dowolne, jak w twoim przykładzie
Rozmiar wzbudzonego atomu będzie bardzo duży.Jeśli mierzysz wydajność jako „bity na atom”, z pewnością jest to droga.Jeśli mierzysz wydajność jako „bity na objętość przestrzeni”, wcale nie.
atom zajmuje objętość w przestrzeni, im większa liczba bitów, tym większy atom (ponieważ im bardziej opuścił stan, tym większa staje się chmura elektronów).Jakikolwiek system, który chciałbyś sobie wyobrazić, nie będzie miał najlepszego komputera zdefiniowanego przez najbardziej wydajny, jaki możesz mieć (który obejmuje wszystkie możliwe stopnie swobody dozwolone przez prawa fizyki) tuż przed zapadnięciem się w czarną dziurę.
Czy liczba Godela nie jest unikalna?W takim przypadku informacje otrzymane z obserwacji n-tego poziomu mogą oznaczać wiele rzeczy.
@KyleKanos: nie, sednem liczb Godel jest to, że są unikalne - biorąc pod uwagę schemat kodowania, relacja między liczbą a ciągiem jest jeden do jednego (to jest inne niż kody hash).Fakt, że atom stałby się arbitralnie duży, jest na to zarzutem.
Ponieważ zaczynasz od bitów, nie ma rzeczywistej potrzeby przechodzenia do kodowania ciągów, a następnie kodowania Godela, możesz po prostu powiedzieć „wartość całkowita binarnego ciągu bitów”, co jest jednoznaczne.
@WetSavannaAnimalakaRodVance: Czy promień nie jest skalowany jako $ n ^ 2 $?Ale w każdym razie posiadanie $ n ^ 3 $ rozróżnialnych stanów nie stanowi problemu, ponieważ zawierają one tylko $ \ log_2 (n ^ 3) \ sim k \ log n $ bity informacji.
@RBarryYoung Właściwie we współczesnych wyjaśnieniach twierdzenia Gödla i nieobliczalności po prostu przyjmuje się, że liczba Gödela jest dokładnie taka, jak mówisz - wartość całkowita binarnego ciągu znaków (powiedzmy ASCII) kodujących twierdzenie matematyczne.Gödel opracował swój schemat kodowania przed komputerami i zanim koncepcja tablicy w pamięci i jej wartości binarnej została zinternalizowana przez naukowców na całym świecie.
@WetSavannaAnimalakaRodVance: Nie sądzę, że skaluje się jako $ n $, ale raczej jako $ n ^ 2 $ (czyniąc skalę wolumenu jako $ n ^ 6 $), zobacz http://physics.stackexchange.com/q/144819/2818
@Charles Drogi mnie Mam naprawdę zły dzień z włosami.Zobacz moje ostateczne obliczenia na końcu mojej zaktualizowanej odpowiedzi.
@user27542 Proszę zobaczyć koniec mojej zaktualizowanej odpowiedzi.Myślę, że twoje wyjaśnienie rozwiązuje problem, a kodowanie Jerry'ego nie zbliżyłoby się nawet do naruszenia granicy Bekensteina, nawet gdybyśmy mogli mierzyć energię z nieskończoną precyzją.
$ \ delta E_n >> \ Delta E_n $.Proponowany system wymagałby pomiarów lepiej niż pozwala na to teoria.
Thaina
2014-11-04 10:40:55 UTC
view on stackexchange narkive permalink

Myślę, że teoretycznie rozmiar, w którym możemy przechowywać informacje, to 1 cząstka lub 1 długość Plancka. To jest granica teorii kwantowej. Może uda nam się przechowywać informacje w 1 arkuszu czegoś, co ma kwadrat o długości plancka 1 x 1 na szczelinę. Stan cząstki w tym slocie to trochę informacji, które możemy przechowywać

Ale ile w jednostce, jeden bit lub więcej?Jednym z głównych powodów, dla których o to pytam, jest to, że nie rozumiem, dlaczego ograniczenie do dwóch stanów miałoby być nieodłącznym elementem fizyki.A jeśli nie, to jaki jest limit?
Wydaje mi się, że jeśli długość deski jest najmniejsza, możesz coś przechowywać i masz trójwymiarową kratkę tego czegoś, a jedyne stany, w których gniazdo może być to „pełne” lub „puste”, oznacza to system binarny.
Mogę się mylić (minęły lata, odkąd nie czytałem o tym dogłębnie), ale zanim będziesz w stanie manipulować bitami na poziomie skali Plancka, twój system zapadnie się w czarną dziurę, dlategoobecnie uważa się, że ostateczny limit to dni.Zobacz link w mojej odpowiedzi, aby uzyskać więcej informacji.
Wolphram jonny
2014-11-04 11:21:55 UTC
view on stackexchange narkive permalink

W rzeczywistości teoretycy obliczyli ostateczny komputer, zakładając, że istnieją czarne dziury. Podstawowa procedura szacowania maksymalnej ilości informacji, które można przechowywać w danej ilości miejsca, jest związana z ilością informacji, które można przechowywać w najmniejszej możliwej skali, ponieważ nadal koncentrujesz materię i energię do kodowania bitów. Informacja i entropia są ze sobą powiązane, więc uważa się, że ostatecznym limitem jest entropia czarnej dziury, ponieważ w miarę utrzymywania miniaturyzacji czarna dziura będzie granicą, ponieważ gęstość informacji rośnie i ostatecznie zapada się w czarną dziurę. Zobacz na przykład ten artykuł z popularno-naukowego punktu widzenia http://www.nytimes.com/library/national/science/090500sci-physics-computers.html

Czy to sugeruje, że Wikipedia to czarna dziura?A może ogólnie chodzi o Internet?
Ivo Beckers
2014-11-04 18:10:15 UTC
view on stackexchange narkive permalink

Mogę również wymyślić metodę, która może przechowywać nieskończone dane w kilku obiektach / atomach / cokolwiek, co zależy od tego, jak dobrze możesz zmierzyć. Wystarczy zmierzyć obrót obiektu względem innego obiektu na tej samej osi. Prosty przykład: miej dwa dyski, które mogą obracać się na tej samej osi, a na każdym dysku znajduje się wskaźnik, który jest odwrócony. Kąt między tymi dwoma wskaźnikami wynosi od 0 do 360 stopni i w zależności od dokładności pomiaru możesz w ten sposób przechowywać dane.



To pytanie i odpowiedź zostało automatycznie przetłumaczone z języka angielskiego.Oryginalna treść jest dostępna na stackexchange, za co dziękujemy za licencję cc by-sa 3.0, w ramach której jest rozpowszechniana.
Loading...