Pytanie:
Dlaczego wiodąca cyfra nie jest liczona jako cyfra znacząca, jeśli jest 1?
Vinicius ACP
2019-12-23 07:19:31 UTC
view on stackexchange narkive permalink

Czytając książkę Schaum's Outline of Engineering Mechanics: Statyka natrafiłem na coś, co nie ma dla mnie sensu, biorąc pod uwagę temat znaczących liczb:

Schaum's Outline of Engineering Mechanics: Statics fragment Szukałem i widziałem, że praktycznie to samo jest powiedziane w innej książce ( Fluid Mechanics DeMYSTiFied ): Fluid Mechanics DeMYSTiFied fragment


Moje pytanie brzmi: dlaczego jeśli pierwsza cyfra w odpowiedzi to 1, nie liczy się to jako cyfra znacząca?

Zauważ, że te 2 fragmenty są * wyraźnie * plagiatowane jeden od drugiego, więc w rzeczywistości masz tylko jedno źródło.
Zauważ, że wikipedia nigdy nie słyszała o tej koncepcji.Oczywiście nie jest to ostateczne źródło, ale warte rozważenia w kontekście tego, „co prawdopodobnie pomyśli przeciętny specjalista STEM”.
Więcej na temat [znaczących liczb] (http://physics.stackexchange.com/search?q=is%3Aq+ssequant+figures).
@ReinstateMonica--Brondahl-- O jakiej koncepcji Wikipedia nigdy nie słyszała?[Znaczące liczby] (https://en.wikipedia.org/wiki/Ssequant_figures)?
@ReinstateMonica--Brondahl-- Te książki mają wspólnego autora.Więc to ten sam facet, który twierdzi to w dwóch różnych książkach.
Powiązane: https://physics.stackexchange.com/a/358427/520
Lepszym kandydatem do tego, co prawdopodobnie pomyślą inżynierowie, jest definicja liczby znaczących liczb podana przez [IS 2: 1960] (https://archive.org/details/gov.in.is.2.1960/page/n11)i BS 1957: 1953.
Cyfra to coś innego niż liczba ... która ** robi ** różnicę.
Pięć odpowiedzi:
knzhou
2019-12-23 07:31:48 UTC
view on stackexchange narkive permalink

Cyfry znaczące to skrót wyrażający, jak dokładnie znasz liczbę. Na przykład, jeśli liczba ma dwie cyfry znaczące, to znasz jej wartość jako z grubsza 1 $ \% $ .

Mówię z grubsza, bo to zależy od liczby. Na przykład, jeśli zgłosisz $$ L = 89 \, \ text {cm} $$ oznacza to z grubsza, że ​​wiesz, że jest to od 88,5 $ do 89,5 $ cm. Oznacza to, że znasz wartość jednej części w 89 $ , czyli z grubsza do 1 $ \% $ .

Jednak jest to tym mniej dokładne, im mniejsza jest wiodąca cyfra. Na przykład dla $$ L = 34 \, \ text {cm} $$ znasz go tylko z jednej części w 34 $ , czyli około $ 3 \% $ . A w skrajnym przypadku $$ L = 11 \, \ text {cm} $$ znasz go tylko z jednej części w 11 $ , czyli około 10 $ \% $ ! Więc jeśli wiodącą cyfrą jest 1 $ , względna niepewność ilości jest w rzeczywistości dużo większa, niż sugerowałoby naiwne liczenie cyfr znaczących. W rzeczywistości jest to mniej więcej to samo, czego można by się spodziewać, gdybyś miał o jedną znaczącą liczbę mniej. Z tego powodu 11 $ ma „jedną” znaczącą cyfrę.

Tak, ta reguła jest arbitralna i nie rozwiązuje w pełni problemu.(Teraz zamiast ostrego odcinania między $ L = 9 $ cm a $ L = 10 $ cm, masz ostre odcięcie między $ L = 19 $ cm a $ L = 20 $ cm.)Jednak znaczące liczby są narzędziem księgowym, a nie czymś, co naprawdę „istnieje”.Są zdefiniowane tylko po to, aby były przydatne do szybkich szacunków.Przynajmniej w fizyce, kiedy zaczynamy spierać się o ten poziom szczegółowości, po prostu całkowicie porzucamy cyfry znaczące i od samego początku przeprowadzamy odpowiednią analizę błędów.

Warto zauważyć, że ostra wartość odcięcia przesuwa się, ale * stopień * odcięcia jest o połowę mniejszy, jeśli wyklucza się 1 jako wiodącą cyfrę znaczącą.
@Kevin Nie, to naprawdę to samo.Jeśli policzysz 1 $ jako znaczącą cyfrę, to np.dwa znaki oznaczają „od 1% do 10% niepewności”.Jeśli nie policzysz 1 $ jako cyfry znaczącej, wtedy dwie figi oznaczają „gdzieś pomiędzy 0,5% a 5% niepewnością”.To wciąż zakres rzędu wielkości, teraz jest lepiej wyśrodkowany około 1%.
Ach - widzę, skąd pochodzisz.Widziałem to jako „najgorszy poziom niedokładności to X%” - a to podejście algorytmu zmniejsza X% z 10% do 5%.Widzisz to jako „różnicę rzędu wielkości jest zawsze dziesięciokrotnie, niezależnie od tego, gdzie jest podział”.
@Kevin Zgodnie z tą logiką o wiele lepszy poziom niedokładności uzyskuje się odejmując cztery tysiące od liczby cyfr i nazywając _ to_ liczbą cyfr znaczących.To nie jest przydatna miara.
Wydaje mi się, że to dobra odpowiedź.Mógłbym to nieco rozszerzyć, mówiąc coś o analizie błędów i dokładnie w jaki sposób omija ten problem.Chciałbym przynajmniej wskazać, że w fizyce zwykle podaje się ilości jako np. 80 $ \ pm 30 cm $, zamiast polegać na znaczących liczbach, aby opowiedzieć historię.
Przykładem, którego lubiłem używać, kiedy uczyłem tego przedmiotu w liceum, było to, że uczniowie obliczali pole kwadratu, który ma 5 stóp z każdej strony.Na szczęście to „nie liczenie 1 jako cyfry znaczącej” nie zmienia faktu, że wynik wynosi 30 ft².
Myślę, że kluczową kwestią jest to, że kiedy definiujesz wartość graniczną między 0,9 a 1, dwie cyfry znaczące oznaczają zakres błędu od 1% do 10%.Jeśli zdefiniujesz odcięcie między 1,9 a 2, to dwie cyfry znaczące oznaczają błąd od 0,5% do 5%.W pierwszym przypadku 1% sugerowany przez „dwie cyfry znaczące” znajduje się w rzeczywistości tylko na dolnym końcu przedziału.W drugim przypadku rzeczywisty zakres błędu może w rzeczywistości być większy * lub * mniejszy niż 1%.Idealna wartość odcięcia wynosiłaby $ \ sqrt {10} = 3,16 $, więc dobrym pomysłem byłoby również wykluczenie początkowej 2 z liczby znaczących cyfr.
AleksandrH
2019-12-23 22:14:30 UTC
view on stackexchange narkive permalink

To nie jest rzeczywista zasada.I jak niektórzy zwracają uwagę w komentarzach, nie ma o tym nawet wzmianki w artykule Wikipedii o znaczących cyfrach.Reguła dotyczy 0 $ , a nie 1 $ .

Prosty kontrprzykład: 10 USD .Czy autorzy twierdzą, że ta liczba nie ma znaczących cyfr?

Możesz to sprawdzić, wyszukując hasło „sig fig counter”.Każdy z nich powinien powiedzieć Ci, że liczba w Twoim pytaniu ma 4 cyfry znaczące.

Jak zauważają inni, ten warunek brzegowy jest wyraźnie arbitralny.Ale musi to być spójne w całej literaturze, w przeciwnym razie podczas pracy z innymi pojawia się zamieszanie.Więc powiedziałbym, że zignoruj regułę.

Ta reguła jest nie tylko „rzeczą”, ale była niemal uniwersalna w erze suwaków logarytmicznych, chociaż w ostatnich dziesięcioleciach wyszła z mody.
Odnośnie kontrprzykładu: czy powiedziałbyś, że zero nie ma znaczących cyfr?Liczba takich cyfr to tylko mechanizm pozwalający ocenić stopień pewności co do danej wartości.Na przykład: jeśli rzeczywista wartość to 1,00001, ale mogę zmierzyć tylko setne i dlatego widzę 1,00, mogę powiedzieć, że jest to jedna z trzema cyframi znaczącymi.(Lub według tych autorów dwie cyfry sygnalizacji).Rzeczywista analiza błędów zawsze będzie jednak solidniejsza.
@Phlarx Zgodnie z „tradycyjną” definicją, końcowe 0 $ nie jest uważane za cyfrę znaczącą, chyba że następuje po nim cyfra niezerowa.
Skąd pochodzi Twoja „tradycyjna definicja”?Na przykład robię różnicę między 20 a 20,0.
Na przykład moja edukacja.Czy znasz zasady dotyczące cyfr znaczących?http://chemistry.bd.psu.edu/jircitano/sigfigs.html
Nie ma ogólnie uzgodnionego zestawu reguł dotyczących cyfr znaczących.Problem polega na tym, że cała koncepcja jest tępym narzędziem (choć zbyt ważnym, aby po prostu go całkowicie pozbyć), a wszystkie zestawy reguł mają złe przypadki.Jednak różne branże mają dokumenty normalizacyjne, więc jeśli pracujesz w tych dziedzinach, możesz wskazać wiarygodne źródło i powiedzieć „Tak to robimy”.Po prostu nie znajdziesz uniwersalnej umowy.Uważam, że chemicy są znacznie bardziej zjednoczeni w swoim podejściu niż fizycy.
Ponadto tak, istnieje różnica między 20 a 20,0.Mówiłem o liczbie takiej jak 10, która ma tylko 1 sig rys.
Przy okazji, odpowiedzią na twoje pytanie dotyczące „10” jest to, że na suwaku logarytmicznym byłoby 1,00 $ \ razy 10 ^ 1 $, więc „oczywiście” ma dwie sig-figi, a dla rzeczywistych wartości całkowitych całe pojęcie jest niewłaściwe.Liczy się kontekst.
Jasen
2019-12-23 07:30:27 UTC
view on stackexchange narkive permalink

Obcinanie liczb do określonej dokładności jest całkowicie arbitralne.Nie ma powodu, aby nie czynić tego bardziej arbitralnym.

Wygląda na to, że komuś nie spodobał się krok z dokładnością między 9,99 a 10,0, więc przesunął go między 19,99 a 20,0.

W każdej dziedzinie, w której wyniki są skupione wokół potęgi 10, może to być korzystne.

Nie, nie chodzi tylko o to, że „po prostu to przenieśliśmy”.Poziom niedokładności między 9,99 a 10,0 jest dwukrotnie większy niż między 19,99 a 20,0.Zasada ta zaostrza dopuszczalny poziom niedokładności dla określonej liczby cyfr znaczących.
ale tylko dlatego, że liczby są dwa razy większe, krok nadal wynosi około 10 razy.
... bez względu na to, jak arbitralne może się to wydawać, częściowo jest to po prostu zdrowy rozsądek.Czy „100,0” rzeczywiście jest dziesięć razy dokładniejsze niż „99,0”, jeśli mierzone jest, powiedzmy, tym samym przyrządem?
Kevin
2019-12-27 03:49:51 UTC
view on stackexchange narkive permalink

To czas eksperymentu!

(Zaczynałem dostrzegać oba punkty widzenia, jeśli chodzi o rezygnację z 1, i byłem ciekawy, czy istnieje jakiś obiektywny sposób rozwiązania problemu ... więc pomyślałem, że może to być dobra okazja do eksperymentu. Nauka!)

Założenia: Cyfry znaczące są sposobem określania dokładności na liczbie - albo z niepewności pomiaru, albo jako wynik obliczeń na pomiarze. Jeśli pomnożymy dwa pomiary razem, wynik będzie miał taką samą liczbę cyfr znaczących jak niższa z dwóch wartości początkowych (więc 3,8714 x 2,14 ma łącznie trzy cyfry, a nie siedem, jak można uzyskać podłączając go do kalkulatora). / p>

Ta część „obliczeniowa” jest tym, co chciałbym wykorzystać. Ponieważ argumentowanie znaczących cyfr na liczbie w próżni to tylko semantyka. Zobaczenie, jak precyzja przenosi się do rzeczywistych operacji, daje rzeczywistą możliwą do przetestowania prognozę. (Innymi słowy, powinno to wyeliminować wszelkie problemy z „odcięciem”. Jeśli dwie liczby mają X cyfr znaczących, to ich pomnożenie powinno mieć dokładność mniej więcej X cyfr znaczących - i poprawność sposobu, w jaki określasz, co jest znaczące cyfra powinna być odpowiednio przetłumaczona.)

Experimental Layout

Wygeneruj dwa współczynniki o wysokiej precyzji, zgodne z Benfordem (nie jestem pewien, czy Benford ma znaczenie w tym eksperymencie, ale pomyślałem, że nie powinienem pomijać żadnych możliwych czynników komplikujących) - a jeśli mówimy o fizyce, nasze pomiary powinny być pasuje do prawa Benforda.) Wykonaj na nich operację taką jak mnożenie. Następnie zaokrąglij te same współczynniki w dół do 4 cyfr po przecinku i wykonaj to samo mnożenie na tych zaokrąglonych wartościach. Na koniec sprawdź, ile cyfr wspólnych mają dwie wartości.

Aka, sprawdź, jak dobrze nieprecyzyjna wersja „pomiaru” porównuje rzeczywiste, ukryte obliczenia o wysokiej precyzji.

W idealnym świecie wartość byłaby 5 pasującymi (znaczącymi) cyframi. Jednakże, ponieważ tylko oślepiamy sprawdzanie, czy cyfry się zgadzają, będziemy mieli takie dopasowanie przez zwykłe szczęście.

Eksperymentalne wyniki mnożenia

  Dopasowywanie cyfr, gdzie wynik nie zaczyna się od jednego
    ... i żadna wartość wejściowa nie zaczyna się od jedynki:
            5. cyfra odpowiada 89,7%
            6. mecze 21.4%
    ... i jedna wartość wejściowa zaczyna się od One:
            5. cyfra odpowiada 53,7%
            6. mecze 5.57%
    ... a dwie wartości wejściowe zaczynają się od One:
            5. cyfra odpowiada 85,2%
            6. mecze 11,1%
Dopasowywanie cyfr, gdzie wynik zaczyna się od jednego:
    ... i żadna wartość wejściowa nie zaczyna się od jedynki:
            5. cyfra odpowiada 99,9 +%
            6. mecze 37.8%
    ... i jedna wartość wejściowa zaczyna się od One:
            5. cyfra odpowiada 99,9 +%
            6. mecze 25,5%
    ... a dwie wartości wejściowe zaczynają się od One:
            5. cyfra odpowiada 95,0%
            6. mecze 13,9%
 

Conkluzje do mnożenia

Po pierwsze, mnożąc dwie liczby i kończąc na liczbie zaczynającej się od 1, prawdopodobnie powinieneś policzyć 1 jako cyfrę znaczącą. Innymi słowy, jeśli pomnożymy „4,245” x „3,743” i otrzymamy „15,889035”, prawdopodobnie powinniśmy zostawić „15 0,89”. Jeśli dodasz dodatkową cyfrę i nazwiesz ją „15 .889”, masz 38% szans, że ostatnia cyfra będzie poprawna ... co prawdopodobnie nie jest wystarczająco wysokie, aby można było ją uwzględnić.

Ale mnożenie w miejscu, w którym jedno z danych wejściowych zaczyna się od 1, i robi się dziwne. Mnożąc „1,2513” x „5,8353” i realistycznie rzecz biorąc, nie otrzymamy w wyniku pięciu cyfr znaczących. Zgodnie z eksperymentem masz cztery cyfry ... i 54% szans na trafienie z tą piątą wartością. Cóż, jeśli 38% szansa w poprzedniej sytuacji (mnożenie dwóch liczb i kończenie na wartości zaczynającej się od „1”) uzyskania „dodatkowej” znaczącej cyfry jest niedopuszczalna, to prawdopodobnie można powiedzieć, że 54% szansa w ta sytuacja jest prawdopodobnie zbyt niska, aby uzasadniać włączenie piątej cyfry.

Możesz więc pokusić się o powiedzenie „Nie traktuj początkowego 1 tak samo znaczącego jak dane wejściowe w obliczeniu”… z wyjątkiem mnożenia 1. ##### x 1. #### (dwie liczby zaczynające się od 1) daje 85,2% dokładności tej piątej cyfry - czyli mniej więcej ten sam poziom dokładności, przy którym żadna z trzech liczb nie zaczyna się od 1. Więc jeśli 8,83 x 8,85 powinno mieć trzy cyfry znaczące, to powinno być 1,83 x 1,85.

Końcowy wniosek: Właściwie jest to pozornie trudny problem, aby znaleźć dobrą heurystykę. Zwłaszcza, że ​​istnieje dość duża różnica między pomiarem 1,045, który jest podawany na dane wejściowe obliczenia, a wartością 1,045, która pojawia się jako wynik obliczenia. To wyjaśnia, dlaczego istnieje wiele metod obsługi wiodących jedynek. (Gdybym był zmuszony do wybrania heurystyki, byłoby to: nie licz początkowego „1” w żadnych wykonanych pomiarach , ale policz je jako wynik każdego obliczenia .)

rob
2019-12-25 02:40:27 UTC
view on stackexchange narkive permalink

Śledzenie „cyfr znaczących” to metoda heurystyczna służąca do wskazywania przybliżonej dokładności liczby. Nie zastępuje prawdziwej analizy niepewności, ale wystarcza dla wielu ludzi i do wielu celów. Kiedy niektórzy ludzie napotykają ograniczenia znaczących liczb, mają wystarczające doświadczenie (lub współpracowników z wystarczającym doświadczeniem), aby przejść do bardziej poważnej analizy błędów. Kiedy inne osoby napotykają te same ograniczenia, próbują „naprawić” podejście do cyfr znaczących, tworząc nowe reguły ad hoc, takie jak ta.

Załóżmy, że Ty i ja niezależnie analizujemy ten sam zestaw danych. Każdy z nas odmierzył tę samą wielkość do dwóch cyfr znaczących: Twój wynik to 0,48, a mój wynik to 0,52. Ponieważ zdrowa analiza znaczących liczb zachowuje jedną najmniej znaczącą cyfrę, której wartość jest tylko głównie godna zaufania, nie jest jasne, czy nasze pomiary są zgodne, czy nie; ten poziom rozbieżności jest interesujący i możemy skończyć z dyskusją, jak przekształcić to w eksperyment składający się z trzech znaczących cyfr, na wypadek gdybyśmy obaj poprawnie zmierzyli „prawdziwą” wartość bliższą 0,498.

Wyobraźmy sobie teraz inny wszechświat, w którym oboje przeprowadzamy ten sam eksperyment, ale gdzieś inna definicja oznacza, że ​​nasze „wyniki” różnią się liczbowo dokładnie dwudziestokrotnie. Twój pomiar w tym wszechświecie to 9,6, a mój to 10,4. Nadal istnieje interesujące napięcie między tymi liczbami. Ale jeśli policzę pierwszą 1 jako jedną z moich dwóch znaczących cyfr, powinienem podać wynik jako „10”, co sugeruje, że równie prawdopodobne jest „9” lub „11”. Jeśli zgłaszasz 9.6, a ja zgłaszam 10, napięcie między naszymi wynikami jest znacznie mniej oczywiste. Wydaje się również, że mój wynik jest dziesięć razy mniej dokładny niż twój. Nie powinienem być w stanie zmienić dokładności liczby przez jej podwojenie lub zmniejszenie o połowę.

Taka jest logika śledzenia „cyfry ochronnej”, jeśli zdarzy się, że liczba przypada w dolnej części dekady logarytmicznej. (Grupa danych cząstek zachowuje „cyfrę ochronną”, jeśli pierwsze dwie znaczące cyfry mieszczą się w przedziale od 10 do 35). Ale aby to wyjaśnić, mówiąc, że „wiodąca 1 nie jest cyfrą znaczącą”, tak jak robi to twoje źródło: to strasznie zagmatwane. Znalazłbym książkę napisaną przez kogoś innego i z pewną ostrożnością przeczytałbym autora, którego tu cytujesz.

@supercat przypomina mi w komentarzu, że istnieje zwarta konwencja przedstawiania rzeczywistych niepewności, która stała się popularna w literaturze w ciągu ostatnich kilku dziesięcioleci: niepewność wpisuje się w ostatnich kilku cyfrach w nawiasach tuż po liczbie. Na przykład można napisać 12,34 $ (56) $ jako skrót dla 12,34 $ \ pm 0,56 $ . Takie podejście jest dobre w branży pomiarów precyzyjnych, gdzie jest wiele znaczących liczb. Na przykład aktualna referencja Particle Data Group podaje masę elektronów (w jednostkach energii) jako 0,510 $ \ 998 \ 950 \ 00 (15) \, \ mathrm {MeV} / c ^ 2 $ , który jest znacznie łatwiejszy do napisania i przeanalizowania niż 0,510 $ \ 998 \ 950 \ 00 \, \ mathrm {MeV} / c ^ 2 \ pm 0.000 \ 000 \ 000 \ 15 \, \ mathrm {MeV} / c ^ 2 $ .

Nie widziałem takiego podejścia w materiałach dla początkujących uczniów i przychodzi mi do głowy kilka powodów. Większość ludzi dowiaduje się, że arytmetyka to coś, co można zrobić z liczbami, które nie są dokładne. Wielu uczniów jest intelektualnie nieprzygotowanych do tego pomysłu: są gotowi napisać 0,5 zamiast 1/2, ale nie mają pewności, czy dziesiętować 1/7 jako 0,1 czy jako 0,1428571429, ponieważ to drugie wychodzi z kalkulator. Ponadto, aby używać notacji w nawiasach, musisz już mieć pewne zrozumienie cyfr znaczących. Aby połączyć powyższe przykłady, większość ludzi, którzy nie zajmują się precyzyjnymi pomiarami (gdzie zrozumienie niepewności może być trudniejsze niż zrozumienie wartości centralnej), zamiast zachować cyfry ochronne 12,34 (56), zapisałoby 12,3 (6). Ale gdybyś pomnożył wartość przez dwadzieścia, otrzymałoby to 246,8 (11,2). Niezależnie od tego, czy zapisać go w ten sposób, czy jako 247 (11), czy jako 250 $ \ pm10 $ , pojawia się te same problemy dotyczące cyfr ochronnych, od których zaczęło się to pytanie. Podczas gdy niejednoznaczność jest przenoszona z centralnej wartości na niepewność, więc stawki za błędną ocenę są niższe, wyjaśnienie tego osobie, która jest nowa w idei dokładnej nieprecyzyjności, jest trudnym zadaniem.

Szkoda, że nie pojawiła się żadna konwencja rozróżniania między wartościami, które mają różne poziomy niepewności na ostatnim miejscu, być może zastępując ostatnią cyfrę 0/2 lub 1/2, lub 0/4, 1/4, 2/4 lub 3 /4 tak, że największa zmiana wyrażonej niepewności między sąsiednimi poziomami dokładności byłaby współczynnikiem 2,5, a nie dziesięciokrotnie.
@supercat Jest taka konwencja.Zaktualizowałem odpowiedź.
Nie widziałem tej konwencji.Pamiętam dość stary (prawdopodobnie lata 70.) układ okresowy, który oznaczał niektóre masy atomowe gwiazdką wskazującą, że były one +/- 4 na ostatnim miejscu, podczas gdy inne wartości mieściły się w granicach +/- 1 na ostatnim miejscu.Czy istnieje konwencja dotycząca rozróżniania między wartościami mieszczącymi się w granicach 0,501, 0,75 lub 1 miazga?Kolejną rzeczą, o której myślę, że powinna zostać znormalizowana, jest sposób wskazywania wartości, które należy uznać za dokładne z dowolną precyzją.Jeśli ktoś ma osiem półek z ośmioma rzędami po osiem kolumn bloków, nie ma ...
„500” bloków (jedna znacząca cyfra), ale dokładnie 512.
Kiedy precyzja poniżej ULP ma znaczenie, wtedy wykonujesz prawdziwą analizę niepewności zamiast używać znaczących cyfr jako skrótu.Najczęstszym sposobem wskazania tego jest dodanie jednej lub więcej cyfr ochronnych podczas rejestrowania niepewności.Zauważ, że współczesna analiza jest często wykonywana od końca do końca przy użyciu liczb zmiennoprzecinkowych o podwójnej precyzji na komputerach, które mają około piętnastu cyfr znaczących;większość tej precyzji można uznać za cyfry ochronne.W przypadku dokładnych wartości wiarygodnym sposobem ich przekazania jest zdanie wyjaśniające.@supercat


To pytanie i odpowiedź zostało automatycznie przetłumaczone z języka angielskiego.Oryginalna treść jest dostępna na stackexchange, za co dziękujemy za licencję cc by-sa 4.0, w ramach której jest rozpowszechniana.
Loading...