Wpis z mikrobloga

Dodatkowy wpis spod znaku #telcozwykopem, napisany głównie z myślą o wszystkich obserwujących tag #programowanie. Powtarzałem wielokrotnie, że programowanie to umiejętność rozwiązywania konkretnych problemów za pomocą abstrakcyjnych narzędzi. Przykładem takich narzędzi mogą być dwa pojęcia zdefiniowane przez Clauda Shannona w jego artykule „A Mathematical Theory of Communication” z 1948 roku.

W dużym skrócie „information content” mówi nam jak zmieniła się nasza wiedza po zajściu pewnego zdarzenia. Im mniejsze prawdopodobieństwo tego zdarzenia (oznaczone jako p), tym więcej informacji dostaliśmy. Z matematycznego punktu widzenia information content (oznaczony jako h) jest równy h = log2(1 / p). na przykład jeśli p jest równe 0.9, to h wynosi około 0.15 bita (bit jest tutaj jednostką informacji, tak samo jak kilogram jest jednostką masy, nie oznacza zer i jedynek).

Drugim bardzo ważnym pojęciem jest „source entropy” (oznaczone jako H). To średnia wartość informacji jaką możemy uzyskać z jednego lub więcej zdarzenia. A więc im wyższa entropia tym lepiej. Aby ją obliczyć po prostu mnożymy information content każdego zdarzenia przez prawdopodobieństwo jego prawdopodobieństwo, a później wszystko dodajemy. Jeśli więc mamy dwa zdarzenia A i B, z prawdopodobieństwami 0.1 i 0.9, wtedy H jest równe około 0.47 bita.

Teraz przechodzimy to clue tego wpisu – zadanie domowe!
1) Kiedy entropia jest największa?
2) Na stole jest 12 pozornie identycznych różowych piłek. Jedna z tych piłek jest albo cięższa, albo lżejsza niż 11 pozostałych. Naszym zadaniem jest znalezienie jej znalezienie. Do dyspozycji mamy oczywiście tylko oldschoolową wagę szalkową ( ͡° ͜ʖ ͡°) W najlepszym z możliwych przypadków, ile ważeń potrzebujemy, żeby znaleźć tę piłkę?
3) Czy strategia do rozwiązania problemu z piłkami sprawdza się w każdym z możliwych przypadków?

Jak zwykle, jeśli macie jakieś pytania, walcie śmiało.

#telcozwykopem – tag do obserwowania / czarnolistowania.

#technologia #telekomunikacja #radiokomunikacja #lte #5g i trochę #matematyka

Edit: Jeśli w przeciągu 24 godzin nikt nie poda prawidłowej odpowiedzi, to sam dodam wytłumaczenie problemu i zawołam wszystkich plusujących ten wpis.
  • 3
@Malkof: @Sudo_exit: @oxern:
Miały być 24 godziny a minął prawie tydzień (,) Bardzo za to przepraszam.
Wracając jednak do pytań
1) Entropia jest największa, kiedy prawdopodobieństwo wszystkich możliwych zdarzeń jest identyczne.
2) Entropia mówi nam ile informacji dostajemy. Sztuczka więc polega na tym, żeby dobrać ważenia tak, aby entropia była jak największa (stąd poprzednie pytanie). Przy odrobinie szczęścia, potrzebujemy tylko trzy ważenia aby znaleźć problematyczną
@groman43: primo miałem nadrobić wszystkie wpisy w wolnym czasie to zrobie to dzisiaj. Po drugie primo wjechałeś z entropią z której nic nie rozumiem ale zadanie z piłkami kiedyś widziałem i żałuje, że sam nie pogłówkowałem bo lubie takie zagadki. Po trzecie primo każde następne będę czytał na bieżąco.