- Adalah informasi bersyarat simetris?
- Mengapa Simetris Informasi Saling?
- Saat informasi bersama sama dengan entropi?
- Apa itu entropi bersyarat dalam teori informasi?
Adalah informasi bersyarat simetris?
Informasi timbal balik adalah simetri (x; y) = i (y; x) \ . Ini mengikuti langsung dari definisi, Persamaan.
Mengapa Simetris Informasi Saling?
Informasi Saling (MI) antara dua variabel acak menangkap berapa banyak informasi entropi yang diperoleh sekitar satu variabel acak dengan mengamati yang lain. Karena definisi itu tidak menentukan mana yang merupakan variabel acak yang diamati, kami mungkin curiga ini adalah kuantitas simetris.
Saat informasi bersama sama dengan entropi?
Mereka hanya melakukannya jika mereka konstan.. Memang jika mereka sepenuhnya identik, informasi timbal balik mereka akan sama dengan entropi dari salah satu dari keduanya: i (x, x) = h (x). Entropi ini hanya nol dalam kasus data konstan, jika tidak, ia mungkin memiliki nilai lain.
Apa itu entropi bersyarat dalam teori informasi?
Dalam teori informasi, entropi bersyarat mengukur jumlah informasi yang diperlukan untuk menggambarkan hasil dari variabel acak mengingat bahwa nilai variabel acak lain diketahui.