Entropie de Shannon
978-613-2-88103-8
6132881034
76
2010-10-02
34.00 €
FRE
https://images.our-assets.com/cover/230x230/9786132881038.jpg
https://images.our-assets.com/fullcover/230x230/9786132881038.jpg
https://images.our-assets.com/cover/2000x/9786132881038.jpg
https://images.our-assets.com/fullcover/2000x/9786132881038.jpg
Please note that the content of this book primarily consists of articles available from Wikipedia or other free sources online. L'entropie de Shannon, due à Claude Shannon, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (collection d'octets). Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande, et vice versa. Plus le récepteur reçoit d'information sur le message transmis, plus l'entropie (incertitude) vis-à-vis de ce message décroît, en lueur de ce gain d'information. La définition de l'entropie d'une source selon Shannon est telle que plus la source est redondante, moins elle contient d'information. En l'absence de contraintes particulières, l'entropie est maximale pour une source dont tous les symboles sont équiprobables. Dans le cas particulier d'un système de télécommunication, l'entropie de la source d'information (le transmetteur) indique l'incertitude du récepteur par rapport à ce que la source va transmettre.
https://morebooks.shop/books/pt/published_by/alphascript-publishing/2/products
Ciências da Comunicação
https://morebooks.shop/store/pt/book/entropie-de-shannon/isbn/978-613-2-88103-8