Американский математик и инженер, один из создателей математической теории информации. Всемирную извест-ность ему принес фундаментальный труд 1948 года "Математическая теория связи" ("A Mathematical Theory of Communication"), в котором впервые обосновывалась возможность применения двоичного кода для передачи ин-формации. В своих работах он определил количество информации через энтропию, а за единицу информации принял то, что впоследствии было названо "битом", то есть выбор одного из двух равновероятных вариантов.
Широко известна формула Шеннона, выражающая средний информационный вес символа N-элементного алфа-вита, в котором символы имеют частоты р1, р2, ..., pN: p1 Iog2(1/p1) + p2 log2(1/p2) + ...+ pN Iog2(1/pN).