Информация и данные – это разные вещи. Не все данные одинаковы. Но сколько информации может содержать любой фрагмент данных? Впервые этот вопросы был раскрыт в статье 1948 года «Математическая теория коммуникации» почетного профессора MIT Клода Шеннона. Одним из прорывных результатов Шеннона является идея энтропии, которая позволяет количественно оценить количество информации, присущей любому случайному объекту, включая случайные величины, которые моделируют наблюдаемые данные. Результаты Шеннона заложили основы теории информации и современных телекоммуникаций...
Добрый день, сегодня мы познакомимся с заданием №1 ОГЭ по информатике. Сама суть идёт из темы про кодирование информации. Когда мы пытаемся найти какое количество нужно выделить памяти у компьютера на один символ. Символ — это не только цифры (0-9) и буквы разных алфавитов, но и прочие специальные символы (знаки препинания, вопросительные, восклицательные знаки и т.д.). Пробел так же, как и любой другой символ занимает память при его использовании/наличии. Само вычисление необходимого количества памяти происходит по формуле объёма информации: У этих переменных есть свои единицы измерения...