После вступительной статьи канала InForMatika_Likbez появилось много разных вопросов по теме информация как понятие реальности. Кому-то довольно сложно было проследить за мыслью сюжета, кто-то вообще ничего не понял и причём там информатика, ну а кто-то просто не в теме.
Но я рада тем немногим, которые как + резонанс того, что не всё потеряно и что есть кто-то, кто реально не просто согласен с изложенным в статье, но и понимает, что информация не существует без того, кто её осознаёт. А всё остальное это либо данные, знания, опыт, познания и т.д.
Домашнее задание первого урока InForMatika_Likbez для всех почему-то стало непосильным. Хотя ответ лежал прямым текстом в самой статье. Ответ – нет результативной информации или конечной. Информация - всегда исходная составляющая всех процессов в мире.
Попробуйте ответить на такой вопрос: " Мы делаем, потому что думаем или думаем, потому что делаем?"
Это ещё один практически неподъёмный для многих вопрос.
А ответ вытекает из предыдущего определения информации. Мы думает, потому что должны что-то сделать. Вам нужно что-то сделать, вы начинаете искать, как это сделать, т.е. ищите необходимую информацию, которая поможет вам получить некие знания или опыт для реализации своих планов. Т.е. цель определяет выбор нужной информации для своей реализации. поэтому мы думаем, потому что должны что-то сделать.
Надеюсь, с этой, чуть ли не философской темой, мы разобрались и довольно быстро, всего лишь в одной небольшой статье, если учесть тот факт, что тонна макулатуры имеется на эту тему без возможности найти в ней достоверный вариант ответа.
Теперь следующий шаг, в котором чуть продвинемся дальше. Пока ещё не практика, а теория на повестке дня, как говорил Эйнштейн: "… давайте не будем уподобляться корове, которая жуёт травку, а в ботанике ничего не смыслет…"
Поэтому этот урок посвятим теории, без которой не было бы никакой практики м никакой информатики.
Теперь об информатике, как науке. Куда уж без неё. Хотя говорят, что “ хрупкая теория всегда разобьётся о неуклюжую практику”, всё же сделаем в неё небольшое отступление.
Давайте вспомним, какие мы знаем фундаментальные научные понятия. Да, конечно, это энергия, время, пространство, вещество, материя. Так вот информация относится к этой категории понятий, так как она – свойство всего сущего. Это понятие появилось задолго до времени компьютеризации и автоматизации. Информатика не существует без теории информации, а сама информация прекрасно без неё обходится.
Но нашлись два незаурядных мозга человечества - Клод Шеннон и Ральф Хартли, которые смогли сделать информацию доступной миру электроники через аналогию дуальности мира . Да-нет, +/-, on/off/ и т.д. до 1/0.
Этот принцип проявлен во всех жизненных процессах в физике, биологии, химии и вот его смогли внедрить в электронику, благодаря такому понятию как бит. Это ещё одно ключевое понятие информатики, без которого нет самой информатики.
Попробуем понять, как ученые это придумали, перевернув весь мир, заставив технику "понимать" информацию.
Например, мы с вами болеем за какую-то спортивную команду и ждём результат финальной игры, по которому команда займёт первое или второе призовое место. Мы не знаем какое место , но знаем, что это может быть одно из двух вариантов - первое или второе.
Т.е. если мы узнали один из двух вариантов игры, мы знаем победителя.
Выиграли? Да, значит заняли первое место в турнире. В данном случае да – первое место, нет - второе.
А теперь немного усложним ситуацию. У нас экзамен, где результат может иметь четыре варианта: 2/3/4/5 и нам надо выяснить путём задания одного или нескольких вопросов, каков результат .Сколько вопросов минимально мы можем задать, чтобы узнать ответ? Итак, смотрим, первый вопрос: хорошо или плохо и второй вопрос : 4 или 5?
Таким образом, мы сделали два выбора из 4 возможных ситуаций.
Теперь возьмём 7 дней недели и попробуем узнать день без перебора самым коротким путём:
Например, первая половина или вторая, начало половины или конец и последний выбор между двумя днями. Например, я загадала субботу. Как это узнать?
1 вопрос: первая половина или вторая недели; ответ: вторая. ( после среды или четверга)
2 вопрос: начало половины или конец: конец (от субботы до воскресенья)
3 вопрос: суббота или воскресенье: ответ – суббота.
Те. получается некая зависимость между количеством возможных вариантов результата или события и минимальным количеством необходимых вопросов для определения этого результата - варианта события:
2 события -1 вопрос; 4 события – 2 вопроса, 7-8 событий – 3 вопроса т.д. Зависимость можно представить степенью, где N –кол-во событий, 2 – это варианты да-нет, а i –это количество вопросов, минимально необходимых для получения результата. Итак, мы с вами вывели самое главное показательное уравнение информатики, N=2i (в степени)
Ответ при каждом уточняющем вопросе- выборе всегда половинный, т.е. сужающий поиск вдвое меньше до да или нет, третьего не дано. Что значит половинный? Мы каждый последующий вопрос задаём с учетом результата ранее определённого, т.е. с учётом неопределённости в два раза меньше.
Именно снятие неопределённости ровно вдвое и названо Шенноном единицей информации битом по аналогии с одним вопросом и ответом-результатом.
Вот это и сделало революцию в мире теории информации, А дальше законы физики помогли подвести 1/0 к напряжению или его отсутствию в электросхеме. И в результате мы имеем информатику, благодаря теории информации. Всё гениальное просто и просто всё гениальное. И ещё чуть-чуть по биту. Но где в электронной схеме хранить результат электрического сигнала – 0 или 1? Конечно же в ячейке памяти, которую тоже назвали битом, ибо кроме 0 или 1 там больше ничего не может быть.
Поэтому бит – это не только единица информации в теории информации, но и единица хранения информации – разряд.
А теперь немного интересных фактов по смежным понятиям темы. Есть люди, так называемые люди - компьютеры, которым удаётся в уме решать сложнейшие расчёты многоразрядных чисел. Феномен этот при изучении напоминает именно процесс обработки данных в электронной схеме. Таким образом, всё зеркально в этом мире и многие электронные системы созданы благодаря такой науке как бионика, которая изучая процессы живых объектов, создаёт по аналогии технические объекты – например, вертолёт по образу и подобию стрекозы, а осьминог, например, стал прототипом реактивных двигателей, многие наши обиходные вещи подсмотрены человеком у природы.
В теории информации этим занимается кибернетика – наука об управлении информацией во всех объектах, как живых, так и искусственных. Автором кибернетики как науки стал Норберт Виннер, доказавший, что управление информацией лежит в основе всех жизненных систем. Я, по специальности - кибернетик в области экономики. Могу сказать, что при честном подходе можно было бы создать матрицу успеха и процветания государства, но есть некие но, из-за которых, как говорят, ” и гибнет дело коль его должно судить не наше, а чужое мнение...” Итак, ещё несколько важных понятий информатики мы сегодня добавили в вашу копилку знаний информатики: количество информации, бит, бионика, кибернетика, показательное уравнение.
Надеюсь на живой отклик и диалог. Так будет легче определять тематику и уровень подачи дальнейших уроков нашего ликбеза.
Кому откликается мой стиль, рада буду вашим комментариям, знакам внимания, вопросам. Кто выбрал информатику и it делом жизни, прошу в наш IT-KLASS https://vk.com/sev_informatika
Возможно скоро мы откроем on-line школу, хотя живое обучение мне более импонирует и его, по сути, ничем не заменишь! Но поживём – увидим, как говорил великий Карлсон. И напоследок домашнее задание:
#1Домашнее задание: ребята играли в страны. Нужно было угадать латиноамериканскую страну; чему равно количество информации для определения страны. #2Домашнее задание: какие достижения бионики вам известны?
А что бы вы своё предложили перенять у природы.
Для тех, кто пропустил первый стартовый урок по информатике на нашем канале, заходите сюда: https://dzen.ru/a/Zzv4nlnwrVvoul6M?share_to=vk
На следующем уроке мы увидим как количество информации превратилось в объем информации и мы смогли технику научить всему.
До встречи на канале. Оставайтесь с нами! Спасибо за прочтение!