Почему компьютер понимает только 0 и 1?

966 прочитали
Для изучения компьютерного программирования не обязательно обладать обширными знаниями в области математики, но это, безусловно, помогает получить базовое представление о некоторых основополагающих...

Для изучения компьютерного программирования не обязательно обладать обширными знаниями в области математики, но это, безусловно, помогает получить базовое представление о некоторых основополагающих математических принципах.

А что может быть более фундаментальным для современных вычислений, чем двоичная математика?

Термин "двоичный" означает нечто, имеющее только два возможных состояния.

В двоичной системе счисления этими двумя состояниями являются числа 0 и 1. Эти два числа могут представлять самые разные вещи.

Например, в компьютерной логике 0 означает "ложь", в то время как 1 представляет "истину".

Или же они могут быть использованы для представления обычных чисел в виде комбинаций 1 и 0.

Для изучения компьютерного программирования не обязательно обладать обширными знаниями в области математики, но это, безусловно, помогает получить базовое представление о некоторых основополагающих...-2
Примером этого может быть представление чисел 0, 1, 2, 3 и 4 в трех двоичных разрядах как 000, 001, 010, 011 и 100 соответственно.

Но что все это означает на фундаментальном уровне вычислительной техники?

Почему двоичная система счисления используется в качестве основы для всех наших вычислений?

Возможно, было бы легче понять все это, если бы мы могли понять как работает компьютер на машинном уровне.

Для изучения компьютерного программирования не обязательно обладать обширными знаниями в области математики, но это, безусловно, помогает получить базовое представление о некоторых основополагающих...-3

0 и 1, интерпретация работы компьютерных схем

Компьютеры работают с электрическими сигналами, генерируемыми электрическими схемами. Чтобы спроектировать компьютер, который работает эффективно, нам нужна система, способная интерпретировать электрические сигналы упрощенным и эффективным образом.

Один из способов сделать это - интерпретировать электрические сигналы как двоичные значения:

  • 0 для значения низкого напряжения и
  • 1 для значения высокого напряжения.

Более простой способ подумать об этом - представить себе электрическую лампочку. Если лампочка выключена, это состояние интерпретируется как значение 0. Если она включена, то интерпретируется как значение 1.

Для изучения компьютерного программирования не обязательно обладать обширными знаниями в области математики, но это, безусловно, помогает получить базовое представление о некоторых основополагающих...-4
Это обобщение сокращает диапазон интерпретации каждого электрического сигнала до двух различных значений вместо бесконечного диапазона непрерывных значений напряжения.

Используя этот метод работы и интерпретации электронных схем, мы можем приступить к проектированию кодированных систем на основе двоичных битов.

Этими системами может быть двоичная логика (ограниченная только истинными или ложными значениями).

По сути, наши компьютеры используют серию высоковольтных и низковольтных электрических сигналов (двоичных значений) для представления всего, от текстов и цифр до изображений и звуков.

Существуют специальные электронные схемы, такие как триггеры и другие схемы, которые могут "хранить" или сохранять эти специфические паттерны электрических сигналов для длительного использования.

Например, один триггер может иметь несколько входов, которые в настоящее время имеют выход высокого напряжения (который мы интерпретируем как 1).

Предположим, что следующие два триггера имеют низковольтные выходы 0.

Мы могли бы объединить эти три выходных сигнала, чтобы получить значение 100, которое в двоичном формате совпадает с числом 4.

Таким образом, понимание двоичных чисел может помочь нам понять некоторые основы компьютерных операций на достаточно абстрактном уровне, даже несмотря на то, что наш слабый человеческий интеллект, возможно, никогда не позволит нам понять всю сложность компьютерных операций.

И это тоже хорошо, потому что работа с упрощенными и абстрактными концепциями компьютерных операций более чем достаточна.

Для изучения компьютерного программирования не обязательно обладать обширными знаниями в области математики, но это, безусловно, помогает получить базовое представление о некоторых основополагающих...-5

Булева логика. Использование двоичных чисел для понимания компьютерной логики

Компьютерные программы используют очень специфическую систему логики для выполнения своих инструкций, она известна как булева логика, сформулированная английским математиком Джорджем Булем в 19 веке.

Буль разработал систему арифметических и логических операций, использующих двоичную систему чисел.

Булева логика имеет дело только с двумя возможными значениями: true или false.

Значение True представлено 1, а значение false - 0.

Все логические операции приводят только к одному из этих двух двоичных значений.

Современные компьютеры постоянно используют эту форму логики для принятия решений.
Эти решения приводят к тому, что наши компьютеры выбирают определенный курс действий вместо другого.

А на этом пока все, если у вас появляются вопросы или вы хотите чтобы вышла статья по интересующему вас вопросу, смело предлагайте свои темы в комментариях. Благодарю за то что дочитали до конца!

А что вы думаете про использование 0 и 1 в вычислительной технике? Напишите свое мнение в комментариях.

На канале WebExpromt вы также найдете много интересной информации из мира современных инновационных технологий.

Обязательно подпишитесь на канал! Будем рады видеть Вас в числе наших подписчиков!