Долгое время ноль символизировал ничто, пустоту, отсутствие величины. На протяжении многих веков его вообще не считали числом. Но сегодня этот скромный символ занимает центральное место в математике. Без него невозможны были бы ни современная физика, ни инженерия, ни экономика. Каким же образом он сумела покорить мир цифр и расчетов?
Путь нуля к математическому олимпу начался почти 5 000 лет назад. В те времена древние вавилоняне использовали для записи чисел клинопись, состоящую из линий и клиньев. Эта система напоминала зарубки на счетной палке. Один тип знаков обозначал цифры от одного до девяти, а другой тип — десятки (до 50).
Такие метки позволяли считать до 59. Их система была похожа на нашу, но вместо десятичной (основанной на числе 10) у них была шестидесятичная — основанная на числе 60. То есть они считали так: 1, 2, 3 … до 59, а потом начинали новый «разряд», как мы после девяти начинаем десятки.
Эта система счисления была удобной, поскольку 60 делится на множество других чисел, что упрощало вычисления. Отголоски такого подхода мы до сих пор наблюдаем в измерении времени. Однако у системы был серьезный недостаток — невозможность отличить единицу от шестидесяти.
Решение проблемы нашлось в форме нуля, или, точнее, его далекого предка. Вавилоняне начали использовать два клина под углом для обозначения отсутствия числа. Этот символ позволял правильно составлять цифры, подобно тому, как мы делаем это сегодня.
К примеру, в современной системе число 3601 состоит из тысяч, сотен, десятков и единицы. Если число перевести на язык вавилонян, это примерно значит: шестьдесят раз по шестьдесят (то есть 3600). Но у них не было знака для «нуля». Без него запись 3601 выглядела бы точно так же, как если бы они хотели записать просто 61 (одна шестидесятка и одна единица).
Эту проблему они решили с помощью двух клиньев, которые ставились там, где «ничего нет». Знак обозначал: «Вот тут разряд пропущен, но место нужно сохранить».
Во многих древних культурах тоже были знаки, которые означали «ничего нет» — как вавилонский символ. Но не у всех. Например, у римлян нуля не существовало вообще.Почему? Поскольку их система счисления не была позиционной. В ней X всегда значил десять — где бы он ни стоял. Например, в числе XII (12) и XX (20) X все равно означает десять, просто складывается с другими знаками.
Римлянам не нужно было «пустое место» между разрядами, поэтому и ноль им не требовался.
Следующий шаг в развитии нуля человечество сделало только в III веке. В древней рукописи, известной как манускрипт Бакхшали, которую нашли на территории современного Пакистана, ученые обнаружили сотни маленьких точек, использовавшихся вместо нуля, чтобы показать «пропущенное место» в числе. Со временем эта точка превратилась в тот самый ноль, который мы знаем сегодня — в привычный круглый символ 0.
После того как люди придумали знак нуля, прошло еще несколько веков, прежде чем кто-то понял: ноль — это не просто пустое место, а настоящее число, с которым можно проводить вычисления.
Первым, кто по-настоящему осознал это, стал индийский математик Брахмагупта. Примерно в 628 году он написал труд под названием «Брахмасфутасиддханта», где впервые подробно объяснил, как обращаться с нулем.
До Брахмагупты идея вычесть большее число из меньшего казалась нелепой. Если кто-то пытался представить выражение вроде «два минус три», на это отвечали: «так считать нельзя». Для древних математиков результат просто не имел смысла — ведь нельзя отнять больше, чем есть.
Брахмагупта впервые предложил посмотреть на это иначе. Он понял, что такие вычисления не бессмысленны, а открывают новый тип чисел — отрицательные. Именно он сформулировал правила, по которым можно выполнять арифметические операции не только с положительными величинами, но и с нулем и отрицательными числами.
Так в математике появился первый стройный набор законов, описывающих поведение нуля и чисел по обе стороны от него.
По сути, он придумал ту систему, которой мы пользуемся сегодня. Но с одним спорным моментом — делением на ноль. Брахмагупта считал, что ноль, деленный на ноль, равен нулю, а вот что происходит, если разделить любое другое число на ноль, он объяснить не смог.
Ответ нашли только через тысячу лет, во времена Исаака Ньютона и Готфрида Лейбница. Они независимо друг от друга создали математический анализ — инструмент, который позволяет работать с бесконечно малыми величинами. Эта идея дала возможность приблизиться к делению на ноль, не нарушая правил математики.
Благодаря такому подходу математики смогли объяснять движение, скорость, рост, изменение — почти все, что связано с тем, как что-то меняется со временем. И все это стало возможным потому, что когда-то кто-то задался вопросом, что вообще такое ноль.
Чтобы понять, зачем вообще нужен математический анализ (или исчисление), можно представить простую ситуацию с машиной.
Предположим, вы нажимаете на газ, и автомобиль разгоняется все быстрее. Его скорость увеличивается со временем по формуле v = t², где t — это время.
Например, через четыре секунды скорость машины достигает 16 метров в секунду. Машина «стартовала с нуля», значит, изначально она находилась в состоянии покоя.
Теперь попробуем узнать, какое расстояние она проехала за эти четыре секунды.
По идее, расстояние — это скорость, умноженная на время. Если просто перемножить 16 на 4, получаем 64 метра. Но это неправильно: ведь скорость не была постоянной — вы разгонялись. Только в самом конце машина ехала со скоростью 16 м/с, а раньше — медленнее.
Попробуем сделать расчет чуть точнее, «разобьем» время на две части:
- первые две секунды скорость — около четырех метров в секунду,
- следующие две секунды — 16 метров в секунду.
Посчитаем:
(4 × 2) + (16 × 2) = 8 + 32 = 40 метров.
Этот результат уже ближе к правде, но все еще завышен — потому что и внутри этих двух отрезков скорость менялась, а мы взяли только крайние значения.
Чтобы расчет стал действительно точным, нужно делить время на все более мелкие промежутки — секунды, доли секунд, тысячные доли. Тогда можно умножать скорость в каждый конкретный момент на то короткое время, в течение которого она действовала.
В идеале нужно было бы разбить движение на промежутки длиной ноль секунд, а потом сложить все получившиеся кусочки. Но такая операция потребует деления на ноль, что в обычной арифметике невозможно.
Вот тут и пригодился математический анализ, созданный Ньютоном и Лейбницем в XVII веке. Они нашли способ приблизиться к делению на ноль, не нарушая правил математики, как мы сказали выше.
Используя их метод, правильный ответ для формулы v = t² вычисляется как интеграл от t², который равен t³/3. Если подставить t = 4, получаем: 4³ / 3 = 64 / 3 = 21 и 1/3 метра.
Этот результат называют площадью под кривой — если построить график скорости, то эта «площадь» покажет пройденное расстояние. Так математический анализ позволяет находить точные значения там, где обычная арифметика бессильна, — ведь он умеет работать с величинами, бесконечно близкими к нулю.
Математический анализ (или исчисление) нужен не только для расчета расстояния, которое проехала машина. Его применяют почти во всех науках, где что-то меняется со временем: в физике, химии, экономике, биологии. Он помогает описывать движение, рост, спад, нагревание, охлаждение — любое изменение. И все это возможно только благодаря нулю и пониманию того, как с ним работать.
Но настоящий «подъем нуля на математический пьедестал» начался не в древности, а в конце XIX — начале XX века. В это время математика переживала кризис основ. Ученые стали замечать, что в самой логике их науки есть противоречия и пробелы. Чтобы исправить ситуацию, они решили заново определить все, что считали очевидным — даже то, что такое число.
И вот тут встал главный вопрос: что вообще такое число?
Слово вроде «три» — это просто звук. Знак 3 — это тоже лишь символ, придуманный людьми. А вот сама идея «тройственности» — когда мы говорим, что у нас три предмета, например яблоко, груша и банан, — требует объяснения на более глубоком уровне. Нужно было придумать, как описать числа в чистой абстрактной форме, без привязки к вещам.
Современная математика делает это с помощью множества — понятия, которое можно представить как «собрание объектов». Например, фрукты из примера можно записать как {яблоко, груша, банан}. Эти фигурные скобки означают, что все предметы внутри них образуют множество.
Теория множеств стала фундаментом всей математики. Ее можно сравнить с компьютерным кодом, на котором «запрограммированы» все математические конструкции. Любой объект в математике можно выразить через множества — так ученые добиваются логической строгости и устраняют противоречия, которые раньше создавали проблемы.
Чтобы определить числа, математики начинают с самого простого — с пустоты. Они берут пустое множество, в котором нет ничего.
Записывают его как {}, а чаще — как ∅. Это и есть нулевое множество, символизирующее ноль.
Дальше из него можно построить все остальные числа:
- Единица — это множество, которое содержит одно пустое множество: {∅}.
- Двойка — это множество, которое содержит два объекта: пустое множество и множество, в котором уже лежит пустое множество. То есть {∅, {∅}}.
- Тройка — это множество, включающее все предыдущие: {∅, {∅}, {∅, {∅}}}.
И так далее — можно продолжать бесконечно, добавляя все новые уровни. Таким образом, все числа вырастают из нуля. Если «заглянуть внутрь» любого числа, в самом его основании окажется пустое множество, то есть ноль.
Иными словами, ноль — не просто самое важное число. В определенном смысле, он — единственное число. Неплохое достижение для того, что когда-то считалось всего лишь скромным заполнителем пустого места. Его путь от простого разделителя разрядов у вавилонян до краеугольного камня всей математической вселенной демонстрирует, что даже величайшие открытия могут рождаться из, казалось бы, абсолютного ничто.
-----
Смотрите нас на youtube. Еще больше интересных постов на научные темы в нашем Telegram.
Заходите на наш сайт, там мы публикуем новости и лонгриды на научные темы. Следите за новостями из мира науки и технологий на странице издания в Google Новости