Мне сложно дается устный счет, и в этом смысле я — ноль. (хотя это и не совсем так ))) Но хочется заострить внимание на самом выражении. В нашем языке ноль часто несет негативный оттенок. Однако это уникальное число: единственное действительное, не принадлежащее ни к положительным, ни к отрицательным. Оно абсолютно нейтрально.
Откуда же взялась негативная коннотация? Человечество испытывало к нулю сложные чувства на протяжении веков, вплоть до его запрета в определенных регионах и эпохах. Идеологические разногласия и неприятие чужого сдерживали развитие этой фундаментальной концепции. Ирония в том, что сегодня вся математическая наука покоится именно на этом числе.
Определить "ничто", "нуль" или "0" — задача нетривиальная. Нейробиологи даже исследовали, каким образом наш мозг воспринимает отсутствие. Поэтому неудивительно, что в разных культурах к нулю относились по-разному.
Поразительно другое: как долго люди обходились без него. Числа сопровождают человечество с древнейших времен, фигурируя в самых ранних документах. Они незаменимы для торговли, землемерия, записи рецептов — скажем, пивоваренных. Ноль же — явление особое; для всех этих базовых операций он строго не требовался.
Потребовались тысячелетия, чтобы ноль обрел статус полноценного числа. Его признанию упорно сопротивлялись. Но сегодня мы понимаем: без нуля все остальные числа и вся современная математика утратили бы свой смысл.
История отсутствия отсутствия
Вероятно, ноль "изобретали" не единожды, и функции его разнились. Например, вавилоняне примерно 5000 лет назад имели понятие, схожее с нулем, но не как самостоятельного числа, а как позиционного символа. Их система, основанная на 60 (а не на 10, как наша), была позиционной: значение цифры зависело от ее места. Чтобы отличить, условно, 105 от 15, требовался маркер отсутствия разряда. Вавилоняне обычно оставляли пробел — одну из древнейших форм, напоминающих ноль.
Примечательно, что многие древние цивилизации прекрасно существовали без нуля. Древние греки совершали сложные математические открытия (теорема Пифагора, логика Аристотеля) без формального понятия нуля. Абстракция небытия им была знакома, но как философско-логическая категория, а не математический объект. Ноль действительно парадоксален: например, деление на него невозможно. Это свойство отталкивало греков.
Точное происхождение современного нуля дискуссионно, но известно, что в VII веке н.э. индийский ученый Брахмагупта впервые определил ноль как полноценное число, одновременно введя и отрицательные числа.
До этого математика часто оперировала геометрическими образами (например, задача о соединении двух полей в квадрат). В таких контекстах отрицательные величины и ноль были не нужны.
Однако Брахмагупта интересовался абстрактными задачами. Для работы с новыми числами ему потребовалось установить строгие правила. В труде "Брахмаспхутасиддханта" он постулировал:
- Положительное + Положительное = Положительное
- Отрицательное + Отрицательное = Отрицательное
- Положительное + Отрицательное = Их разность (равенство дает ноль)
- Отрицательное + Ноль = Отрицательное
- Положительное + Ноль = Положительное
- Ноль + Ноль = Ноль
Аналогично он описал умножение и деление. Правила, сформулированные им около 1400 лет назад, почти идентичны современным школьным — за одним исключением: он считал, что ноль, деленный на ноль, равен нулю, что ныне признано неверным.
Триумфальное шествие нуля
Правила Брахмагупты и индийская десятичная система быстро распространились. Арабские ученые адаптировали их, создав систему, лежащую в основе наших цифр. От арабов ноль и цифры попали в Европу — в самый разгар Крестовых походов (XI-XIII вв.), когда все арабское и исламское подвергалось резкому неприятию.
Историческая ирония: во Флоренции в 1299 году ноль был официально запрещен. Город был экономическим центром, куда стекались купцы. Самым уважаемым делом было банковское. В условиях развитой банковской системы и торговли ноль создавал проблему: добавление нуля на бумаге легко превращало 10 в 100 или 1000. Манипуляции с римскими цифрами, которыми тогда пользовались, были невозможны. Власти предпочли вернуться к "проверенным" римским цифрам.
Но вычисления с римскими цифрами крайне непрактичны. Поэтому постепенно, в течение более ста лет, арабские цифры, включая ноль, взяли верх. К XV веку они получили всеобщее признание.