Эту статью я задумал давно. Вернее я о таких проблемах рассказывал уже давно, но в устной форме, людям, кому это было интересно.
И вот решил записать свои рассуждения по этому поводу. Конечно речь пойдёт не о всех компьютерах, а только тех, которые используют электричество. А таких подавляющее большинство.
Я думая, что это первая статья из целой серии.
Конечно компьютеры появились давно. Я не буду сейчас передавать историю их появления - не в этом главная задача статьи.
Но где-то в 90-х годах с появлением персональных компьютеров, производство этих изделий, а значит и их совершенствование приобрело уже массовый характер.
Компьютерная техника появилась не на пустом месте, а с появлением полупроводниковых элементов (транзисторов), при помощи которых удалось организовать двоичную машинную логику.
Технологии менялись и совершенствовались. Вместо дискретных схем появились интегрированные.
По мере увеличения количества транзисторов в микросхеме, увеличивалась производительность компьютеров.
Даже появился некий Закон Мура, который за счёт эмпирического наблюдения утверждал, что количество транзисторов в интегральных схемах (кристаллах) удваивается каждые 24 месяца.
Или другое утверждение, что производительность процессоров удваивается каждые 18 месяцев.
Это связано не только с количеством транзистором в кристаллах, но и увеличением тактовых частот процессоров.
Запомним эти два фактора!
Но где-то к середине 2000 годов выяснились некоторые неприятные вещи.
Как оказалось, не получается всё время увеличивать тактовую частоту компьютера.
И как многие знают, что частота современных ПК остановилась с пределах 4 х 10^9 Гц (Гигагерцы).
Нет, конечно в промышленных компьютерах частота значительно больше, но и там предел частоты компьютеров достигнут.
Тогда производители компьютеров, чтобы увеличить производительность, стали пытаться произвести распараллеливание вычисления. На одном кристалле появляются несколько процессоров, работающие как один.
Но и тут возникли трудности. Компьютеры работают не сами по себе, а по определённой программе, в который заложен определённый алгоритм.
Во первых, не каждый алгоритм можно распараллелить.
А во вторых, оказалось, что согласно Закону Амдала существует предел распараллеливанию алгоритма.
В связи со сказанным, мы получаем ситуацию, что производители компьютеров достигли предела производительности процессоров.
И это легко объяснить.
Вся сегодняшняя компьютерная техника основана на электрических схемах, в основе которых лежит кристалл полупроводника.
Даже несмотря не то, что современные технологии далеко ушли и по размерам одного элемента и по материалам, всё-равно пока что в основе работы любого процессора лежит одно и тоже явление - p-n-p или n-p-n переходы.
А так как время любого процесса не может быть нулевым, это означает, что частота процессора всегда будет ограничена скоростью обновления состояния в указанных полупроводниковых переходах.
Если кому интересен процесс изготовления процессоров, то это здесь.
Кто прочитал статью, то наверно заметил и ещё одну проблему, в данном случае проблему уменьшения размере элемента в схема.
Это связано с тем, что любой процессор изготовляют посредством фотолитографии (в ссылке кратко всё рассказано). А раз для этого используется электромагнитное излучение, а в нашем случае излучение должно быть строго высоко когерентное (обладать единственной длинной волны - лазер), то размер элемента, который можно нанести посредством этой технологии ограничен законами оптики.
А именно, размер зависит от длинны волны используемого лазера.
"Законы оптики не позволяют разрешить два объекта, находящиеся на расстоянии меньше, чем половина длины волны. Происходит это из-за дифракции света."
Как видим, размер элемента ограничен половиной длинны волны лазера.
Но если уже сейчас используются лазеры с длинной волны далеко в ультрафиолетовом диапазоне, то это значит в этом случае тоже достигнут предел. Даже если смогут сделать высоко когерентные излучатели рентгеновского излучения, а тем более гамма-излучения, такое электромагнитное излучение на столько высоко энергично, что будет просто разрушать структуру кристалла.
Тем не менее, судя по сообщениям производителей, тот же Intel смог продвинуться в этой области.
"Intel в конце 2022 года заявила что после 3-нм и 1,4-нм техпроцессов будет разрабатывать 1 нм. Атом кремния имеет диаметр 0,24 нанометра, таким образом 1 нанометр соответствует 4 атомам кремния в поперечнике. Однако названия последних поколений техпроцессов являются маркетинговыми и не отражают геометрических размеров транзисторов (хотя и иллюстрируют прогресс увеличения плотности транзисторов в чипе)."
Тем не менее из этого сообщения мы уже видим предел размеров элемента. Не может быть элемент меньше размеров атома. Я не говорю про отсутствие здесь полупроводниковых переходов.
Но на самом деле этот предел уже давно давал о себе знать.
Если кто интересовался хоть немного из каких логических зон состоит процессор, то наверно помнит, что ядро процессора состоит из схем Арифметико-логического устройства (АЛУ) и Устройства управления (УУ).
Так вот, УУ в современных процессорах, особенно последнего поколения, содержит схемы перепроверки работы процессора, для исключения ошибок. А количество этих ошибок постоянно увеличивается и доходит до 30%.
И это связано с тем, что по мере уменьшения размеров элемента схемы (а если кто помнит, то компьютеры работают на электричестве), всё больше проявляются волновые свойства электрона.
Если в рамках эфиродинамической теории, то электронные оболочки разных атомов элемента настолько сливаются, что уже не понятно, прошёл сигнал или нет.
Таким образом мы натыкаемся на предел уменьшения размеров элемента процессора из-за электромагнитной природы передаваемого сигнала.
И ещё я забыл упомянуть одно ограничение, которое также связано с природой сигнала. Это ограничение скорости распространения электромагнитного сигнала.
Это означает, что какие бы элементы схемы ни были маленькие, но они всё-равно имеют размер. Даже если в последних моделях процессором размер элемента (-10^-9 м.) и помножить на частоту даже ПК (10^9 Гц), то получаем вполне приличную задержку только из-за скорости сигнала.
Таким образом, резюмируя сказанное, мы выявили следующие причины, по которых не возможно увеличивать производительность полупроводниковых процессоров.
- Не возможность полного распараллеливания алгоритмов вычислений.
- Ограничение распараллеливания алгоритмов вычислений по Закону Амдала.
- Ограничение скорости обновления состояния в полупроводниковых переходах (ограничение тактовой частоты).
- Оптические ограничения при фотолитографии на размер элемента схемы (половина длинны волны лазера).
- Ограничение электромагнитной природы сигнала (волновые свойства электронов - слияние электронных оболочек).
- Ограничение электромагнитной природы сигнала (скорость сигнала).
Понятно, что главным ограничением здесь является 5 пункт.
Тут я бы ещё добавил, что проблемы современных компьютеров ещё и в том, что вычисления производятся последовательно, как в силу пунктов 1 и 2, так и в силу пункта 5, что накладывает ограничения на возможность программирования.
Если кто читал статью "Искусственный интеллект (ИИ) - маркетинговая фикция.", в ней я упоминал, почему медленный человеческий мозг выигрывает во многом у современного компьютера.
Это как раз и связано с различием алгоритмов обработки сигналов.
Таким образом, разобрав ограничения современных компьютеров по производительности, можно выявить направления, в которых можно работать для изменения сложившейся ситуации.
P.S. Сейчас большие компании-производители компьютеров начинают разрабатывать так называемые квантовые компьютеры. Но это уже другая история.