Думаю, что все мало-мальски грамотные инженеры, а тем более электронщики и автоматизаторы, знают о существовании стандартных аналоговых сигналов. Эти сигналы, как правило, могут быть токовыми или сигналами напряжения, и имеют строго определённые диапазоны. Если говорить о токовых сигналах, то здесь несколько диапазонов. Но самый известный и самый распространённый - это 4…20 мА. Но почему именно 4…20, а не 0…16 или 0…10, например? Что касается именно диапазона, то здесь точно не скажу. Но могу предположить, что когда-то они были подобраны экспериментально. Ну, например, если речь идёт о температуре, то если нам надо измерять её в диапазоне 0…100 градусов, то тогда одному градусу будет соответствовать 16 / 100 = 0,16 мА то есть для того, чтобы отследить изменение температуры на 1 градус, наш измеритель тока должен иметь чувствительность не менее 0,16 мА на градус. Это в общем-то вполне возможно. Стоимость таких приборов относительно невысока. А вот если бы диапазон выходного сигнала датч