Ещё со школьной скамьи нам говорили, что на 0 делить нельзя. Но собственно кроме запрета никаких обоснований этому правилу не предъявлялось (возможно, только в шибкоумных математических классах, в которых я как и большинство простых пьюплов не обучался). Но любознательность никто не отменял, поэтому предлагаю все же разобраться, почему нельзя делить на ноль.
Известно, что операция деления — одно из четырёх простейших арифметических действий, обратное умножению. То есть 10*А=B можно преобразовать в В/10=A. Однако при умножении А числа на 0 мы всегда получаем ноль, а не число B, а чтобы получить число A, нужно B разделить на (представим что бесконечно маленькую величину 0.00000.....1) и получится у нас бесконечность вместо числа А. Подведём итог - деление любого числа на 0 дает бесконечно большую величину. А бесконечность как известно не является действительным числом, что рушит все законы алгебры. Поэтому и было принято правило что на ноль делить нельзя.
В общем же, математика одной арифметикой не ограничивается и в некоторых её областях делить на ноль разрешено.
Ссылка здесь
Комментариев нет:
Отправить комментарий