Himik писал(а):
Чем меньше частота прерываний, тем меньше потребление электроэнергии - для ноутбуков это важно. 18,2Гц вполне достаточно. Удобнее использовать таймер CMOS или Local APIC, там частоты кратные 2 и 10, рассчитывать периоды получается удобнее и точнее. Я слышал, что в Линуксе частота таймера меняется динамически в зависимости от задач.
Не столько в частоте прерываний дело, сколько в частоте процессора. А именно, когда процессор страдает фигнёй и не сильно занят, то можно его частоту снижать, а то и в разной мере неглубокий сон отправлять. Меньше энергопотребление, а соотв. и нагрев. Это не только к ноутам относится
не везде электричество настолько дёшево, как в России, но и стационарникам, на кластерах так вообще заметно (не всегда загружен на 100%, а электричества жрёт огого, при этом совсем выключать узлы нельзя - сдохнут от частых включений/выключений, да и суспендить тоже не айс, долго поднимается). Так вот, даже если страдаем фигнёй и отправляем проц в неглубокий сон, таймер будет постоянно пробуждать его. Фигово. В общем, придумали dynticks (что забавно, хоть в винде это появилось только в 8й, но из-за кривых линуховых дров, не умеющих переключать режимы, обычно под линухом ноут греется сильнее и работает гораздо меньше от батареи, хотя очень сильно от драйверов зависит, бывают обратные примеры), потом ещё и примерно со второй попытки сделали более-менее нормально (вплоть до работы большую часть времени в tickless режиме, при этом при необходимости пользуясь one-shot таймерами).
А про экран часто слышал, но уж больно часто на своём реальном железе вижу как в разы может меняться время жизни от зарядки, при том что экран светит 100% времени, например. Хотя от экрана тоже есть немалая зависимость: во-первых, уменьшение яркости подсветки немного позволяет протянуть дольше, во-вторых, есть некоторая косвенная зависимость: для большего по разрешению экрана нужно больше вычислительных мощностей. Вот этот фактор (хотя нечасто удаётся сравнить два примерно одинаковых девайса, отличающихся почти только экраном) позволяет говорить про зависимость от экрана. Собственно, утверждения что экран жрёт больше всего тогда примерно и получили распространение, когда пошли устройства с огромным (по моим меркам, не признающим "мыло" - размытую графику) разрешением.