Mail.ruПочтаМой МирОдноклассникиВКонтактеИгрыЗнакомстваНовостиКалендарьОблакоЗаметкиВсе проекты

Почему с увеличением частоты, уменьшается расстояние в беспроводных сетях? Объясните пожалуйста понятным языком

Роман Абромович Знаток (430), закрыт 7 лет назад
Лучший ответ
Картофельный папа Искусственный Интеллект (447687) 7 лет назад
Ничуть не уменьшается, хоть в космос (спутники, 12 ГГц и выше) Просто, чем выше частота, тем острее требование прямой видимости между антеннами приемника и передатчика, что в реальной обстановке не всегда возможно обеспечить.
Остальные ответы
Екезек Езек Гуру (4812) 7 лет назад
если понятным, то чтоб раскачать волну, нужна энергия
чем короче волны, тем их больше и, соответственно, на их раскачку нужно больше энергии
можно сделать и "дальнобойную" коротковолновую связь, затрачивая больше энергии, но беспроводные сети сети потребляют энергию в рамках стандарта - не больше
Сергей Кольченко Искусственный Интеллект (202551) 7 лет назад
В вопросе должно быт ряд условий, без которых даный вопрос пустой. Если учесть одинаковую мощность генератора ЭМ колебаний, то да, амплитуда колебаний уменьшается с ростом частоты, от этого и уменьшается расстояние покрытия. Но суть вопроса не раскрыта.
Роман АбромовичЗнаток (430) 7 лет назад
Например в Wi-Fi. Точка доступа работает в двух частотных диапазонах 2,4 и 5 ГГц. На частоте 2,4 ГГц дальность связи в свободном пространстве 500 метров, а на частоте 5 ГГц 200 метров. Чем это обусловлено?
Сергей Кольченко Искусственный Интеллект (202551) Тем, чем я написал. С ростом частоты при неизменной мощности источника колебаний, амплитуда сигнала падает. Тому пример даже механический маятник.
Вольный ветер Искусственный Интеллект (337099) 7 лет назад
Не всегда, а где то и наоборот, зависимость прохождения радиоволн, от их длины, есть в таблицах и справочниках, это надо изучать....
Похожие вопросы