Вопрос: Вы пропускаете стойку между серверами?


Похоже, что есть много разногласий в менталитетах, когда дело доходит до установки серверов стойки. Были темы, обсуждающие кабельные рукава и другие аксессуары для стоек, но мне любопытно:

Вы оставляете пустую стойку между серверами при их установке? Почему или почему нет? У вас есть эмпирические данные, подтверждающие ваши идеи? Кто-нибудь знает об исследовании, которое убедительно доказывает, лучше или нет?


67
2018-06-18 00:09


Источник




Ответы:


Если ваши серверы используют обратное охлаждение на передней панели, как это делают большинство серверов, монтируемых в стойке, остающиеся пробелы могут повредить охлаждение. Вы не хотите, чтобы холодный воздух имел какой-либо способ добраться до горячего прохода, кроме как через сам сервер. Если вам нужно оставить пробелы (для проблем с питанием, проблемы с весом пола и т. Д.), Вы должны использовать заглушки, чтобы воздух не проходил между серверами.


81
2018-06-18 01:17



Да, если вы оставите пробел, вам нужно заполнить его панелью, чтобы предотвратить это. - Thomas
= 1. серверы и стойки для монтажа в стойку предназначены для подачи воздуха со всеми панелями и рамками и заполнены все. как воздушный поток в ПК, предназначен для покрытия всех покрытий. обойти дизайн, оставляя пробелы и \ или удаляя панели и крышки, скорее всего, принесут больше вреда, чем пользы. - joeqwerty


Я никогда не пропускал стойки между стойками в шкафу. Если производитель поручил мне пропустить U между устройствами, я бы это сделал, но я никогда не видел такой рекомендации.

Я ожидал бы, что любое устройство, предназначенное для монтажа в стойку, будет выделять тепло через переднюю или заднюю панели. Некоторая теплота будет проходить через рельсы, верх и низ шасси, но я ожидаю, что это будет очень мало по сравнению с излучением спереди и сзади.


23
2018-06-18 00:17



Фактически, если вы пропускаете стойки, вам нужно использовать крышки между каждым сервером, иначе вы получите воздушное смешивание между проходами с высоким и холодным. - Doug Luxem


В нашем центре обработки данных мы не оставляем пробелов. У нас есть прохладный воздух, поднимающийся с пола, и пробелы вызывают проблемы с воздушным потоком. Если у нас есть пробел по какой-то причине, мы покрываем его пустой пластиной. Добавление пустых тарелок сразу приводило к тому, что вершины наших холодных проходов стали холоднее, а наши горячие проходы более горячие.

Я не думаю, что у меня есть данные или графики, но разница была очень ясна, как только мы начали делать изменения. Серверы на вершинах стеллажей перестали перегреваться. Мы прекратили готовить источники питания (что мы делали со скоростью около 1 / недели). Я знаю, что изменения были начаты после того, как наш менеджер центра обработки данных вернулся с выставки Sun green center, где он сидел на некоторых семинарах по охлаждению и тому подобному. До этого мы использовали промежутки и частично заполненные стойки и перфорированные плитки в полу спереди и сзади стойки.

Даже с помощью оружия управления устранение пробелов улучшилось. Все внутренние температуры нашего сервера во всем помещении в настоящее время вполне соответствуют спецификации. Это было не так, прежде чем мы стандартизировали наше управление кабелями и устранили пробелы, а также исправили размещение напольной плитки. Мы хотели бы сделать больше, чтобы направить горячий воздух обратно на блоки CRAC, но мы пока не можем получить финансирование.


20
2018-06-18 02:46





Я не пропускаю Нас. Мы арендуем, а мы стоим денег.

В наши дни нет причин для жары. Весь холодный воздух поступает спереди и сзади. В верхней части нет вентиляционных отверстий.


9
2018-06-18 01:30



Re: «Мы стоим денег». Я считаю, что пространство является важным фактором в ценообразовании центров обработки данных. Затем я получил работу в хостинговом секторе, большинство из них в окружении Colo - от силовых цепей и кросс-подключений. - JamesBarnett


Google не оставляет U между серверами, и я думаю, что они обеспокоены управлением теплом. Всегда интересно посмотреть, как работают большие игроки. Вот видео одного из их центров обработки данных: http://www.youtube.com/watch?v=zRwPSFpLX8I&feature=player_embedded

Перейдите прямо к 4:21, чтобы увидеть их серверы.


6
2018-06-18 10:54





Не оставляйте место, если у вас холодный воздух, поступающий с пола, а также используйте пробелы в неиспользуемом u пространстве. Если у вас есть только низкотехнологичная система охлаждения, использующая стандартный блок a / c, лучше всего оставить пробелы, чтобы свести к минимуму горячие точки, когда у вас есть горячие серверы, сложенные вместе.


5
2018-06-18 02:28



Если ваши серверы используют охлаждение вентилятора «спереди-назад», это не так уж и плохо, чтобы оставить пробелы, это повредит воздушный поток. - pauska


У нас есть 3 1/2 стойки стоимостью узлов кластера и их хранение в объекте colocation. Единственные места, где мы пропустили U, - это то, где нам нужно прокладывать сетевые кабели в центральную стойку, где расположен коммутатор основного кластера. Мы можем позволить себе сделать это пространственно разумным, так как стойки уже превышены с точки зрения мощности, поэтому было бы невозможно втиснуть в них больше узлов :)

Эти машины работают 24/7 на 100% процессоре, а некоторые из них имеют до 16 ядер в поле 1U (4x четырехъядерные процессоры Xeon), и я пока не вижу никаких негативных последствий не оставляя пробелов между большинством из них.

Пока ваше оборудование имеет хорошо продуманный воздушный путь, я не понимаю, почему это имеет значение.


5
2018-06-18 01:34





У меня большие пробелы выше моего ИБП (для установки второй батареи в будущем) и над моей ленточной библиотекой (если мне нужен другой). Кроме этого у меня нет пробелов, и я использую панели для заполнения пустых пространств, чтобы сохранить поток воздуха.


5
2018-06-18 10:36





Каждая треть, но это связано с оружие управления и необходимость обойти их, а не нагревать. Тот факт, что эти серверы имеют 6 Кабели Cat5, идущие к ним, не помогают. Мы используем опалубочные панели и воздушные пломбы сверху стеллажей, чтобы предотвратить рециркуляцию от горячего прохода.

Кроме того, одно наше отсутствие в нашем центре обработки данных - это пространство. Он был разработан для расширения, когда серверы 7-10U были стандартными. Теперь, когда мы пошли с кластерами ESX с плотной плотностью, это город-призрак.


3
2018-06-18 00:26



ОК, 6 кабелей, давайте посмотрим ... 2 интерфейса управления, 2 интерфейса iscsi и 2 .... выделенные для менеджера кластера? - Matt Simmons
Не используйте рычаги управления, и вам не нужно пропускать устройства. :) - Doug Luxem
6 кабелей: 1x HP iLO-карта, 1x ESX mgmt LUN, 4x VM Luns. Кроме того, волокна для SAN. Мы еще не пошли iSCSI. Если бы мы были готовы полностью раздеть серверы, прежде чем вытащить их, мы бы определенно пошли без оружия. - sysadmin1138♦
Увидев ваш центр обработки данных, я должен задаться вопросом, не установите ли вы обычную установку прохода холодного прохода в горячем коридоре, а не разбросаны вокруг вашей гигантской комнаты, если вы получите лучшую тепловую характеристику. - Laura Thomas