Самое горячее: Европа признала соцсети опасными (50); "Фобос-Грунт" уже не спасти (11); Мобильники убивают детей (26); ЕЩЕ >>
РАЗДЕЛЫ
Архив
« июнь 2020  
пн вт ср чт пт сб вс
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30          
22.06.2006 23:09 | пишет ThisNight | ссылка

Блин - ну вы даете!
Хостился у РТ комм на М10. Ни одной подобной аварии не было. Пол года, как перевели меня в Стек на Большую Академическую. Ничего подобного не было!

На точках доступа бываю крайне редко (только инсталяции оборудования и переезд вот был). Но сколько раз не был, так постояянно замерзал в серверной! Сервера мониторю постоянно - ни разу небыло сбоев по вине перегрева серверных комнат или сбоя по питианию!

Я все же очень въедливый клиент. И люблю ругать провайдеров, т.к. все же не во всем они предоставляют сервис нормального уровня.

Но все, что написано в этой статье про сбои в РТ ком и Стек - это полная ложь.

22.06.2006 23:18 | пишет St. Yorgen | ссылка

Я не вижу ни слова про сбои РТком и Стек.

22.06.2006 23:48 | пишет ... | ссылка

Странно. Вебпланета спонсируется мастерхостом, как видно, а материалы публикуются такие, что как будто заказ конкурентов. Другие лежат и побольше чем пара часов, но почему-то об этом вебпланета не пишет. Эти действия направлены на то, чтобы мастерхост больше платил за лояльность/рекламу?

23.06.2006 00:02 | пишет St. Yorgen | ссылка

Очередная джинса на Вебпланете...

23.06.2006 00:33 | пишет Д. Комиссаров | ссылка

Касательно ситуации в датацентре на ул. Восточной. Проблема судя по всему была вызвана существенным повышением температуры воздуха, вынудившему выключать сервера в стойках с высокой плотностью размещения серверного оборудования - 25-35 серверов в одной стойке, так называемая "пицца". Возникшая проблема является системной для московского рынка хостинга и касается не только датацентра на Восточной но и датацентров компании СтекСофт на Большой Академической и Варшавской, площадки М10 РТКомм, площадки Мастерхост на Архангельском, площадок на 8 марта, датацентра Голден Телеком. Если быть максимально точным проблема состоит из двух частей:

1) Существующие датацентры строились без учета мирового опыта в части резервирования инженерных систем. Для простоты речь идет о том что например если в датацентре в пиковом режиме необходимо отводить 300 КВт преобразующих в тепло, то необходимо использовать схему N+1 например установить 3 кондиционера на 100КВт + еще один. Это необходимо с одной стороны для того чтобы в пиковых ситуациях обеспечить бесперебойную работы несмотря на неполадки одного из устройств (которое чаще всего выходит из строя во время максимальной нагрузки). Также для инженерных систем необходимо проводить регламентные работы требующие остановки - в результате если в датацентре нет резерва работы не проводятся, что опять же ускоряет выход из строя оборудования.

2) Проекты датацентров рассчитаны на электропотребление стоек не более 2.5 КВт. Причем здесь вопрос не в наличии соответствующего количества электрооборудования, а в отводе тепла. Все датацентры построены по модели подвода холодного воздуха к передним панелям серверов. Для того чтобы охлаждать сервера в плотно заполненной стойке необходимо определенное количество воздуха, а также отвод теплого воздуха выходящего вверх. Если упростить проблему - чтобы отвести 4-5 КВт тепла от стойки (25-30 серверов) нужен фальшпол высотой 120 см и моделирование потоков воздуха. Но ни в одном из публичных датацентров эти условия не выполняются. Из датацентров площадка DATAFORT на 8 марта рассчитана на 3.5 КВт и судя по описаниям площадка М1 компании СтэкСофт расчитана на 3 КВт.

В результате лето этого года будет особенно богато на остановки сервисов в связи с проблемами на основных площадках Москвы. Это связано с высокой заполненностью всех датацентров оборудованием и отсутствием резерва площади, чтобы рассредоточить сервера. В относительно хорошем состоянии будут лишь площадки обслуживающие корпоративных клиентов.

23.06.2006 07:28 | пишет Гость | ссылка

хм, 5 серверов на Восточной, ни один не лежал. Узнал о проблемах только из этой новости :)

23.06.2006 08:39 | пишет Phil Kulin | ссылка

> Но все, что написано в этой статье про сбои в РТ ком и Стек - это полная ложь.

Нет. В Стеке это известная проблема. Вы просто стоите скорее всего удачно, или вам мониторинг врёт.

Вот про M10 они маханули. Там фальшпол на метр вниз, вертикальные потоки воздуха, в жару инеем можно покрыться.

23.06.2006 10:29 | пишет re | ссылка

Кто видел стойки Мастерхоста, знает, что это всем пиццам пицца. А нормальные стойки и в этот раз на Восточной, и в большинстве остальных аварий выживали.

23.06.2006 10:30 | пишет ThisNight | ссылка

2 Phil Kulin.

Насчет удачно стою - не знаю, вроде почти в центре зала. Впрочем там везде почти центр зала.

Мониторинг не врет - он мой. Тем более, что под виндами перезагрузку компа не заметить невозможно.

Причем один сервер вообще доходяга - ему уже лет 5, собирался на коленке. И все работает...

23.06.2006 10:54 | пишет RRR | ссылка

Да нормальная статья. Возможно не стоило так уверенно писать о том, что проблемы обязательно будут - все-таки они носят вероятностный характер. Но отсутствие достаточного резервирования всегда привносит свои риски.

Только ведь я замечу, что надежно работающие датацентры почти и не нужны, если, скажем, вся Москва стоит обесточенной. А риски от кривых рук обслуживающего персонала на порядок выше и простои из-за этого бывают не в пример чаще.

23.06.2006 11:52 | пишет Phil Kulin | ссылка

2ThisNight:

> Насчет удачно стою - не знаю, вроде почти в центре зала.

Может мы на разных планетах живём? :) Да там вживую-то хреновато иногда :)

23.06.2006 11:52 | пишет uni | ссылка

RRR, не забывайте, что есть кластера, которые запускаются сутками из-за размеров и в Москве в том числе.

23.06.2006 12:51 | пишет geraxe | ссылка

Я знаю что 21 в час дня было выключение одного автомата на рамблеровкой площадке. У меня 2 сервера зацепило (другие не попали)
Но очень кратковременное. Как раз перезагрузиться =)

Вообще конечно уже перебор.. раньше аптайм годичный был.. а ща вот на тебе.. жара... =)

ЗЫ Контент за этот день как - то отличается от предыдущего =) Курепин продолбил наконец стену и махнул рюмку йаду, стоящую за ней?

23.06.2006 12:55 | пишет Админ | ссылка

Мастерхост делает хорошую мину при плохой игре. Пытается сказать, что проблемы с его датацентром это общие проблемы всех датацентров.

Все работают нормально, падений нет, а

Мастерхост рассказывает, что у всех все так же плохо как у них. Ложь. Плохо только в их датацентре.

23.06.2006 13:10 | пишет shura | ссылка

А вот тут - факты.
Сервак на мастерхосте стоит, мониторю с работы smokeping-м.
http://www.drupal.itpb.ru/node/43
Отключение было максимум на 35 минут!

23.06.2006 14:51 | пишет ... | ссылка

uni, если кластер грамотный, то его можно спокойно распределить территориально. Оптику даже если не свою тянуть, то каналы между дата-центрами арендовать запросто ;) Или жил в кабеле не хватает?

23.06.2006 15:22 | пишет Д. Комиссаров | ссылка

Насколько я помню расчетная мощность на М10 была то ли 1.5 то ли 1.8 КВт. Другое дело что на М10 сейчас видимо нет хостинг провайдеров и пиццы - в этом случае с отводом все будет в порядке.

23.06.2006 15:31 | пишет Д. Комиссаров | ссылка

Перед клиентом всегда отвечает сервис провайдер - то есть МХ. Что касается датацентров - мой комментарий ровно о том что НИ ОДИН из публичных датацентров не спроектирован с учетом возможности размещения "пиццы" хостинг провайдеров. В тех ДЦ в которых по тем или иным причинам разрешают забить стойки под завязку будут проблемы. Зачем это делает МХ - понятно - экономит деньги, знают ли хостеры что летом будут перегревы - конечно знают. А дальше вопрос из области философии "зачем напрягаться пока есть спрос и на такие услуги".

23.06.2006 15:53 | пишет иван | ссылка

Уходить пора с Мастерхоста. Нестабильные они какие-то.

23.06.2006 16:37 | пишет Юзер | ссылка

Мастерхост уже не тот, как Валуехост стал :)

23.06.2006 18:04 | пишет ... | ссылка

Д. Комиссаров, если ты такой умный - построй дата центр ;) В нормальных дата-центрах стойки забивают под завязку. При этом стойки делают нестандартных размеров - куда даже больше серверов влазит.

23.06.2006 19:05 | пишет Юзер | ссылка

Комиссаров ваобще ничего построить неможет!
Он только рассуждать с умным видом умеет )))есть такой тип людей "критики" , обсуждают с надутыми щеками то ,что сами построить неспособны.

23.06.2006 21:02 | пишет Цезарь с курицей | ссылка

Дима умеет успешно только инвесторские деньги осваивать, развалив Дата-форт, будучи его директором, родил мертвого ребенка - 2mobile.

23.06.2006 23:07 | пишет Евгений | ссылка

Наш сервер лежал 8 часов в это время. Если кто-то считает, что чтобы решить проблему, надо иметь не 3 кондиционера, а ВСЕГО 4 - то он по меньшей мере недоумок. В таких условиях их надо иметь как МИНИМУМ 6 штук, то есть 100% резерв, который можно включить НЕМЕДЛЕННО при выходе из строя всех работающих кондиционеров. Мало того, по хорошему надо иметь еще 2-3 кондиционера в так называемом "холодном" резерве, то есть, чтобы можно было в случае экстренной необходимости грубо ручками заменить вышедший из строя на рабочий. Пусть на это уйдет час-два, но не сутки! Нельзя работать так бездумно и экономить на подобных мелочах в погоне за прибылью.

23.06.2006 01:06 | пишет Roman | ссылка

В штатах основные хостинги в калифорнии. там еще жарче. летом расходы у хостингов возрастают надо больше плтить за охлаждение, может ввести плавающий тариф как у комунальных служб :), впрочем конкуренция не позволит.

25.06.2006 01:47 | пишет HitMan | ссылка

Не читал статью, честно.
Прочитал просто комментарии.
А что вы от россии хотите?
Перепробовали много хостинговых компаний, в россии лучше не знаю.
Это не реклама.

25.06.2006 22:40 | пишет Юрка | ссылка

Мастер сгорит в аду!
все жарче и жарче
а Рамблер дровишек в топку подкинет
отличный тандем

26.06.2006 00:42 | пишет Stranger | ссылка

А то что в субботу то же самое было, это как?
пару часов все лежало, причина та же самая.

26.06.2006 11:17 | пишет бу | ссылка

Надо быть идиотом выбирая русский хостинг, вот я выбрал канадский и все как часы пашет, тем более и расходов на кондиционирование там поменьше ;)

26.06.2006 13:34 | пишет Лис | ссылка

бу, а на Шпицбергене можно вообще без кондишенов :-)

26.06.2006 13:53 | пишет Phil Kulin | ссылка

2 Д. Комиссаров:
А при чём тут M10? Стек Стеком, а M10 - М10

26.06.2006 16:41 | пишет Terr | ссылка

http://community.livejournal.com/ru_hosting/161222.html

Здесь правильно написали, что каждый получает то качество за что платит.

А требовать супернадежность любой будет, только никто не хочет платить за это 50 баксов, а не 5. Я держу сервак в ракспейсе, а не в мастерхосте и все юзеры всегда довольные.

26.06.2006 22:02 | пишет Д. Комиссаров | ссылка

С точки зрения технической кондиционирование на М10 не более зарезервировано чем на Восточной. Если сейчас ситуация с отводом тепла нормальная - за счет вывода хостеров в Стек на Б. Академической. Молодцы решили проблему организационно. Если еще дизель установят - практически респект.

08.07.2006 20:12 | пишет Invisible Hand | ссылка

Не надо путать два бизнеса colocation: розничный для массового клиента на 1-2U и штучный для крупных, платежеспособных проектов. Первый обеспечивается хостерами, арендующими площади у операторов ДЦ. Вторым, как правило, занимаются непосредственно операторы ДЦ. Наличие промежуточного звена (очевидно необходимого для орг-ции дополнительных сервисов) влияет на доступность услуг не меньше, чем системные ошибки операторов ДЦ, допущенные при строительстве.

Последние комментарии
об издании | тур по сайту | подписки и RSS | вопросы и ответы | размещение рекламы | наши контакты | алфавитный указатель

Copyright © 2001-2020 «Вебпланета». При перепечатке ссылка на «Вебпланету» обязательна.

хостинг от .masterhost