Stand alone posts

  • 🏷️ #horses
    Из прошлогоднего. Брусья 125. Мой тренер считает, что лыжи опаснее конкура. Так что перед лыжным отпуском аргументы "а может не надо" не работают.

  • С высокой вероятностью этот новый год станет лишь продолжением старого заката, который наше поколение наблюдает всю свою сознательную жизнь. Вот уже много лет подряд с каждым новым годом мрак сгущается, и остается все меньше шансов дождаться рассвета. Но именно готовя себя к новому дню вопреки всем прогнозам и вероятностям, человек становится и остается Человеком. Желаю вам, друзья, встречать ночь этого дня и ночь этой эпохи в хорошей компании людей.

  • 🏷️ #boats

  • 🏷️ #ilyadrv

  • Джетлаг ))

  • 🏷️ #horses
    По-честному проехал. Разминка чухонец-брусья и затем полный маршрут.
    Теперь можно в отпуск с чистой совестью.

  • Пятничные развлечения. Lorawan. Грубо говоря GSM 900 без регистрации. 100ma 5 v оно держит сеть в радиусе 5км.
    Сенсоры: атмосфера, вольтметр и гироскоп.

  • 🏷️ #horses
    142 - мой новый личный рекорд. На фото можно видеть грязюку, а можно S*. По нашей официальной классификации S* - это первый этап наивысшего уровня.

  • 🏷️ #boats
    О как красиво, если час просидеть под дождём

  • Побывал в нашем дата центре. Не то чтобы это сложно, но это некое место силы, где люди работают с большой буквы Р. И приходить сюда ради праздного любопытства как-то неудобно. Тем более в команде всего около 8 человек и отвлекать коллег лишний раз не хочется.

    Наш дата центр вполне себе сравним с коммерческими аналогами. И подобная структура - неотъемлемая часть любого современного НИИ. В целом в мире объемы научных и коммерческих дата центров сопоставимы. Ученые в основном не полагаются на коммерческие облачные сервисы. Та как построить свой дата центр дешевле, чем зависеть от жадных корпораций.

    Работа в дата центрах - это новые вызовы каждый день. Пользователь копирует файлы и отправляет мейлы в два клика. И это действительно что-то очень простое. Но как известно, количество переходит в качество. Управление тера- и петабайтами информации или гигабайтами сетевого трафика - задача совершенно иной сложности со всеми возможными нетривиальными спецэффектами.

    В нашем дата центре...
    Побывал в нашем дата центре. Не то чтобы это сложно, но это некое место силы, где люди работают с большой буквы Р. И приходить сюда ради праздного любопытства как-то неудобно. Тем более в команде всего около 8 человек и отвлекать коллег лишний раз не хочется.

    Наш дата центр вполне себе сравним с коммерческими аналогами. И подобная структура - неотъемлемая часть любого современного НИИ. В целом в мире объемы научных и коммерческих дата центров сопоставимы. Ученые в основном не полагаются на коммерческие облачные сервисы. Та как построить свой дата центр дешевле, чем зависеть от жадных корпораций.

    Работа в дата центрах - это новые вызовы каждый день. Пользователь копирует файлы и отправляет мейлы в два клика. И это действительно что-то очень простое. Но как известно, количество переходит в качество. Управление тера- и петабайтами информации или гигабайтами сетевого трафика - задача совершенно иной сложности со всеми возможными нетривиальными спецэффектами.

    В нашем дата центре в среднем в день ломается не менее одного диска. Конечно же никто не теряет свою информацию из-за таких пустяков и даже не замечает проблемы.

    Одна из систем резервного копирования использует магнитную пленку - кассеты, напоминающие VHS из нашей молодости. Это очень сложная система, так как она знает, на какой именно кассете была сохранена резервная копия вашего файла. Если требуется его восстановить, то специальный робот автоматически находит кассету среди тысяч, приносит ее к ридеру и считывает информацию.

    Но чисто IT проблемы - далеко не единственные. Електричество, соединения и охлаждение - вот бич всех дата центров. Потребности нашего измеряются мегаваттами в день. Но это без учета охлаждения, так как в DESY существует центральная крио система для потребностей ускорителей частиц, лабораторий и прочего. Соединение мегаваттов электричесвта и тонн воды… сами понимаете. Вода в серверные шкафы подается снизу, а провода - сверху. Весь пол тут - это съемные панели, под которыми проходит “сантехника”.

    Отдельно сверхзадача - cabling. Когда надо заменить медь или волокно в пачке из сотни других патчкордов… Мне даже страшно об этом думать.

    А еще нам же нужны источники бесперебойного питания. Ну это “просто”. 528 аккумуляторов общим весом 6 тонн смогут выдать 3kW, чего нам хватит на 10 минут. Так что мы в безопасности :)

    Бывают проблемы совершено “конструктивные”. Например, на определенном этапе возник риск, то здание не выдержит расширения датацентра - вес нового оборудования не шуточный. Пришлось укреплять, ставить дополнительные опоры в подвале и так далее.

    Вот примерно так выглядит “железный” бэкграунд всего того, что мы называем одним коротким словом интернет.