У дома Бизнес Как тази масивна структура в пустинята орегон поддържа фейсбук да работи

Как тази масивна структура в пустинята орегон поддържа фейсбук да работи

Видео: Время и Стекло Так выпала Карта HD VKlipe Net (Ноември 2024)

Видео: Время и Стекло Так выпала Карта HD VKlipe Net (Ноември 2024)
Anonim

ПРИНЕВИЛ, руда. Има много начини да се уверите, че имате бърз интернет. Можете да се преместите в град на Google Fiber. Можете да изберете един от нашите най-бързи интернет доставчици. Или бихте могли да построите къщата си до Facebook център за данни.

Вземете например първия център за данни на Facebook. Отворена в Приневил, Орегон, през 2011 г., тя служи като модел за всеки център за данни, който гигантът на социалните медии е изграждал оттогава, от Швеция до Айова. Той консумира толкова широка честотна лента, че изисква множество доставчици на интернет услуги, обслужващи района, за да укрепят своите мрежи, привличайки местните жители по време на пътуването.

Може да мислите за центъра за данни Prineville, заедно с другите съоръжения на Facebook, за колективното сърце на най-голямата социална мрежа в света: те получават редица заявки за снимки, актуализации на състоянието и новинарски емисии, освежаващи от 1, 65 милиарда активни потребители на сайта и реагирайте възможно най-бързо, подобно на сърце, изпомпващо кислород в кръвта.

Съоръжението в Prineville наближава петата си годишнина и обработва заявки за данни за неща, за които Марк Зукърбърг вероятно не е имал представа, че Facebook ще прави, когато сънува идеята за компанията в стаята си в общежитието в Харвард.

Тази седмица PCMag спря за обиколка.

Prineville все още съхранява снимки и актуализации на състоянието, разбира се, но сега също има хиляди графични процесори на Nvidia, поддържащи изследванията за изкуствен интелект на Facebook, както и 2000 iOS и Android телефони, работещи 24 часа на ден. Това помага на инженерите на компанията да повишат енергийната ефективност на нейните приложения, които включват Facebook, Messenger и WhatsApp в допълнение към Facebook.

Данните във Facebook са „устойчиви, не са излишни“

Първото нещо, което забелязвате за съоръжението Prineville, е неговият размер. Издигайки се от дърветата на високата пустиня на централния Орегон, на три часа път от Портланд не е само една сграда, а четири (и това не включва друг огромен център за данни Apple, построен наскоро от другата страна на улицата, подходящо наречен Connect Way). Една от сградите на Facebook може да побере два Walmarts вътре и е приблизително 100 фута по-дълга от самолетоносач от клас Нимиц.

Вътре са сървъри, които държат няколко петабайта за съхранение и които инженерите на Facebook непрекъснато надграждат чрез подмяна на компоненти. От 165 души, които работят на пълен работен ден в центъра за данни, 30 на сграда са назначени само за обслужване или замяна на захранващи устройства, процесори, памет и други компоненти.

Отличителният белег на почти всяка компания, която оперира в Интернет, от Amazon до Charles Schwab, е съкращението: множество сървъри, съхраняващи множество копия на данни. Това е по-малко в Приневил, където Кен Пачет, директор на Facebook за западните операции с данни, е фокусиран върху устойчивостта - грубо дефинирана като способността да бъдете готови винаги и където и да е по света, някой влезе във Facebook.

Фокусирането върху „устойчивостта, а не съкращението“, както казва Пачет, е възможно, защото Facebook има лукса да съхранява множество копия на данни на други места по света - от Лулеа, Швеция, до Алтуна, Айова. Така че вместо да има две или повече от всичко, може да се съсредоточи върху стратегическите покупки на оборудване на всяко място, като например да има по един резервен генератор на всеки шест основни генератора.

"Трябва да бъдете фискално отговорни, ако щете да бъдете устойчиви", обясни Пачет. Той е един от основателите на високотехнологичните центрове за данни във високата пустиня на Орегон. Преди да пристигне във Facebook, той помогна за стартиране на център за данни в The Dalles, Ore., За Google, една от първите интернет компании, които се възползваха от евтината хидроелектрическа енергия и хладното и сухо време, които характеризират огромната източна част от деветата по големина в Америка състояние.

Разбираемата сила, разбира се, е от решаващо значение за работата на Facebook. Температурата на сървъра се регулира от комбинация от водна охлаждаща течност и огромни вентилатори, които се изтеглят в сух пустинен въздух (отдолу), вместо климатични блокове с мощност и пари. Диапазонът на целевата температура е между 60 и 82 градуса по Фаренхайт. Екипът на Patchett стана толкова добър в постигането на тази цел, че Prineville сега може да се похвали с коефициент на ефективност на мощността 1, 07, което означава, че охлаждащото оборудване, светлините и отоплителните уреди - всичко, което не е компютърно устройство - консумират само 7 процента от общото потребление на енергия в съоръжението.,

32 айфона в кутия

По-голямата част от охлаждането и мощността са насочени към задоволяване на нуждите на сървърите, но някои от тях са пренасочени към сравнително малка стая за тестване на приложения с последствия за намаляване на потреблението на енергия не само в Prineville, но и на всеки телефон с приложение на Facebook.

Не е тайна, че приложението Facebook се бори с управлението на захранването. Guardian твърди по-рано тази година, че приложението намалява живота на батерията на iPhone с 15 процента. За да оптимизира приложението и да намали консумацията му на батерията, компанията донесе приблизително 2 000 телефона с iOS и Android в Prineville, където те са инсталирани в кутии в групи от 32.

Всяка кутия има своя собствена Wi-Fi мрежа, подгъната с изолирани стени и медна лента, които инженерите обратно в централата в Силиконовата долина използват, за да доставят батерия от тестове. Те търсят „регресии“ в използването на батерията и производителността, причинени от актуализации на приложенията за Facebook, Instagram, Messenger и WhatsApp. Ако намерят такъв в собствения код на Facebook, го поправят. Ако неефективността е въведена от програмист, системата им автоматично уведомява нарушителя чрез имейл.

Кутиите не съдържат само най-новите iPhone 6s или Galaxy S7. От страна на iOS те включват много модели от iPhone 4s и по-нови. От страна на Android, кой знае? Достатъчно е да кажем, че има един човек, чиято работа е да намери неясни Android устройства и да ги доведе в Prineville.

„Трябва да си набавяме телефони отвсякъде“, заяви Антоан Реверсат, инженер, който помогна за разработването на тестовата инфраструктура и софтуер. Крайната му цел е да удвои капацитета на стелажите да побере до 62 телефона всеки и да измисли начин да намали ръчната процедура в 20 стъпки, необходима за конфигуриране на телефона за тестване до една стъпка. Това би трябвало да утеши всеки, който някога е умрял по телефона си, докато обновява емисиите си.

Big Sur: AI мозъкът на Facebook

Следващо в нашата обиколка бяха сървърите за изкуствен интелект Big Sur, които, подобно на бреговата линия на Калифорния, за която са кръстени, може би представляват най-живописната част от центъра за данни. Разбира се, не говорим за обширни тихоокеански гледки, а вместо компютърен екран, който показваше група картини, чийто екип е Ian Buck, вицепрезидент на Nvidia за ускорено изчисляване.

"Обучихме невронна мрежа за разпознаване на картини", обясни Бък. "След около половин час разглеждане на картините, той може да започне да генерира свои собствени."

Тези на дисплея наподобяваха френски импресионизъм от 19 век, но с обрат. Ако искате комбинация от плодов натюрморт и речен пейзаж, Big Sur ще го нарисува за вас, като огъва 40-те петафлопа от процесорна мощност на сървър. Това е една от няколко AI системи, които използват графични процесори Nvidia - в този случай процесори на Tesla M40, базирани на PCI.e - за решаване на сложни проблеми с машинно обучение. Проектът за здравеопазване DeepMind на Google също използва процесори на Nvidia.

Facebook използва Big Sur, за да чете истории, да идентифицира лица в снимки, да отговаря на въпроси за сцени, да играе игри и да научава съчетания, сред другите задачи. Той също е с отворен източник на софтуера, предлагайки на други разработчици план за това как да настроят собствена AI-специфична инфраструктура. Хардуерът включва осем графични процесора Tesla M40 с до 33 вата всеки. Всички компоненти са лесно достъпни в сървърно чекмедже, за да увеличат лекотата на ъпгрейдите, които със сигурност идват, тъй като Nvidia пуска нови PCI.e версии на своите Tesla графични процесори, включително флагманския P100.

Студено съхранение за забравени снимки

Тъй като Prineville е първият център за данни на Facebook, той обикновено е там, където инженерите тестват идеи, за да направят сървърите на Facebook по-ефективни. Една от най-новите идеи е хладилното съхранение или специализирани сървъри, които съхраняват всичко във Facebook, което не получава много изгледи - абитуриентските ви снимки в гимназията например или онези десетки актуализации на състоянието, които сте публикували, когато Майкъл Джексън умря през 2009 г., Тайната на успеха на студеното съхранение е многобройните му нива. Първото ниво е съставено от високоефективен корпоративен хардуер, докато по-ниските нива използват по-евтини компоненти, а в някои случаи - може би за онези ваши снимки с брекети, които се надявате, че никой никога не вижда - резервни библиотеки на лента. Крайният резултат е, че всеки багажник на сървъра за студено съхранение може да побере 2 петабайта за съхранение или еквивалентът на 4000 стека стотинки, които достигат чак до Луната.

Сграда за бъдещето

Въпреки че Facebook донесе по-бързи Интернет и други ползи за Prineville, включително над 1 милион долара дарения за местни училища и благотворителни организации, присъствието му не е без спор. Орегон се отказва от много пари за данъчни облекчения за компанията в момент, когато местната икономика, все още откъсната от балона на жилищата през 2008 г., следва националната средна стойност.

Все пак 1, 65 милиарда души не биха имали достъп до Facebook без този пустинен пост и неговите сестрински центрове за данни. И дори когато поставя завършващите щрихи на четвъртата си сграда в Приневил, компанията е в ход към завършването на пети център в Тексас. Но ако това ви накара да се почувствате виновни за енергията, която преглежда браузъра ви във Facebook, не би трябвало. Според Пачет, един потребител, който сърфира във Facebook за цяла година, изразходва по-малко енергия, отколкото е необходимо за направата на лате. С други думи, можете да се откажете само от едно пътуване до Starbucks и да превъртите през емисията си новини до съдържанието на сърцето ви.

Как тази масивна структура в пустинята орегон поддържа фейсбук да работи