Инфоурок / Информатика / Конспекты / "Лекция 1. Тенденции развития современных инфраструктурных решений" по дисциплине "Облачные технологии"
Обращаем Ваше внимание: Министерство образования и науки рекомендует в 2017/2018 учебном году включать в программы воспитания и социализации образовательные события, приуроченные к году экологии (2017 год объявлен годом экологии и особо охраняемых природных территорий в Российской Федерации).

Учителям 1-11 классов и воспитателям дошкольных ОУ вместе с ребятами рекомендуем принять участие в международном конкурсе «Законы экологии», приуроченном к году экологии. Участники конкурса проверят свои знания правил поведения на природе, узнают интересные факты о животных и растениях, занесённых в Красную книгу России. Все ученики будут награждены красочными наградными материалами, а учителя получат бесплатные свидетельства о подготовке участников и призёров международного конкурса.

ПРИЁМ ЗАЯВОК ТОЛЬКО ДО 21 ОКТЯБРЯ!

Конкурс "Законы экологии"

"Лекция 1. Тенденции развития современных инфраструктурных решений" по дисциплине "Облачные технологии"

библиотека
материалов

Лекция 1. Тенденции развития современных инфраструктурных решений



Введение



«Уже сейчас 70% сотрудников Microsoft создают решения, связанные с облачными вычислениями. В течение года их число достигнет 90%.»

- Стив Балмер, генеральный директор Microsoft c 2000 по 2014 год.

В настоящее время технологии "облачных" вычислений приобретают все большую популярность, а концепция Cloud Computing является одной из самых модных тенденций развития информационных технологий. По оценкам Gartner, "облака" — один из главных приоритетов бизнеса на 2010 год. Крупнейшие мировые ИТ вендоры (Microsoft, Amazon, Google и прочие) так или иначе внедряют сервисы "облачных" вычислений.

Сегодня под облачными вычислениями обычно понимают возможность получения необходимых вычислительных мощностей по запросу из сети, причем пользователю не важны детали реализации этого механизма и он получает из этого "облака" все необходимое. Ярким примером могут служить поисковые системы, интерфейс которых очень прост, но в то же время они предоставляют пользователям огромные вычислительные ресурсы для поиска нужной информации. Сегодня крупные вычислительные центры не только позволяют хранить и обрабатывать внутри себя определенные данные, но и дают возможности для создания собственных виртуальных дата-центров, позволяя молодым компаниям не тратить силы на создание всей инфраструктуры с нуля. На сегодняшний день существует множество определений "облачных вычислений". Зачастую они расходятся в своем значении и акцентах. Рассмотрим некоторые из этих определений для того чтобы понять что такое "облачные" вычисления с разных точек зрения.

Облачные вычисления представляют собой динамически масштабируемый способ доступа к внешним вычислительным ресурсам в виде сервиса, предоставляемого посредством Интернета, при этом пользователю не требуется никаких особых знаний об инфраструктуре "облака" или навыков управления этой "облачной" технологией.

Cloud computing – это программно-аппаратное обеспечение, доступное пользователю через Интернет или локальную сеть в виде сервиса, позволяющего использовать удобный интерфейс для удаленного доступа к выделенным ресурсам (вычислительным ресурсам, программам и данным). Компьютер пользователя выступает при этом рядовым терминалом, подключенным к Сети. Компьютеры, осуществляющие cloud computing, называются "вычислительным облаком". При этом нагрузка между компьютерами, входящими в "вычислительное облако", распределяется автоматически.

Облачные вычисления - это новый подход, позволяющий снизить сложность ИТ-систем, благодаря применению широкого ряда эффективных технологий, управляемых самостоятельно и доступных по требованию в рамках виртуальной инфраструктуры, а также потребляемых в качестве сервисов. Переходя на частные облака, заказчики могут получить множество преимуществ, среди которых снижение затрат на ИТ, повышение качества предоставления сервиса и динамичности бизнеса".

"Облако" является новой бизнес-моделью для предоставления и получения информационных услуг. Эта модель обещает снизить оперативные и капитальные затраты. Она позволяет ИТ департаментам сосредоточиться на стратегических проектах, а не на рутинных задачах управления собственным центром обработки данных.

Облачные вычисления – это не только технологическая инновация в ИТ, но и способ создания новых бизнес-моделей, когда у небольших производителей ИТ-продуктов, в том числе и в регионах, появляется возможность быстрого предложения рынку своих услуг и мало затратного способа воплощения своих бизнес-идей. Поддержка облачных вычислений в сочетании с инвестициями в молодые компании создают быстро развивающуюся экосистему инновационных производств.

Облачные вычисления являются рыночным ответом на систематическую специализацию и усиление роли аутсорсинга в ИТ. По сути, переход к облачным вычислениям означает аутсорсинг традиционных процессов управления ИТ-инфраструктурой профессиональными внешними поставщиками. Большинство современных поставщиков решений сферы облачных вычислений предоставляет возможность не только использовать существующие облачные платформы, но и создавать собственные, отвечающие технологическим и юридическим требованиям заказчиков.

Аутсо́рсинг (от англ. outsourcing: (outer-source-using) использование внешнего источника и/или ресурса) — передача организацией, на основании договора, определённых видов или функций производственной предпринимательской деятельности другой компании, действующей в нужной области.

"Облачные вычисления" работают следующим образом: вместо приобретения, установки и управления собственными серверами для запуска приложений, происходит аренда сервера у Microsoft, Amazon, Google или другой компании. Далее пользователь управляет своими арендованными серверами через Интернет, оплачивая при этом только фактическое их использование для обработки и хранения данных. Вычислительные облака состоят из тысяч серверов, размещенных в датацентрах, обеспечивающих работу десятков тысяч приложений, которые одновременно используют миллионы пользователей. Непременным условием эффективного управления такой крупномасштабной инфраструктурой является максимально полная автоматизация. Кроме того, для обеспечения различным видам пользователей - облачным операторам, сервис-провайдерам, посредникам, ИТ-администраторам, пользователям приложений - защищенного доступа к вычислительным ресурсам облачная инфраструктура должна предусматривать возможность самоуправления и делегирования полномочий.

Концепция "облачных" вычислений появилась не на пустом месте, а явилась результатом эволюционного развития информационных технологий за последние несколько десятилетий и ответом на вызовы современного бизнеса. Аналитики Гартнер групп (Gartner Group) называют "Облачные" вычисления — самой перспективной стратегической технологией будущего, прогнозируя перемещение большей части информационных технологий в "облака" в течение 5–7 лет. По их оценкам, к 2015 году объём рынка облачных вычислений достигнет 200 миллиардов долларов.

В России технологии "облачных" вычислений делают лишь первые шаги. Несмотря на существующие предложения со стороны крупнейших международных корпораций Microsoft, IBM, Intel, NEC, а также ряда отечественных ИТ-поставщиков спрос на облачные сервисы в России пока невелик. Однако, по прогнозу аналитической компании IDC, за ближайшие 5 лет рынок облачных услуг в России вырастет более чем на 500% и составит 113 миллионов долларов.

Перспективы "облачных" вычислений неизбежны, поэтому знание об этих технологиях необходимо любому специалисту, который связывает свою текущую или будущую деятельность с современными информационными технологиями.

Развитие аппаратного обеспечения

Для того, чтобы понять, как появились "облачные" вычисления, необходимо представлять основные моменты процесса развития вычислений и вычислительной техники.

В наше время жизнь без компьютеров не представляется возможной. Внедрение вычислительной техники проникло почти во все жизненные аспекты, как личные, так и профессиональные. Развитие компьютеров было достаточно быстрым. Началом эволюционного развития компьютеров стал 1930 год, когда двоичная арифметика была разработана и стала основой компьютерных вычислений и языков программирования. В 1939 году были изобретены электронно-вычислительные машины, выполняющие вычисление в цифровом виде. Появление вычислительных устройств приходится на 1942 год, когда было изобретено устройство, которое могло механически добавлять числа. Вычисления производились с использованием электронных ламп.

Появившаяся в 1941 году модель Z3 Конрада Цузе в немецкой Лаборатории Авиации в Берлине была одним из наиболее значительных событий в развитии компьютеров, потому что эта машина поддерживала вычисления как с плавающей точкой, так и двоичную арифметику. Это устройство рассматривают как самый первый компьютер, который был полностью работоспособным. Язык программирования считают "Turing-complete", если он попадает в тот же самый вычислительный класс, как машина Тьюринга.

Первое поколение современных компьютеров появилось в 1943, когда были разработаны Марк I и машина Колосс. С финансовой поддержкой от IBM (International Business Machines Corporation) Марк был сконструирован и разработан в Гарвардском университете. Это был электромеханический программируемый компьютер общего назначения. Первое поколение компьютеров было построено с использованием соединенных проводов и электронных ламп (термоэлектронных ламп). Данные хранились на бумажных перфокартах. Колосс использовался во время Второй мировой войны, чтобы помочь расшифровать зашифрованные сообщения.

Чтобы выполнить его задачу расшифровки, Колосс сравнивал два потока данных, прочитанных на высокой скорости с перфоленты. Колосс оценивал поток данных, считая каждое совпадение, которое было обнаружено, основываясь на программируемой Булевой функции. Для сравнения с другими данными был создан отдельный поток.

Другой компьютер общего назначения этой эры был ENIAC (Электронный Числовой Интегратор и Компьютер), который был построен в 1946. Он был первым компьютером, способным к перепрограммированию, чтобы решать полный спектр вычислительных проблем. ENIAC содержал 18 000 термоэлектронных ламп, он весил более чем 27 тонн, и потреблял электроэнергии 25 киловатт в час. ENIAC выполнял 100 000 вычислений в секунду. Изобретение транзистора означало, что неэффективные термоэлектронные лампы могли быть заменены более мелкими и надежными компонентами. Это было следующим главным шагом в истории вычислений.

Компьютеры Transistorized отметили появление второго поколения компьютеров, которые доминировали в конце 1950-ых и в начале 1960-ых. Несмотря на использование транзисторов и печатных схем, эти компьютеры были все еще большими и дорогостоящими. В основном они использовались университетами и правительством. Интегральная схема или чип были развиты Джеком Килби. Благодаря этому достижению он получил Нобелевскую премию по физике в 2000 году.

Изобретение Килби вызвало взрыв в развитии компьютеров третьего поколения. Даже при том, что первая интегральная схема была произведена в сентябре 1958, чипы не использовались в компьютерах до 1963. Историю мейнфреймов - принято отсчитывать с появления в 1964 году универсальной компьютерной системы IBM System/360, на разработку которой корпорация IBM затратила 5 млрд долларов.

Мейнфрейм - это главный компьютер вычислительного центра с большим объемом внутренней и внешней памяти. Он предназначен для задач, требующих сложных вычислительных операций. Сам термин "мейнфрейм" происходит от названия типовых процессорных стоек этой системы. В 1960-х — начале 1980-х годов System/360 была безоговорочным лидером на рынке. Её клоны выпускались во многих странах, в том числе — в СССР (серия ЕС ЭВМ). В то время такие мэйнфреймы, как IBM 360 увеличили способности хранения и обработки, интегральные схемы позволяли разрабатывать миникомпьютеры, что позволило большому количеству маленьких компаний производить вычисления. Интеграция высокого уровня диодных схем привела к развитию очень маленьких вычислительных единиц, что привело к следующему шагу развития вычислений.

В ноябре 1971 Intel выпустили первый в мире коммерческий микропроцессор, Intel 4004. Это был первый полный центральный процессор на одном чипе и стал первым коммерчески доступным микропроцессором. Это было возможно из-за развития новой технологии кремниевого управляющего электрода. Это позволило инженерам объединить на много большее число транзисторов на чипе, который выполнял бы вычисления на небольшой скорости. Эта разработка способствовала появлению компьютерных платформ четвертого поколения.

Компьютеры четвертого поколения, которые развивались в это время, использовали микропроцессор, который помещает способности компьютерной обработки на единственном чипе. Комбинируя память произвольного доступа (RAM), разработанную Intel, компьютеры четвертого поколения были быстрее, чем когда-либо прежде и занимали на много меньшую площадь. Процессоры Intel 4004 были способны выполнять всего 60 000 инструкций в секунду. Микропроцессоры, которые развились из Intel 4004 разрешенные изготовителями, стали базой для начала развития персональных компьютеров, маленьких достаточно дешевых, чтобы быть купленными широкой публикой. Первым коммерчески доступным персональным компьютером был MITS Altair 8800, выпущенный в конце 1974. В последствии были выпущены такие персональные компьютеры, как Apple I и II, Commodore PET, VIC-20, Commodore 64, и, в конечном счете, оригинальный IBM-PC в 1981. Эра PC началась всерьез к середине 1980-ых. В течение этого времени IBM-PC, Commodore Amiga и Atari ST были самыми распространенными платформами PC, доступными общественности. Даже при том, что микровычислительная мощность и память увеличились на много порядков, начиная с изобретения из Intel 4004 процессоров, технологии чипов интеграции высокого уровня (LSI) или интеграция сверхвысокого уровня (VLSI) сильно не изменились. Поэтому большинство сегодняшних компьютеров все еще попадает в категорию компьютеров четвертого поколения.

Одновременно с резким ростом производства персональных компьютеров в начале 1990-х начался кризис рынка мейнфреймов, пик которого пришёлся на 1993 год. Многие аналитики заговорили о полном вымирании мейнфреймов, о переходе от централизованной обработки информации к распределённой (с помощью персональных компьютеров, объединённых двухуровневой архитектурой "клиент-сервер"). Многие стали воспринимать мейнфреймы как вчерашний день вычислительной техники, считая Unix- и PC-серверы более современными и перспективными.

C 1994 года вновь начался рост интереса к мейнфреймам. Дело в том, что, как показала практика, централизованная обработка на основе мейнфреймов решает многие задачи построения информационных систем масштаба предприятия проще и дешевле, чем распределённая. Многие из идей, заложенных в концепции облачных вычислений также "возвращают" нас к эпохе мэйнфреймов, разумеется с поправкой на время. Еще шесть лет назад в беседе с Джоном Мэнли, одним из ведущих научных сотрудников центра исследований и разработок HP в Бристоле, обсуждалась тема облачных вычислений, и Джон обратил внимание на то, что основные идеи cloud computing до боли напоминают мэйнфреймы, только на другом техническом уровне: "Все идет от мэйнфреймов. Мэйнфреймы научили нас тому, как в одной среде можно изолировать приложения, – умение, критически важное сегодня".

Современные инфраструктурные решения. Блэйд-системы

С каждым годом требования бизнеса к непрерывности предоставления сервисов возрастают, а на устаревшем оборудовании обеспечить бесперебойное функционирование практически невозможно. В связи с этим крупнейшие ИТ-вендоры производят и внедряют более функциональные и надежные аппаратные и программные решения. Рассмотрим основные тенденции развития инфраструктурных решений, которые, так или иначе, способствовали появлению концепции облачных вычислений.

  • Рост производительности компьютеров. Появление многопроцессорных и многоядерных вычислительных систем, развитие блэйд-систем

  • Появление систем и сетей хранения данных

  • Консолидация инфраструктуры

Появление блэйд-систем

В процессе развития средств вычислительной техники всегда существовал большой класс задач, требующих высокой концентрации вычислительных средств. К ним можно отнести, например сложные ресурсоемкие вычисления (научные задачи, математическое моделирование), а так же задачи по обслуживанию большого числа пользователей (распределенные базы данных, Интернет-сервисы, хостинг).

Не так давно (порядка 8ми-10ти лет назад) производители процессоров достигли разумного ограничения наращивания мощности процессора, при котором его производительность очень высока при относительно низкой стоимости. При дальнейшем увеличении мощности процессора, необходимо было прибегать к нетрадиционным методам охлаждения процессоров, что достаточно неудобно и дорого. Оказалось, что для увеличения мощности вычислительного центра более эффективно увеличить количество отдельных вычислительных модулей, а не их производительность. Это привело к появлению многопроцессорных, а позднее и многоядерных вычислительных систем. Появляются многопроцессорные системы, которые насчитывают более 4 процессоров. На текущий момент существуют процессоры с количеством ядер 8 и более, каждое из которых эквивалентно по производительности. Увеличивается количество слотов для подключения модулей оперативной памяти, а также их емкость и скорость.

Увеличение числа вычислительных модулей в вычислительном центре требует новых подходов к размещению серверов, а также приводит к росту затрат на помещения для центров обработки данных, их электропитание, охлаждение и обслуживание.

Для решения этих проблем был создан новый тип серверов XXI века — модульные, чаще называемые Blade-серверами, или серверами-лезвиями (blade — лезвие). Преимущества Blade-серверов, первые модели которых были разработаны в 2001 г. изготовители описывают с помощью правила "1234". "По сравнению с обычными серверами при сравнимой производительности Blade-серверы занимают в два раза меньше места, потребляют в три раза меньше энергии и обходятся в четыре раза дешевле".

hello_html_26b98610.jpg


Рис. 1.1. Типичный Blade-сервер (Sun Blade X6250)

Что представляет собой Blade-сервер? По определению, данному аналитической компании IDC Blade-сервер или лезвие - это модульная одноплатная компьютерная система, включающая процессор и память. Лезвия вставляются в специальное шасси с объединительной панелью (backplane), обеспечивающей им подключение к сети и подачу электропитания. Это шасси с лезвиями, является Blade-системой. Оно выполнено в конструктиве для установки в стандартную 19-дюймовую стойку и в зависимости от модели и производителя, занимает в ней 3U, 6U или 10U (один U - unit, или монтажная единица, равен 1,75 дюйма). За счет общего использования таких компонентов, как источники питания, сетевые карты и жесткие диски, Blade-серверы обеспечивают более высокую плотность размещения вычислительной мощности в стойке по сравнению с обычными тонкими серверами высотой 1U и 2U.

hello_html_409c5b91.jpg


Рис. 1.2. Типичное 10U шасси для 10 Blade-серверов (Sun Blade 6000) используемое в УрГУ

Технология блэйд-систем заимствует некоторые черты мейнфреймов. В настоящее время лидером в производстве блэйд-систем являются компании Hewlett-Packard, IBM, Dell, Fujitsu Siemens Computers, Sun.

Преимущества Blade-серверов

Рассмотрим основные преимущества блейд-систем:

Уникальная физическая конструкция. Архитектура блейд-систем основана на детально проработанной уникальной физической конструкции. Совместное использование таких ресурсов, как средства питания, охлаждения, коммутации и управления, снижает сложность и ликвидирует проблемы, которые характерны для более традиционных стоечных серверных инфраструктур. Физическая конструкция блейд систем предполагает размещение блейд серверов в специальном шасси и основным ее конструктивным элементом является объединительная панель. Объединительная панель разработана таким образом, что она решает все задачи коммутации блейд серверов с внешним миром: с сетями Ethernet, сетями хранения данных Fiber Channel, а также обеспечивает взаимодействие по протоколу SAS (SCSI) с дисковыми подсистемами в том же шасси. Шасси для блейдов также позволяет размещать в нем необходимые коммутаторы Ethernet или Fiber Channel для связи с внешними сетями. Выход на эти коммутаторы из блейд серверов обеспечивают предустановленные или устанавливаемые дополнительно контроллеры. Средства коммутации во внешние сети, интегрированные в общую полку, значительно сокращают количество кабелей для подключения к ЛВС и SAN, чем традиционным стоечным серверам. Блейд сервера имеют общие средства питания и охлаждения. Размещение систем питания и охлаждения в общей полке, а не в отдельных серверах, обеспечивает снижение энергопотребления и повышение надежности.

Лучшие возможности управления и гибкость. Блейд-серверы принципиально отличаются от стоечных серверов тем, что серверная полка имеет интеллект в виде модулей управления, который отсутствует в стойках при размещении традиционных серверов. Для управления системой не требуется клавиатура, видео и мышь. Управление блейд системой осуществляется с помощью централизованного модуля управления и специального процессора удаленного управления на каждом блейд-сервере. Система управления шасси и серверами как правило имеют достаточно удобное программное обеспечение для управления. Появляются возможности удаленно управлять всей "Blade"-системой, в том числе управление электропитанием и сетью отдельных узлов.

Масштабируемость – при необходимости увеличение производительных мощностей, достаточно приобрести дополнительные лезвия и подключить к шасси. Серверы и инфраструктурные элементы в составе блейд-систем имеют меньший размер и занимают меньше места, чем аналогичные стоечные решения, что помогает экономить электроэнергию и пространство, выделенное для ИТ. Кроме того, благодаря модульной архитектуре, они являются более удобными во внедрении и модернизации.

Повышенная надежность. В традиционных стоечных средах для повышения надежности устанавливается дополнительное оборудование, средства коммутации и сетевые компоненты, обеспечивающие резервирование, что влечет за собой дополнительные расходы. Блейд-системы имеют встроенные средства резервирования, например предполагается наличие нескольких блоков питания, что позволяет при выходе из строя одного блока питания, обеспечивать бесперебойную работу всех серверов, расположенных в шасси. Также дублируются и охлаждающие компоненты. Выход из строя одного из вентиляторов не приводит к критическим последствиям. При выходе одного сервера из строя системный администратор просто заменяет лезвие на новое и затем в дистанционном режиме инсталлирует на него ОС и прикладное ПО.

Снижение эксплуатационных расходов. Применение блейд-архитектуры приводит к уменьшению энергопотребления и выделяемого тепла, а также к уменьшению занимаемого объема. Помимо уменьшения занимаемой площади в ЦОД, экономический эффект от перехода на лезвия имеет еще несколько составляющих.

Дата-центр (от англ. data center), или центр (хранения и) обработки данных (ЦОД/ЦХОД) — это специализированное здание для размещения (хостинга) серверного и сетевого оборудования и подключения абонентов к каналам сети Интернет.

Поскольку в них входит меньше компонентов, чем в обычные стоечные серверы, и они часто используют низковольтные модели процессоров, что сокращаются требования к энергообеспечению и охлаждению машин. Инфраструктура блейд-систем является более простой в управлении, чем традиционные ИТ- инфраструктуры на стоечных серверах. В некоторых случаях блейд-системы позволили компаниям увеличить количество ресурсов под управлением одного администратора (серверы, коммутаторы и системы хранения) более чем в два раза. Управляющее программное обеспечение помогает ИТ-организациям экономить время благодаря возможности эффективного развертывания, мониторинга и контроля за инфраструктурой блейд-систем. Переход к серверной инфраструктуре, построенной из лезвий, позволяет реализовать интегрированное управление системы и отойти от прежней схемы работы Intel-серверов, когда каждому приложению выделялась отдельная машина. На практике это означает значительно более рациональное использование серверных ресурсов, уменьшение числа рутинных процедур (таких, как подключение кабелей), которые должен выполнять системный администратор, и экономию его рабочего времени

Современные инфраструктурные решения. Системы и сети хранения данных

Другой особенностью современной истории развития вычислительных систем, наряду с появлением блейд-серверов, стало появление специализированных систем и сетей хранения данных. Внутренние подсистемы хранения серверов часто уже не могли предоставить необходимый уровень масштабируемости и производительности в условиях лавинообразного наращивания объемов обрабатываемой информации. В итоге появились внешние системы хранения данных, ориентированные сугубо на решение задач хранения данных и предоставление интерфейса доступа к данным для их использования.

Система Хранения Данных (СХД) - это программно-аппаратное решение по организации надёжного хранения информационных ресурсов и предоставления к ним гарантированного доступа.

Системы хранения данных представляют собой надежные устройства хранения, выделенные в отдельный узел. Система хранения данных может подключаться к серверам многими способами. Наиболее производительным является подключение по оптическим каналам (Fiber Channel), что дает возможность получать доступ к системам хранения данных со скоростями 4-8 Гбит/сек. Системы хранения данных так же имеют резервирование основных аппаратных компонент – несколько блоков питания, raid контроллеров, FC адаптеров и оптических патчкордов для подключения к FC коммутаторам.

hello_html_m67e61650.jpg


Рис. 1.3. Типичная Система хранения данных начального уровня (Sun StorageTek 6140)

Отметим основные преимущества использования СХД:

Высокая надёжность и отказоустойчивость – реализуется полным или частичным резервированием всех компонент системы (блоков питания, путей доступа, процессорных модулей, дисков, кэша и т.д.), а также мощной системой мониторинга и оповещения о возможных и существующих проблемах;

Высокая доступность данных – обеспечивается продуманными функциями сохранения целостности данных (использование технологии RAID, создание полных и мгновенных копий данных внутри дисковой стойки, реплицирование данных на удаленную СХД и т.д.) и возможностью добавления (обновления) аппаратуры и программного обеспечения в беспрерывно работающую систему хранения данных без остановки комплекса;

Мощные средства управления и контроляуправление системой через web-интерфейс или командную строку, выбор нескольких вариантов оповещения администратора о неполадках, полный мониторинг системы, работающая на уровне "железа" технология диагностики производительности;

Высокая производительностьопределяется числом жёстких дисков, объёмом кэш-памяти, вычислительной мощностью процессорной подсистемы, числом внутренних (для жёстких дисков) и внешних (для подключения хостов) интерфейсов, а также возможностью гибкой настройки и конфигурирования системы для работы с максимальной производительностью;

Беспроблемная масштабируемостьобычно существует возможность наращивания числа жёстких дисков, объёма кэш-памяти, аппаратной модернизации существующей системы хранения данных, наращивания функционала с помощью специального ПО, работающего на стойке, без значительного переконфигурирования или потерь какой-то функциональности СХД. Этот момент позволяет значительно экономить и более гибко проектировать свою сеть хранения данных.

Сегодня системы хранения данных являются одним из ключевых элементов, от которых зависит непрерывность бизнес-процессов компании. В современной корпоративной ИТ-инфраструктуре СХД, как правило, отделены от основных вычислительных серверов, адаптированы и настроены для различных специализированных задач. Системы хранения данных реализуют множество функций, они играют важную роль в построении систем оперативного резервного копирования и восстановления данных, отказоустойчивых кластеров, высоко доступных ферм виртуализации.

Сети хранения данных

SAN - это высокоскоростная коммутируемая сеть передачи данных, объединяющая серверы, рабочие станции, дисковые хранилища и ленточные библиотеки. Обмен данными происходит по протоколу Fibre Channel, оптимизированному для быстрой гарантированной передачи сообщений и позволяющему передавать информацию на расстояние от нескольких метров до сотен километров.

Движущей силой для развития сетей хранения данных стал взрывной рост объема деловой информации (такой как электронная почта, базы данных и высоконагруженные файловые сервера), требующей высокоскоростного доступа к дисковым устройствам на блочном уровне. Ранее на предприятии возникали "острова" высокопроизводительных дисковых массивов SCSI. Каждый такой массив был выделен для конкретного приложения и виден ему как некоторое количество "виртуальных жестких дисков". Сеть хранения данных (Storage Area Network или SAN) позволяет объединить эти "острова" средствами высокоскоростной сети. Основу SAN составляет волоконно-оптическое соединение устройств по интерфейсу Fibre Chanel, обеспечивающее скорость передачи информации между объектами 1,2,4 или 8 Gbit/sec. Сети хранения помогают повысить эффективность использования ресурсов систем хранения, поскольку дают возможность выделить любой ресурс любому узлу сети. Рассмотрим основные преимущества SAN:

  • Производительность. Технологии SAN позволяют обеспечить высокую производительность для задач хранения и передачи данных.

  • Масштабируемость. Сети хранения данных обеспечивают удобство расширения подсистемы хранения, позволяют легко использовать приобретенные ранее устройства совместно с новыми устройствами хранения данных.

  • Гибкость. Совместное использование систем хранения данных, как правило, упрощает администрирование и добавляет гибкость, поскольку кабели и дисковые массивы не нужно физически транспортировать и перекоммутировать от одного сервера к другому. SAN позволяет подключить новые серверы и дисковые массивы к сети без остановки системы.

  • Централизованная загрузка. Другим преимуществом является возможность загружать сервера прямо из сети хранения. При такой конфигурации можно быстро и легко заменить сбойный сервер, переконфигурировав SAN таким образом, что сервер-замена, будет загружаться с логического диска сбойного сервера.

  • Отказоустойчивость. Сети хранения помогают более эффективно восстанавливать работоспособность после сбоя. В SAN может входить удаленный участок с вторичным устройством хранения. В таком случае можно использовать репликацию — реализованную на уровне контроллеров массивов, либо при помощи специальных аппаратных устройств. Спрос на такие решения значительно возрос после событий 11 сентября 2001 года в США.

  • Управление. Технологии SAN позволяют обеспечить централизованное управление всей подсистемой хранения данных.



Топологии SAN. Консолидация ИТ инфраструктуры

Рассмотрим некоторые топологии сетей хранения данных

Однокоммутаторная структура (англ. single-switch fabric) состоит из одного коммутатора Fibre Channel, сервера и системы хранения данных. Обычно эта топология является базовой для всех стандартных решений — другие топологии создаются объединением однокоммутаторных ячеек.

hello_html_74bc67f0.jpg


Рис. 1.4. Однокоммутаторная структура SAN

Каскадная структура— набор ячеек, коммутаторы которых соединены в дерево с помощью межкоммутаторных соединений.

hello_html_30551667.jpg


Рис. 1.5. Каскадная структура SAN

Ячеистая топология (mesh topology). Каждый Fibre Channel коммутатор соединен с каждым Fibre Channel коммутатором. При отказе одного соединения связность сети не нарушается, в этом случае отказоустойчивость существенно увеличивается, но и увеличивается стоимость владения ввиду большой избыточности.

hello_html_m9c26878.png


Рис. 1.6. Ячеистая структура SAN



Кольцо— практически повторяет схему топологии решётка. Среди преимуществ — использование меньшего количества соединений.

hello_html_2bb6ec16.jpg


Рис. 1.7. Структура Кольцо

Консолидация ИТ инфраструктуры

Консолидация — это объединение вычислительных ресурсов либо структур управления в едином центре.

Анализ международного опыта позволяет сегодня говорить о четкой тенденции к консолидации ИТ-ресурсов корпораций. Именно она способна существенно уменьшить затраты на ИТ. Сэкономленные же средства можно направить на повышение качества имеющихся информационных услуг и внедрение новых. Кроме оптимизации расходов на ИТ, консолидация ИТ-ресурсов позволяет улучшить управляемость предприятий за счет более актуальной и полной информации об их функционировании. Обычно говорят о консолидации:

  • серверов - перемещение децентрализованных, приложений, распределенных на различных серверах компании, в один кластер централизованных гомогенных серверов;

  • систем хранения - совместное использование централизованной системы хранения данных несколькими гетерогенными узлами;

  • приложений - размещение нескольких приложений на одном хосте.

При этом можно выделить два базовых типа консолидации — физическую и логическую. Физическая консолидация подразумевает географическое перемещение серверов на единую площадку (в центр данных), а логическая — централизацию управления.

Перемещение компьютеров в единый центр обработки данных позволяют обеспечить комфортные условия для оборудования и технического персонала, а также увеличить степень физической защиты серверов. Кроме того, в центре обработки данных можно использовать более производительное и высококачественное оборудование, которое экономически неэффективно устанавливать в каждом подразделении. Создавая центры обработки данных, можно снизить расходы на техническую поддержку и управление самыми важными серверами предприятия. Удачным примером оборудования, которое может успешно решить задачи консолидации вычислительных ресурсов в организациях любого уровня являются блейд-системы, а также и системы и сети хранения данных.

Очевидное преимущество этого решения в том, что упрощается выделение персонала поддержки и его работа по развертыванию и управлению системами, снижается степень дублирования опытных кадров. Централизация также облегчает использование стандартизованных конфигураций и процессов управления, создание рентабельных систем резервного копирования для восстановления данных после сбоя и поддержания связности бизнеса. Упрощается и решение вопросов организации высококачественного контроля за состоянием окружающей среды и обеспечения физической защиты. Может быть улучшена и сетевая безопасность, поскольку серверы оказываются под защитой единого, централизованно управляемого межсетевого экрана.

Логический тип консолидации подразумевает перестройку системы управления ИТ-инфраструктуры. Это необходимо как для увеличения масштабируемости и управляемости сложной распределенной вычислительной системы, так и для объединения сегментов корпоративной сети. Логическая консолидация обеспечивает введение централизованного управления и унификацию работы с ресурсами компании на основе открытых стандартов. В результате появляется возможность создания глобальных информационных служб предприятия — каталога LDAP, корпоративного портала или ERP-системы, что в конечном итоге позволит улучшить управляемость предприятия за счет более актуальной и полной информации об его функционировании.

Логическая консолидация приложений приводит к централизации управления критическими для бизнеса системами и приложениями. Преимущества логической консолидации очевидны: в первую очередь это высвобождение аппаратных ресурсов, которые можно использовать на других участках информационной системы. Во-вторых, более простая и логичная структура управления ИТ-инфраструктурой делает ее более гибкой и приспособленной для будущих изменений.

Сценарий гомогенной консолидации предусматривает перенос одного масштабного приложения, ранее выполнявшегося на нескольких серверах, на один, более мощный (рис. 1.8). В качестве примера такой операции можно привести базы данных, которые зачастую наращивают экстенсивным путем по мере роста объема обрабатываемой информации. Объединение данных и приложений на одном сервере заметно ускоряет процессы обработки и поиска, а также повышает уровень целостности.

Гетерогенная консолидация по содержанию схожа с гомогенной, но в этом случае объединению подлежат разные приложения. Например, несколько экземпляров Exchange Server и SQL Server, ранее запускавшиеся на отдельных компьютерах, могут быть сведены на единой машине. Преимущества гетерогенной консолидации - возрастающая масштабируемость сервисов и более полное задействование системных ресурсов.

hello_html_m2cc819ad.jpg


Рис. 1.8. Консолидация приложений

Как отмечают специалисты по облачным технологиям – консолидация ИТ-инфраструктуры – является первым шагом к "облаку". Чтобы перейти к использованию облачных технологий, компаниям необходимо сначала решить задачи неконсолидированной ИТ-инфраструктуры. "Без консолидации невозможно построить эффективное процессно-ориентированное управление, поскольку отсутствует единая точка предоставления сервисов".

Анализируя историю развития информационных технологий и современные тенденции можно сделать вывод, что эволюционный виток ИТ, начавшийся вместе с эпохой мэйнфреймов более пятидесяти лет назад, замкнулся – вместе с облаками мы вернулись к централизации ресурсов, но на этот раз не на уровне мэйнфреймов с их зелеными терминалами а на новом технологическом уровне.

Выступая на конференции, посвященной проблемам современных процессоров, профессор Массачусетского технологического института Ананд Агарвал сказал: "Процессор – это транзистор современности". Новый уровень отличается тем, что здесь также собираются мэйнфреймы, но виртуальные, и не из отдельных транзисторов, как полвека назад, а из целых процессоров или целиком из компьютеров. На заре ИТ многочисленные компании и организации "лепили" собственные компьютеры из дискретных компонентов, монтируя их на самодельных печатных платах – каждая организация делала свою машину, и ни о какой стандартизации или унификации и речи не могло быть. И вот на пороге второго десятилетия XXI века ситуация повторяется – точно так же из серверов-лезвий, компьютеров, разнообразного сетевого оборудования собираются внешние и частные облака. Одновременно наблюдается та же самая технологическая разобщенность и отсутствие унификации: Microsoft, Google, IBM, Aptana, Heroku, Rackspace, Ning, Salesforce строят глобальные мэйнфреймы, а кто-то под собственные нужды создает частные облака, которые являются теми же мэйнфреймами, но меньшего масштаба. Остается предположить, что впереди изобретение интегральной схемы и микропроцессора.



Ключевые термины темы

Мейнфрейм - это главный компьютер вычислительного центра с большим объемом внутренней и внешней памяти.

Блэйд-сервер — компьютерный сервер с компонентами, вынесенными и обобщёнными в корзине для уменьшения занимаемого пространства.

Система Хранения Данных (СХД) - это программно-аппаратное решение по организации надёжного хранения информационных ресурсов и предоставления к ним гарантированного доступа.

SAN - это высокоскоростная коммутируемая сеть передачи данных, объединяющая серверы, рабочие станции, дисковые хранилища и ленточные библиотеки. Обмен данными происходит по протоколу Fibre Channel, оптимизированному для быстрой гарантированной передачи сообщений и позволяющему передавать информацию на расстояние от нескольких метров до сотен километров.

Консолидация — это объединение вычислительных ресурсов либо структур управления в едином центре.




Самые низкие цены на курсы переподготовки

Специально для учителей, воспитателей и других работников системы образования действуют 50% скидки при обучении на курсах профессиональной переподготовки.

После окончания обучения выдаётся диплом о профессиональной переподготовке установленного образца с присвоением квалификации (признаётся при прохождении аттестации по всей России).

Обучение проходит заочно прямо на сайте проекта "Инфоурок", но в дипломе форма обучения не указывается.

Начало обучения ближайшей группы: 18 октября. Оплата возможна в беспроцентную рассрочку (10% в начале обучения и 90% в конце обучения)!

Подайте заявку на интересующий Вас курс сейчас: https://infourok.ru

Общая информация

Номер материала: ДБ-259495

Похожие материалы