С другой стороны, с этими же проблемами 10-15 лет назад столкнулись лидеры интернет-рынка. И в настоящий момент сформировались подходы и решения, которые давно переросли уровень экспериментов и готовы для промышленного использования. Причем они активно адаптируются вендорами корпоративного сектора. Данный класс решений для работы с огромным объемом как структурированных, так и неструктурированных данных получил название BigData.
• относительно невысокая горизонтальная масштабируемость;• длинный жизненный цикл массивов - 3-5 лет;• сильные ограничения по дальности при "натягивании" системы хранения на несколько географически распределенных дата-центров; • сложность миграции ресурсов между дата-центрами;• проблемы с плавностью наращивания производительности и объема хранимых данных. Отсюда вытекает сложность с реализацией Pay as you go;• отсутствие простых способов взаимодействия с публичными облачными провайдерами.
Стоит отметить также технологический аспект. Для традиционных подходов характерны следующие технологические ограничения, которые делают их малопригодными для облака:
Что касается экономического аспекта, то здесь необходимо отметить высокую совокупную стоимость владения. Решения вендоров нацелены, в первую очередь, на корпоративный рынок. При этом те решения, на которых возможно построение облака, с технологической точки зрения относятся к сегменту High-End. Следовательно, цена хранения за терабайт высока, а масштабирование возможно только крупными блоками. Когда объём хранимых данных начнет измеряться петабайтами, цена для облака станет неподъемной.
В корпоративном секторе сложились определенные подходы к хранению и обработке данных: СХД и реляционная СУБД. Сами эти подходы в своем время были революционными, но их применение в облаке имеет экономические и технологические сложности.
Объединить эти риски можно одной главной проблемой - проблемой размера. Данных в облаке даже на начальном этапе эксплуатации будет много. Согласно прогнозам аналитиков, объём данных, хранимых в организациях, за пять лет вырастет как минимум в восемь раз. При этом нужно учитывать рост популярности медиаданных, систем сбора разнородных данных с различного рода устройств (ЖКХ, медицина, системы контроля за движением, наука) и тот фактор, что при работе с такими данными разработчики будут пытаться в первую очередь использовать возможности, предоставляемые облаками. Ведь с их точки зрения, облако обладает бесконечными ресурсами. Это означает, что рост данных в коммерчески успешном облаке будет значительно больше. И если мы хотим получить именно такое облако, то одним из требований к нему должна быть способность выдерживать ежегодный рост объема хранимых данных в 2-10 раз.
Найти Big Data. Что скрывает облако?Y Фото: Инфосистем ДжетСергей Шумара, руководитель направления Cloud Services компании "Инфосистемы Джет", объясняет, что облака и виртуализация - это не синонимы, а также рассказывает о возможных решениях проблем хранения и систематизации огромных массивов данных в облаке.13/12/201116:30Автор: Облака очень часто связывают с виртуализацией. Ее принято считать ключевой технологией, фундаментом при построении облака. На самом деле, это не является непреложной истиной - построение облака возможно и без гипервизорной виртуализации. Примеры в лице Google Apps Engine, Microsoft Azure как раз подтверждают это. На фоне разговоров о виртуализации теряются очень важные моменты, связанные с хранением и обработкой данных в облаке. Какое бы облако ни было, и на каких технологиях оно бы ни строилось, мимо решения этого вопроса не пройти. Более того, по моему мнению, именно в вопросе хранения и обработки данных в облаке сосредоточено наибольшее количество неочевидных рисков, которые могут проявиться после запуска в эксплуатацию. В результате они не позволят облаку "выстрелить", не оправдают вложенных инвестиций и умножат на ноль труд большого количества людей.
Big Data. Что скрывает облако? | Мнение | Digit. Интернет-журнал о технологиях. Глубоко о высоком. Проекты РИА: | | | | | | | | | | | P»
Комментариев нет:
Отправить комментарий