Insight 2018: Кто управляет будущим?
Insight 2018: Кто управляет будущим?

Питер Вюст: «Компаниям сегодня надо постоянно быть в состоянии онлайн, опираясь на все свои информационные ресурсы, – быстрота выхода на рынок с новым предложением сейчас важнее размера компании и ее предыдущих заслуг»


09:24 24.12.2018   |  Дмитрий Волков |  «Открытые системы»

Рубрика Индустрия |   2281 прочтение



Будущее определяется человеком, но управляется данными, причем для решения конкретной задачи требуется конкретная облачная инфраструктура, уверены участники форума NetApp.

 

По утверждению футурологов, за следующие 20 лет когнитивной эры человечество изменится сильнее, чем за предыдущие три столетия. Научные гипотезы и вымысел фантастов становятся свершившимся фактом, а драйвером этого процесса являются данные – основа цифровой экономики, роль электричества играет искусственный интеллект, а Интернет вещей служит нервной системой. Уже к 2020 году половина доходов компаний во всем мире будет определяться их деятельностью в цифровом поле. По оценке экспертов World Economic Forum, к 2025 году общая экономическая ценность цифровой трансформации для бизнеса и общества превысит 100 трлн долл. Однако, как отметил на недавней конференции Insight 2018 Джордж Куриан, генеральный директор NetApp, цифровая трансформация невозможна без трансформации ИТ, прошедших путь от монолитных архитектур к виртуализированным, а теперь и к облачным. Уже сегодня 80% корпораций работают в мультиоблачной среде, одновременно используя как локальные ЦОДы, так и гибридные и публичные облака от ведущих провайдеров. «Цифровая трансформация включена в повестку дня как первоочередная задача для 70% руководителей бизнеса. Успех же преобразований зависит от того, как компания обрабатывает данные. Все это создает неплохие условия для увеличения продаж оборудования для хранения данных, но мы выбрали стратегию мгновенных и регулярных обновлений ПО, чтобы удовлетворить актуальные запросы рынка, и намерены действовать как гибкий стартап, а не гигант, обновляющий свои продукты раз в год», — отметил Куриан.

Заявление руководителя NetApp получило осязаемое подтверждение на ежегодной конференции, собравшей в 2018 году более 4 тыс. консультантов, клиентов и партнеров компании. Конференция была посвящена новым решениям в области хранения и обработки данных, и акцент был сделан на то, чтобы показать, как заказчики смогут с помощью инструментов компании достигать своих бизнес-целей, управляя корпоративной информацией и безопасно используя данные не только из локальных систем хранения, но и обращаясь к сервисам публичных и гибридных облаков. «Наши заказчики уже понимают необходимость преобразования бизнеса с ориентацией на облачные среды, однако не все еще могут оценить реальные результаты этого», — отметил Александр Вальнер, генеральный менеджер NetApp в регионе EMEA (страны Европы, Ближнего Востока и Африки). В компании уверены в том, что облака стали основным средством цифровых инноваций, для осуществления которых нужно только предоставить заказчикам именно ту облачную инфраструктуру, которая наилучшим образом подходит для решения конкретной бизнес-задачи.

На Insight 2018 были анонсированы новые сервисы и решения, призванные облегчить работу с облаками ведущих провайдеров: Microsoft Azure, Google Cloud и AWS. Например, Microsoft Azure NetApp Files — файловый сервис Azure на основе технологии NetApp ONTAP, обеспечивающий хранение данных и управление ими для переноса и развертывания файловых рабочих нагрузок в облаке Azure. Сервис NetApp Cloud Volumes для Google Cloud Platform расширен теперь и на Европу, что позволяет европейским заказчикам оперативно выполнять анализ в облаке и защищать базы данных в высокопроизводительных файловых службах, чтобы проводить высокоскоростное тестирование приложений и обеспечить поддержку рабочих нагрузок с возможностью возврата к исходной базе данных в случае сбоев. Сервис NetApp Cloud Volumes для AWS – управление данными через NFS для работы с облаком Amazon.

По мнению аналитиков Gartner, к 2020 году приложения искусственного интеллекта станут одной из приоритетных статей инвестирования компаний, это подтверждают и в IDC, считая, что почти 75% разработчиков будут встраивать функционал искусственного интеллекта в свои приложения. Однако предприятия часто сталкиваются с тем, что для таких приложений сложно использовать все имеющиеся данные из-за их разрозненности и слабой структурированности, а без этого невозможна, в частности, эффективная реализация систем глубинного обучения. "Для поддержки работы приложений искусственного интеллекта, черпающих данные из различных источников, включая локальные и внешние хранилища на флеш-платформах, вам неизбежно потребуется подключение к различным облакам, а значит, нужны будут средства работы с ними, как с единым целым. Даже если у вас имеется высокопроизводительный и емкий флеш-массив, вы ничего не выиграете, это все равно что покупать 'Феррари' без руля – вы не сможете управлять автомобилем», — отметил Вальнер.

Расходы на системы хранения для решений на базе технологий искусственного интеллекта в 2017 году составили 2,1 млрд долл., а в 2022-м они вырастут до 10 млрд. Архитектура работы с данными для таких решений может предусматривать три уровня: сбор и обработку первичных данных на граничных устройствах Интернета вещей; анализ и обучение на массивах из озер данных локальных ЦОДов; сервис логических умозаключений (inference) с привлечением облачных ресурсов. Для работы с каждым уровнем NetApp предлагает соответствующие решения, которые позволяют сохранить контроль над данными независимо от масштаба их потоков, места и способа хранения. Система ONTAP 9.5 обеспечивает приложения искусственного интеллекта единой точкой входа для работы с данными от всевозможных датчиков Интернета вещей, с результатами обработки на локальных ЦОДах и с массивами сведений из публичных облаков. Для работы с системой Nvidia DGX-1 (предназначена для поддержки решений на основе технологий глубинного обучения) на организованной в рамках Insight 2018 выставке была представлена версия ONTAP AI, созданная в партнерстве с Nvidia и позволяющая формировать конвейер данных, поддерживать масштабирование их потоков при гарантированной производительности и обеспечении перемещения данных между граничными устройствами, локальными ЦОДами и облаками с соблюдением требуемого уровня безопасности. Для этого, в частности, применяется MAX Data – решениe по работе с энергонезависимой памятью на серверах с тем же временем отклика, как у системной памяти, и емкостью, как у флеш-носителей. В результате обработка данных для приложений на основе технологий искусственного интеллекта может выполняться в реальном времени без переписывания кода программ, а главное – обеспечивается гарантированное время отклика.

«Извлечение прибыли из данных сегодня зависит от способности разработчиков быстро внедрять новации, например благодаря культуре DevOps, но организациям часто не хватает возможностей инфраструктуры для установления требуемого уровня сотрудничества различных команд. — отметил Питер Вюст, старший директор по облачным инфраструктурам и сервисам в регионе EMEA. — Мы предоставляем продукты и услуги для повышения эффективности совместной работы подразделений разработки и сопровождения, с помощью которых достигается необходимый уровень технологической независимости, позволяющий всем сотрудникам компании совместно работать, не нарушая непрерывный процесс создания, доставки и сопровождения приложений». Новый сервис NetApp Kubernetes предназначен для развертывания кластера Kubernetes в стеке облачных платформ AWS, Google Cloud и NetApp HCI. Сервисы корпоративного уровня для облачных приложений позволяют с предсказуемой производительностью выполнять рабочие нагрузки над данными из множества источников, а также одновременно совместно использовать их нескольким приложениям. По сути, Kybernetes – это ОС для поддержки облачного кластера, с которым как с единым целым могут работать несколько команд, оперирующих с разными данными из разных облаков. «Мы также анонсировали проект с открытым исходным кодом Trident для поддержки всего портфеля хранилищ NetApp. Сочетание Kubernetes и Trident позволяет разработчикам приложений использовать высокопроизводительное хранилище для создания и развертывания приложений с отслеживанием состояния во всех ведущих публичных и частных корпоративных облаках», — подчеркнул Вюст. Trident автоматически распределяет ресурсы энергонезависимой памяти для контейнерных сред Docker, Kubernetes, Red Hat OpenShift Container Platform, а также применяется для поддержки процессов DevOps в системе NetApp Cloud Volumes для облачных платформ Google и AWS.

Большинству предприятий во всем мире данные обеспечивают сегодня стратегическое преимущество, не стала исключением и Россия. «Наши заказчики все чаще интересуются расширенными средствами хранения, как следствие, во втором квартале 2018 года бизнес флеш-массивов компании во всем мире вырос на 29% по сравнению с аналогичным периодом прошлого года, что означает доход в 2,2 млрд долл. Российский рынок на этом фоне также продемонстрировал оптимизм: растут популярность облаков и спрос на системы хранения. Например, по данным IDC, мы заняли первое место по поставкам решений класса All Flash, объем продажи этих систем во втором квартале 2018 года достиг 6 млн долл., а доля рынка составила 22,7%», — отметил Крис Гринвуд, старший директор в странах Северной и Западной Европы, России и Турции.

В Gartner в 2019 году ожидают рост расходов на ИТ во всем мире на 3,2% до 3,8 трлн долл. и смещение акцентов от использования предприятиями исключительно собственной ИТ-инфраструктуры к приобретению облачных сервисов работы с данными. Будущее действительно все больше управляется данными, однако пока определяется людьми, – большинство выдающихся верных бизнес-решений все еще принимается на основе чисто человеческих качеств: эмоций, интуиции, воли, кинестетики и, конечно, реального интеллекта.


Теги: Системы хранения Искусственный интеллект NetApp Облачное хранение Флеш-массивы Цифровая экономика

На ту же тему: