Технологии NetApp: управление данными без ограничений

Как искусственный интеллект делает бизнес успешным

Бизнес все более активно использует возможности искусственного интеллекта для увеличения прибылей. Постепенно такие решения входят и в жизнь простых людей. Эксперты тем временем пытаются понять, как максимально полно использовать все преимущества этой технологии и какие решения готов предложить рынок.

Цифровизация бизнеса стала ключевым императивом в ряду корпоративных инструментов многих крупных предприятий. Исследователи IDC даже ввели в оборот специальный термин — «Цифровой дарвинизм», который отражает эволюционные способности компаний в самых разных отраслях. Основной повод для такого преобразования — повышение собственной конкурентоспособности.

Ключевые компоненты такого подхода уже у всех на слуху: искусственный интеллект (ИИ), машинное обучение, глубокое обучение, предписывающая аналитика, создание машин, которые способны в автономном режиме принимать решения. Эксперты сходятся в том, что фундаментом новой эпохи станет (или уже становится на наших глазах) работа с распределенными данными. А саму науку о данных породило фактически развитие ИИ.

От машинного обучения до предписывающей аналитики

Искусственный интеллект стал основой для имитации процессов человеческого интеллекта. Достигается это через создание и применение алгоритмов, встроенных в динамическую вычислительную среду. Приложения ИИ можно встретить как в повседневных сценариях, так и при выполнении более точечных задач, таких, как обнаружение мошенничества с финансовыми услугами или улучшение интерактивного взаимодействия с клиентами.

Именно на искусственном интеллекте строится машинное обучение, которое помогает исключить человека из процесса принятия определенных решений. Типичные истории применения машинного обучения — это распознавание и маршрутизация трафика, обеспечение безопасности данных, а также мониторинг обнаружения угроз.

Более узким случаем машинного обучения является обучение глубокое. Оно имитирует конструкцию человеческих нейронных сетей и применяет ее в вычислительной аналитике. Как это выглядит на практике? Создается сеть из вычислительных узлов, каждый из которых специализируется на конкретных аспектах процесса обучения. Они могут «понимать», как пользователь получает, анализирует и расшифровывает информацию, использует ее для принятия решений. И делать это за него. Глубокое обучение — история с потенциально очень широким применением, от бытовой жизни до медицины, но технологии сделали уже и следующий шаг — им стала предписывающая аналитика. Принятие решений без взаимодействия с человеком.

Предписывающая аналитика — последний представимый сегодня предел искусственного интеллекта. Она будет включена в множество приложений, отвечающих за операции на фондовом рынке, медицинскую диагностику и лечение, проектирование и производство электроэнергии и другие отрасли.

Грозит ли искусственному интеллекту новый застой?

Но даже на фоне очевидного развития ИИ и связанных с ним технологий, находятся критики, которые считают, что искусственный интеллект близок к очередному кризису. Нечто подобное разработки в этом направлении уже переживали в 90-х, тот период в западной литературе назвали «зимой ИИ».

Опровержение идеи о хайповой природе искусственного интеллекта строится, как правило, на текущем состоянии четырех базисных принципов ИИ, его столпов: вычислении, данных, алгоритмах и людях.

Закон Мура гласит, что производительность процессоров увеличивается в 2 раза каждые 18 мес. Это означает, что современные процессоры примерно в 100 тыс. раз быстрее, чем 25 лет назад. Поэтому ИИ намного быстрее и точнее, чем в те времена. Тогда и подумать было нельзя об использовании искусственного интеллекта в приложениях, работающих в реальном времени, таких, как, например, беспилотный транспорт. А нейронные сети для глубокого обучения не были такими глубокими, а значит — точными, как сегодня. К тому же, расцвету ИИ способствует развитие графических процессоров, которые лучше адаптируются к параллельным и распределенным вычислениям.

То же самое касается данных, без которых обучение ИИ невозможно в принципе. Емкость хранилищ увеличилась экспоненциально за последние три десятилетия. Объемы большого жесткого диска в начале 90-х не превышал 100 Мб. Сейчас он достигает 15 Тб. Снизилась и цена хранения: с $1000 за 1 Гб до $0,03.

Строить саму ИИ-систему тоже стало в разы проще. Не нужно разрабатывать самостоятельные решения, достаточно грамотно скомпоновать отдельные строительные блоки. Они доступны в изобилии: платформы и приложения созданы для машинного обучения, распознавания речи, контроля жестов и всех остальных сегментов.

«Искусственный интеллект преобразует работу современных ИТ-администраторов, поскольку ИИ автоматизирует множество задач, которые раньше делались вручную. Например, обнаружение аномалий во множестве файлов журналов — это то, что ИИ может делать лучше и быстрее, чем человек. Тем не менее, администраторы смогут сосредоточиться на задачах, которые более ценны для бизнеса», — считает Рене Буэст (Rene Buest), директор по технологическим исследованиям в Arago.

Наконец, другими стали люди. И ученые, которые разрабатывают различные элементы ИИ, и потребители, которые их используют. Без искусственного интеллекта жизнь простого человека представить все сложнее и сложнее. В обиход вошли не только личные помощники, но и умные холодильники и прочие предметы повседневности. Отказаться от этого будет непросто.

Как ИИ меняет данные

Вместе с усложнением ИИ, впрочем, эволюционируют и подходы к инфраструктуре и управлению данными. Современные подходы, по мнению аналитиков, строятся на нескольких основных элементах.

Один из наиболее важных — многоуровневое управление данными, в том числе — в пограничных слоях. За счет аналитики таких данных могут создаваться новые модели управления и, конечно, появляются дополнительные способы решения поставленных задач. При таком подходе некоторые данные получают приоритет — с использованием либо простой фильтрации, либо расширенной аналитики и ИИ — и эффективно передаются в контур глубокого обучения. Другие данные децентрализуются и могут быть либо отброшены, либо управляться другими инструментами.

Понятно, что каждый слой данных может преобразовываться по мере обработки для достижения необходимого уровня эффективности хранения и безопасности. Низкоприоритетные данные могут быть сжаты, зашифрованы и сохранены в облачном хранилище.

«Возможность обрабатывать аналитику в приграничных слоях зависит от доступной вычислительной мощности. Мы видим, что поставщики вычислительных мощностей и облачных сервисов конкурируют за это с различными стратегиями. Например, NVIDIA приносит мощность GPU к краю, чтобы включить ИИ для таких приложений, как беспилотные автомобили. Роднит все подобные решения использование СХД предыдущих поколений с прямым подключением, которые не способны обеспечить «умное» управление данными. Очевидна потребность в интеллектуальном хранении данных, таком, какое реализовано в NetApp ONTAP 9 в AFF и FAS или с помощью ONTAP Select. Это ПО управления данными задействует технологии Data Fabric, которые облегчают преобразование и перемещение данных между различными ресурсами», — рассказывает Сантош Рао (Santosh Rao), старший технический директор NetApp по работе с Data ONTAP.

Другой важной частью современного взгляда на управление данными стали механизмы, которые отвечают за их интеллектуальное преобразование. Большинство используемых для переноса данных от краев к центру решений фактически занимаются только переносом. Но если заменить этот грубый метод на некие механизмы, которые попутно еще уменьшают их объем, ускоряют перенос, то можно и снизить требования к пропускной способности. Из свежих разработок такими функциями обладает, например, NetApp SnapMirror в Data Fabric.

К слову, многие компании сейчас используют технологии глубокого обучения с прицелом на то, что в будущем она поможет выполнить безболезненный переход к стратегии «от края — к облаку». Есть и те, кто ищет собственные пути. Это — еще один краеугольный механизм. Переход от стратегии «от края до ядра» к стратегии «от края до облака» требует тщательного анализа того, как данные отделяются от вычислений. В частности, возможность отделить управление набором данных и жизненным циклом этого набора данных от поставщика ИИ.

«Одним из подходов к реализации этой стратегии является NetApp Private Storage, который позволяет совместно размещать выделенные хранилища NetApp, включая гибридные системы FAS и/или все флэш-накопители FAS (AFF) в центрах обработки данных Equinix с высокоскоростным доступом к нескольким облакам и очень высокой пропускной способностью для операций ввода-вывода. Другой альтернативой является использование виртуализованного облачного хранилища в качестве более быстрой альтернативы S3 и другим хранилищам объектов. Сегодня вы можете использовать ONTAP Cloud, а Plexistor — потенциальный вариант на будущее», — отмечает Сантош Рао.

Ключевым элементом для обеспечения высокопроизводительного глубокого обучения в облаке является способность смотреть за пределы ограничений протокола S3. Хотя он и является протоколом хранения, производительность при его использовании не растет. Программно-ориентированное решение может использовать преимущества облачного следа, а также использовать новые быстрые носители. ONTAP Select и Plexistor — яркие примеры наличия решений подобного класса на рынке.

Наконец, четвертым приоритетным вопросом для ИТ-менеджеров стала необходимость эволюции инфраструктуры. Преимущество облака заключается в том, что можно использовать глубокое обучение, не вникая в сложности аппаратного стека. Между лидерами рынка происходит интенсивная битва, приз в которой — позиция лидера в кругу поставщиков аппаратных решений для глубокого обучения. Пока таким лидером считается NVIDIA, но существует много других новых технологий. В конечном счете, каждый поставщик облаков строит свою собственную инфраструктуру.

ИНТЕРВЬЮ

Крис Гринвуд:
Когда All-Flash займет весь рынок СХД
Объемы данных растут, разница в стоимости традиционных дисковых решений и All-flash массивов уменьшается с каждым днем. Пройдет еще год-два, и цены сравняются окончательно.