Technologia

Generatywna sztuczna inteligencja wkracza do Snowflake

Generatywna sztuczna inteligencja wkracza do Snowflake

Snowflake rozszerza możliwości dla programistów dzięki Snowpark Container Services. Zmiany umożliwiają bezpieczne uruchamianie generatywnej sztucznej inteligencji w Chmurze Danych 

● Snowpark Container Services rozszerza infrastrukturę obliczeniową Snowflake do uruchamiania różnorodnych obciążeń, w tym aplikacji typu full-stack, hostingu LLM, szkolenia modeli w bezpieczny sposób.

● Snowflake nawiązał współpracę z firmami NVIDIA, Alteryx, Astronomer, Dataiku, Hex, SAS i innymi, aby zapewnić klientom bezpieczny i łatwy dostęp do szerokiej gamy produktów i rozwiązań w ramach ich konta Snowflake przy użyciu usług Snowpark Container Services.

● Snowpark rozszerza wsparcie dla bardziej wydajnego rozwoju i wdrażania uczenia maszynowego.

Snowflake, firma oferująca Chmurę Danych, na dorocznej konferencji użytkowników Snowflake Summit 2023 ogłosiła innowacje, które rozszerzają programowalność danych dla analityków danych, inżynierów danych i twórców aplikacji, dzięki czemu mogą oni szybciej i wydajniej tworzyć w Chmurze Danych. Wraz z uruchomieniem Snowpark Container Services (wersja private preview), Snowflake rozszerza zakres frameworka Snowpark, dzięki czemu programiści mogą skorzystać z nowych opcji, takich jak przyspieszone obliczenia z procesorami graficznymi NVIDIA i oprogramowaniem AI, aby uruchamiać więcej obciążeń w ramach bezpiecznej platformy Snowflake. Obejmuje to m.in. szerszy zakres modeli AI i uczenia maszynowego (ML), interfejsów API czy wewnętrznie opracowanych aplikacji. 

Korzystając z usług Snowpark Container Services, klienci Snowflake uzyskują dostęp do obszernego katalogu oprogramowania i aplikacji innych firm, w tym dużych modeli językowych (LLM) czy narzędzi MLOps w ramach swojego konta. Ponadto Snowflake upraszcza i umożliwia skalowanie sposobu, w jaki użytkownicy opracowują, obsługują i wykorzystują modele ML, przedstawiając kolejne innowacje, dzięki którym więcej organizacji może ożywić swoje dane i modele ML.

Nowości obejmują zestaw interfejsów API Snowpark ML dla bardziej wydajnego opracowywania modeli (wersja public preview), Snowpark Model Registry (wersja private preview) dla skalowalnych MLOps, Streamlit w Snowflake (wkrótce public preview) do przekształcania modeli w interaktywne aplikacje i zaawansowanych możliwości przesyłania strumieniowego.

Rozwój produktów Snowflake pozwala rewolucjonizować sposób, w jaki klienci budują w Chmurze Danych, udostępniając specjalistom zajmującym się danymi, inżynierom danych i deweloperom aplikacji rozszerzoną programowalność i szeroką gamę zastosowań, dzięki czemu mogą budować, testować i wdrażać wszystko, co tylko sobie wymarzą, bez zbędnych kompromisów – mówi Christian Kleinerman, SVP of Product w Snowflake. – Nasze ciągłe inwestycje w Snowpark, wraz z uczeniem maszynowym i możliwościami przesyłania strumieniowego, skracają czas potrzebny do analizy danych, odblokowując nowe sposoby wywierania wpływu na organizacje dzięki zwiększonej elastyczności.

Snowpark zapewnia programistom szersze możliwości programowania, bez kompromisów w zakresie zarządzania i bezpieczeństwa

Snowpark niezmiennie służy użytkownikom jako bezpieczne narzędzie Snowflake do wdrażania i przetwarzania kodu innego niż SQL z różnymi środowiskami wykonawczymi i bibliotekami – poszerzając zakres tego, kto może tworzyć i co jest tworzone w Chmurze Danych. Pozwala to twórcom na bardziej efektywną pracę z danymi w ich językach programowania i wybranych narzędziach, zapewniając jednocześnie organizacjom automatyzację, nadzór i dając gwarancje bezpieczeństwa, których brakuje w starszych środowiskach. Od czasu uruchomienia w czerwcu 2021 r. Snowpark pomógł inżynierom danych migrować potoki i uruchamiać je szybciej oraz wydajniej, umożliwił specjalistom zajmującym się danymi tworzenie i szkolenie modeli, a także sprawił, że Snowflake stał się zaawansowaną platformą do tworzenia aplikacji.

Snowpark Container Services jeszcze bardziej rozszerza zakres obciążeń, które można przenieść do danych klientów. Zapewnia użytkownikom elastyczność tworzenia w dowolnym języku programowania i wdrażania na szerszej niż do tej pory infrastrukturze, w tym na platformie NVIDIA AI z taką samą łatwością użytkowania, skalowalnością i ujednoliconym zarządzaniem jak w przypadku Chmury Danych Snowflake. Ponadto usługi Snowpark Container Services mogą być używane jako część Snowflake Native App (wersja public preview AWS), umożliwiając programistom dystrybucję zaawansowanych aplikacji, które działają w całości na koncie Snowflake klienta końcowego. Snowpark Container Services umożliwią również użytkownikom bezpieczne uruchamianie modeli od zewnętrznych dostawców takich jak Reka bezpośrednio na ich koncie Snowflake, eliminując potrzebę ujawniania zastrzeżonych danych.

NVIDIA i Snowflake tworzą transformacyjne, akcelerowane obliczenia i integracje oprogramowania dla Snowpark Container Services. Firmy ogłosiły partnerstwo, którego celem jest udostępnienie zaawansowanych możliwości generatywnej sztucznej inteligencji przedsiębiorstwom na całym świecie.

Współpraca ta wprowadza również NVIDIA AI Enterprise – filar oprogramowania platformy NVIDIA AI – do Snowpark Container Services, wraz z obsługą akcelerowanych obliczeń NVIDIA. NVIDIA AI Enterprise obejmuje ponad 100 frameworków, wstępnie wytrenowane modele i narzędzia programistyczne, w tym PyTorch do szkolenia, NVIDIA RAPIDS do nauki o danych i NVIDIA Triton Inference Server do produkcyjnych wdrożeń AI.

Dane są fundamentem niestandardowych generatywnych aplikacji AI budowanych z myślą o unikalnych wymaganiach biznesowych i brandowych firm działających w różnych branżach – mówi Manuvir Das, Vice President, Enterprise Computing w firmie NVIDIA. – Snowpark Container Services i integracja NVIDIA AI Enterprise zapewniają dostęp do pełnego pakietu struktur NVIDIA AI, gotowych modeli i narzędzi programistycznych w ramach platformy danych używanej przez tysiące firm na całym świecie, aby wspierać najbardziej zaawansowane obciążenia.

 

 

Snowflake