Wyzwania związane z przetwarzaniem w chmurze i jak może pomóc Blockchain

Wyzwania związane z przetwarzaniem w chmurze są łatwo przysłonięte przez fakt, że rynek przeżywa obecnie ogromny boom. Sektor przetwarzania w chmurze jest zdominowany przez niewielką liczbę dużych firm technologicznych, w tym Amazon Web Services (AWS), Microsoft Azure i IBM. AWS jest liderem pod względem udziału w rynku, ale wszystkie te firmy przeżywają oszałamiający wzrost. Zgłoszono AWS 49-procentowy wzrost przychodów w pierwszym kwartale 2018 roku, podczas gdy Microsoft powiedział, że jego przychody z platformy Azure wzrosły o 93 procent.

Brzmi jak dobra wiadomość? Być może, ale nawet na dynamicznie rozwijającym się rynku nie należy lekceważyć wyzwań związanych z przetwarzaniem w chmurze. W tym miejscu przyjrzymy się, jak duże firmy technologiczne starają się nadążyć za popytem i jak decentralizacja może być jednym z kluczowych czynników umożliwiających przetwarzanie w chmurze w przyszłości.

Dlaczego przetwarzanie w chmurze jest w tak ogromnym tempie??

Jednym z powodów jest rozwój sztucznej inteligencji (AI). Algorytmy AI opierają się na ogromnych ilościach danych. Jeszcze kilka lat temu po prostu nie było dostępnej mocy obliczeniowej potrzebnej do uruchamiania programów AI. Teraz lepszy sprzęt oznacza, że ​​rozwój sztucznej inteligencji pochłania moc obliczeniową tak szybko, jak jest ona dostępna. Jedna analiza wykazał, że zużycie mocy obliczeniowej AI podwaja się co trzy i pół miesiąca od 2012 r. Porównaj to z prawem Moore’a, które miało 18-miesięczny okres podwojenia.

sztuczna inteligencja

Chciwe roboty AI zjadły wszystkie ciastka komputerowe. Zdjęcie dzięki uprzejmości Pixabay.

W świetle nienasyconego apetytu sztucznej inteligencji na dane, a tym samym na moc obliczeniową, największym wyzwaniem dla przetwarzania w chmurze są obecnie podaż i popyt. W miarę wzrostu popytu dostawcy usług w chmurze muszą znaleźć sposoby na zwiększenie podaży lub zarządzanie cenami, aby spróbować powstrzymać popyt. Robią jedno i drugie.

Wyzwania związane z przetwarzaniem w chmurze nr 1: zarządzanie podażą i popytem przy istniejącej pojemności serwerów

Dostawcy usług w chmurze, tacy jak AWS, działają na podstawie warstwowych cen. Model ten pozwala ich klientom wybrać rodzaj mocy obliczeniowej, której potrzebują do wykonywania określonych zadań. AWS sprzedaje usługi na żądanie po cenach premium, które są zawsze dostępne dla klientów, którzy potrzebują ciągłej obsługi. Sprzedaje również spotowe przypadki przetwarzania w chmurze po zmiennych cenach. Działają one dla klientów, którzy mogą kolejkować zadania do czasu, gdy będzie dostępna pojemność serwera, dzięki czemu mogą wydać mniej.

Wyobraź sobie więc firmę programistyczną, która ma uruchomiony i uruchomiony jeden produkt, a obecnie pracuje nad innym. W przypadku produktu na żywo firma obsługuje chatbota internetowego do obsługi klienta dla swoich klientów. W przypadku opracowywanego produktu muszą przeprowadzić kilka testów, ale są dość elastyczne, jeśli chodzi o to, kiedy można je uruchomić, ponieważ w razie potrzeby mogą po prostu ustawić je w kolejce do uruchomienia na noc.

Ta firma kupuje usługę na żądanie dla swojego chatbota, więc bot jest zawsze dostępny dla swoich klientów. W przypadku rozwijanego produktu licytują na miejscu. Określają maksymalny limit, jaki zapłacą za pojemność serwera. Ich dostawca usług w chmurze wycenia dostępność serwerów zgodnie z zapotrzebowaniem w czasie rzeczywistym. Gdy cena mocy obliczeniowej spadnie poniżej wartości progowej określonej przez naszą firmę programistyczną, ich zadania testowe zaczynają działać. Jeśli popyt rośnie w trakcie wykonywania pracy, cena ponownie rośnie, a dostawca przekierowuje władzę gdzie indziej.

Klient oszczędza do 90 procent ceny premium na żądanie, używając instancji spot do elastycznych zadań. Jednak nie wszyscy klienci są w stanie być tak elastyczni, jeśli chodzi o ich potrzeby w zakresie mocy obliczeniowej. Ponadto to rozwiązanie zarządza tylko istniejącym popytem i nie jest odpowiedzią na ogromny wzrost popytu.

Wyzwania związane z przetwarzaniem w chmurze nr 2: rosnąca pojemność dzięki większej liczbie centrów danych

Dostawcy usług w chmurze działają w centrach danych. Tak więc, aby sprostać wyzwaniom związanym z wydajnością przetwarzania w chmurze, dostawca z pewnością może po prostu zbudować więcej centrów danych?


Mogą, ale centra danych wymagają ogromnych dostaw energii. Jeden raport z 2016 roku oszacowali, że w poprzednim roku światowe centra danych zużyły więcej energii niż cała Wielka Brytania. Zwrócono również uwagę na japońskie badanie, w którym oszacowano, że centra danych w kraju zużyłyby całą krajową dostawę energii elektrycznej do 2030 r., Gdyby wzrost trwał nieprzerwanie..

Dlatego samo budowanie większej liczby centrów danych nie może być jedynym rozwiązaniem.

Perspektywy na przyszłość: decentralizacja

Decentralizacja może zaoferować rozwiązanie. Rozproszone sieci komputerów mogą współpracować, aby zapewnić bezczynną przepustowość tym w sieci, którzy są gotowi za nią zapłacić. Załóżmy więc, że masz procesor graficzny do wydobywania kryptowalut, ale nie używasz go teraz. Być może wydobywanie bitcoinów stało się nieopłacalne w warunkach głębokiego spadku cen. Możesz umieścić ten procesor GPU w rozproszonej sieci przetwarzania w chmurze. Ktoś zapłaciłby Ci w tokenach cyfrowych, aby mógł wykorzystać moc twojego GPU do pomocy w testowaniu rozwoju sztucznej inteligencji.

DeepBrain Chain to jeden z projektów blockchain, który ma na celu osiągnięcie tego celu i jest skierowany bezpośrednio na rozwijający się rynek mocy obliczeniowej sztucznej inteligencji. W DeepBrain Chain każdy może zarabiać tokeny, przekazując swoją bezczynną moc obliczeniową, która jest sprzedawana programistom AI.

Tatau to podobny, ale nowszy projekt blockchain, który wykorzystuje tę koncepcję zdecentralizowanej mocy obliczeniowej dla sztucznej inteligencji.

Decentralizacja stanowi realne rozwiązanie problemu nadmiernego rozwoju centrum danych, ponieważ nie wymaga wprowadzania nowego sprzętu. Jest też bardziej elastyczny w zarządzaniu wahaniami przepustowości, ponieważ w sieci jest wielu mniejszych operatorów. Po zbudowaniu centrum danych musi być ono wydajne, podczas gdy zdecentralizowana sieć komputerowa jest bardziej odporna na bezczynność.

To tylko jeden scenariusz. Chociaż w przyszłości może istnieć wiele innych możliwości dla blockchain i chmury obliczeniowej.

Obliczenia kwantowe

Obliczenia kwantowe oferują kolejną możliwość rozwiązania wyzwań związanych z przetwarzaniem w chmurze. Komputery te wykorzystują zdolność cząstek subatomowych do istnienia w wielu stanach jednocześnie. Standardowy bit danych może istnieć w danym momencie tylko w jednym stanie, 1 lub 0. Bit kwantowy lub kubit może istnieć w dwóch stanach jednocześnie. Ten podwójny stan pozwala im przechowywać znacznie więcej danych niż tradycyjny bit.

Komputer kwantowy

Komputery kwantowe mogą być przyszłością chmury

Obliczenia kwantowe są wciąż na wczesnym etapie rozwoju. Jednak dwóch dostawców chmury, IBM i Alibaba, uruchomiło teraz własne komputery kwantowe. Jeden start, Rigetti, pracuje nad uruchomieniem własnych usług Quantum Cloud. Zatem przetwarzanie w chmurze kwantowej może pojawić się wcześniej, niż nam się wydaje.

Wniosek

Przetwarzanie w chmurze na pewno zostanie. Jednak wyzwania związane z przetwarzaniem w chmurze będą wkrótce ciążyły na istniejących operatorach, jeśli będą próbowali utrzymać status quo. Spośród wymienionych tutaj scenariuszy przyszłość prawdopodobnie obejmie hybrydę różnych modeli, w tym istniejącej infrastruktury, zdecentralizowanych sieci i komputerów kwantowych, przynajmniej przez jakiś czas. Ponieważ sztuczna inteligencja nakłada coraz większe wymagania na chmurę, potrzebujemy tych alternatyw raczej wcześniej niż później.

Wyróżnione zdjęcie dzięki uprzejmości Pixabay.

Mike Owergreen Administrator
Sorry! The Author has not filled his profile.
follow me
Like this post? Please share to your friends:
Adblock
detector
map