Strefa wolna od botów!
Piszemy my, nie maszyny.

Jaka jest geneza rozwiązań chmurowych?


W tym artykule dowiesz się:

  • Czym jest GRID i w jaki sposób dał podwaliny cloud computingu
  • Dokąd sięga historia rozwiązań chmurowych i kto był pierwszym dostawcą
  • Jak rozwiązania chmurowe rozwijały się na przestrzeni lat
  • Jak kształtuje się przyszłość technologii chmurowych

Genezy rozwiązań chmurowych należy poszukiwać w akademickich rozważaniach o sieci połączonych ze sobą komputerów. Badacze i praktycy głowili się nad tym pomysłem od połowy XX wieku, a dekady rozwoju technologicznego w końcu doprowadziły do powstania cloud computingu.

 

 

Początki cloud computingu – czym jest sieć GRID?

 

Zanim powstał cloud computing, istniał grid, co dosłownie można rozumieć jako siatkę złożoną z wielu rozsianych po świecie komputerów, które razem tworzą wielką maszynę zdolną do wykonywania operacji, których nie byłyby w stanie przeprowadzić z osobna. Początków grid computingu można szukać już w latach 60. XX wieku w działaniach takich jak ARPANET[1], ale za prawdziwy początek tej technologii uznaje się lata 90. XX wieku[2], kiedy zaczęto wykorzystywać rozproszone komputery w projektach takich jak SETI@home.

Czym charakteryzuje się grid computing? Przede wszystkim jest rozproszone – składa się z wielu komputerów (serwerów, stacji roboczych, itp.) zlokalizowanych w różnych miejscach, które są ze sobą połączone przez sieć (najczęściej Internet). Użytkownicy mogą współdzielić zasoby obliczeniowe, pamięci masowe, oprogramowanie i dane. Grid computing wykorzystuje równoległe przetwarzanie danych, więc duże zadania mogą być podzielone na mniejsze części i przetwarzane równocześnie przez wiele maszyn.

Sieci grid często wykorzystuje się w projektach naukowych wymagających dużej mocy obliczeniowej (np. w badaniach nad zmianami klimatycznymi czy fizyce cząstek elementarnych), a także do analiz danych, modelowania finansowego, renderowania grafik i innych zadań obliczeniowych wymagających dużych zasobów.

Chociaż grid i cloud computing na pierwszy rzut oka są do siebie podobne, drugi rodzaj przetwarzania oferuje zasoby na żądanie w modelach IaaS i SaaS, a pierwszy polega na współdzieleniu zasobów między różnymi użytkownikami. Cloud computing jest też łatwiejszy do wdrożenia dla przedsiębiorstw, ponieważ nie wymaga zarządzania fizyczną infrastrukturą.

 

 

Popularyzacja rozwiązań chmurowych na przestrzeni lat

 

Sieci grid były zaczątkiem tego, co obserwujemy dzisiaj – chmury zmieniają sposób, w jaki pracujemy, nie tylko pod względem samego wykonywania zadań, ale również zmian na rynku pracy. Ich popularyzacja na przestrzeni lat sprawiła, że coraz więcej osób chce pracować jako inżynier chmurowy. Jaka jest jednak geneza rozwiązań chmurowych i jak wyglądała ich popularyzacja na przestrzeni lat?

Za oficjalny początek można uznać rok 2002. Wtedy Amazon uruchomił pierwszą wersję Amazon Web Services, oferując usługi przechowywania danych i obliczeń na żądanie[3], choć współczesny wygląd platforma uzyskała dopiero w 2006. Wdrożono wtedy Amazon Elastic Compute Cloud (EC2)[4], które oferowało skalowalne usługi obliczeniowe, które użytkownicy mogli wynajmować na godzinę.

Konkurencja nie pozostawała w tyle – w 2008 roku Google wprowadził  App Engine, platformę PaaS, która umożliwiła deweloperom budowanie i hostowanie aplikacji na infrastrukturze Google[5], a w 2010 Microsoft uruchomił Azure, początkowo jako platformę PaaS, a następnie rozszerzył ją na IaaS i SaaS[6].

Lata 2011-2015 uznaje się za okres ekspansji i różnicowania usług dostawców. W tym czasie pojawiły się też nowe platformy chmurowe – przykładem może być uruchomiony w 2010 roku OpenStack, otwarta platforma przygotowana przez NASA i Rackspace[7]. Między wymienionymi latami pojawiły się też nowe rozwiązania od Amazon, Google i Microsoft, czyli trzech firm, które zdominowały branżę cloud computingu – pośród nich wymienić można np. Google Compute Engine czy AWS Lambda[8].

 

 

Rozwój chmur obliczeniowych w XXI wieku

 

Między latami 2016 a 2020 można było zaobserwować stopniową dominację cloud computingu w przetwarzaniu danych i zastosowaniach biznesowych, a także rozwój nowych technologi związanych z chmurą. Przykładem może być wprowadzenie przez Google w 2016 roku  Kubernetes, otwartej platformy do zarządzania kontenerami, która stała się standardem w zarządzaniu aplikacjami w chmurze[9].

Innowacje wprowadzał także Amazon – w 2018 uruchomiono AWS Outposts[10], który umożliwia firmom korzystanie z infrastruktury AWS w swoich własnych centrach danych – i Microsoft, który w 2019 roku przedstawił Azure Arc[11], technologię pozwalającą na zarządzanie zasobami w chmurach, na brzegach sieci i w lokalnych centrach danych z jednej platformy.

W latach dwudziestych XXI wieku pojawiły się nowe wyzwania (np. w kontekście zużycia energii czy bezpieczeństwa przetwarzania danych), więc coraz więcej firm zaczęło stosować chmury hybrydowe (czyli łączące cechy chmury publicznej i prywatnej) oraz wielochmurowe (czyli korzystające z usług wielu dostawców chmurowych jednocześnie)[12].

Na popularności zaczęły też zyskiwać technologie, takie jak edge computing, czyli przetwarzanie brzegowe, tj. dane przetwarza się bliżej miejsca ich generacji (np. urządzenia IoT), co redukuje opóźnienia i obciążenie sieci[13], także sztuczna inteligencja i uczenie maszynowe w chmurze, których zastosowanie pozwoliło firmom wspiąć się na wyżyny wydajności operacyjnej.

 

 

Udział rozwiązań chmurowych na rynku IT

 

Według danych Grand Viev Research globalny rynek usług chmurowych będzie rósł w tempie 21,2% rocznie między 2024 a 2030 rokiem, a jego wartość w 2023 roku wyniosła 602 miliardy dolarów na całym świecie i wiele wskazuje, że tak dynamiczny wzrost utrzyma się jeszcze przez wiele lat. Współcześnie chmury obliczeniowe opierają się na trzech modelach działania:

  • IaaS, czyli infrastruktura (serwery, pamięć masowa i sieci) jako usługa;
  • PaaS, czyli platforma jako usługa, którą można samodzielnie rozwijać, testować i wdrażać na niej aplikacje;
  • SaaS, czyli oprogramowanie jako usługa – w tym modelu programy dostarcza się przez internet.

Na wymienionych wyżej modelach opiera się działalność trzech gigantów branży chmurowej – według danych Statista w 2024 roku liderem cały czas było Amazon Web Services, z udziałem w rynku wynoszącym około 32%, na drugim miejscu znajdowało się Microsoft Azure z udziałem wynoszącym około 25%, a podium zamykało Google Cloud Platform z udziałem około 11%. Pozostałe 32% rynku zajęte było przez wielu mniejszych graczy, takich jak IBM, Oracle czy Alibaba Cloud.

 

 

Dalszy rozwój architektury chmurowej

 

Czy chmury są nieuniknione? Wiele wskazuje, że tak, a ich rozwój będzie się tylko intensyfikował z roku na rok. A jakie będą jego kierunki? Można być raczej pewnym, że coraz powszechniejsze będą architektury hybrydowe i wielochmurowe – firmy będą łączyć zasoby lokalne z zasobami chmurowymi, żeby korzystać z zalet obu podejść. Jednocześnie będą korzystać z usług różnych dostawców chmurowych, aby uniknąć zależności od jednego.

Można być też pewnym, że wzrośnie popularność edge computingu, co idzie i będzie szło w parze z upowszechnianiem się aplikacji Internetu Rzeczy, inteligentnych urządzeń i innych rozwiązań wymagających szybkiego przetwarzania danych. Eksperci (np. z IBM) przewidują też, że przyszłością architektury chmurowej jest serverless computing, czyli przetwarzanie bezserwerowe, które pozwala uruchamiać kod bez zarządzania serwerami, a użytkownicy płacą tylko za czas wykonania kodu. Może to iść w parze z rozwojem modelu Faas, czyli funkcje jako usługi.

Nikt natomiast nie wątpi, że przyszłe chmury będą w dużym stopniu wykorzystywać sztuczną inteligencję i uczenie maszynowe. Jednocześnie można spodziewać się coraz większej demokratyzacji AI i integracji z aplikacjami biznesowymi. Niewykluczone, że będzie to szło w parze z rozwojem DevOps i popularyzacją rozwiązań takich jak infrastruktura jako kod (IaC).

Pieśnią odległej (choć może bliższej niż się wydaje) przyszłości jest wykorzystanie przetwarzania kwantowego w chmurze, nad czym pracują nie tylko czołowi dostawcy usług chmurowych, ale również uniwersytety i instytucje badawcze. Jeśli stanie się ono rzeczywistością, konieczne będzie zwiększenie bezpieczeństwa danych i ochrony przed cyberatakami, choć będą one ważne także w przypadku „zwykłych”, binarnych chmur.

[1] https://marketing.globuscs.info/production/strapi/uploads/220408_The_History_of_the_Grid_Foster_d494c8440b.pdf

[2]     https://citeseerx.ist.psu.edu/document?repid=rep1&type=pdf&doi=d8738f92bdad12d66a8c443f8466de29db17e023

[3] https://thedissertationexperts.com/assets/documents/Cloud_Computing_History_and_Overview2.pdf

[4]     https://aws.amazon.com/about-aws/our-origins/

[5] https://thedissertationexperts.com/assets/documents/Cloud_Computing_History_and_Overview2.pdf

[6]     https://www.javatpoint.com/history-of-cloud-computing

[7]     https://docs.openstack.org/project-team-guide/introduction.html

[8]     https://www.mdpi.com/2076-3417/8/8/1368

[9]     https://www.ibm.com/blog/kubernetes-history/

[10]   https://docs.aws.amazon.com/managedservices/latest/userguide/outposts.html

[11]   https://azure.microsoft.com/pl-pl/products/azure-arc

[12]   https://www.researchgate.net/profile/Ankur-Bang/publication/323967455_Cloud_Computing_History_Architecture_Security_Issues/links/5ab52b4aa6fdcc46d3b2aa66/Cloud-Computing-History-Architecture-Security-Issues.pdf

[13]   https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=9083958

Porozmawiajmy!

    Wypełnij formularz,
    a my pomożemy Ci wdrożyć najnowsze rozwiązania!