Kevin Deierling zwrócił uwagę na to, że przetwarzanie danych migruje na brzeg sieci.
– Mamy inteligentne karty sieciowe 25 GbE i 100 GbE z procesorami ARM dla aplikacji brzegowych. Zaczynamy więc widzieć hiperwizora działającego na tych małych komputerach – mówił.
Określił hiperkonwergencję jako „ niewidoczną infrastrukturę” – łatwą do wdrożenia i od razu działającą – do czasu aż nie zostanie przeniesiona na maszynę wirtualną. Obecnie, dzięki inteligencji SmartNIC, gdy coś zostanie w sieci przeniesione, pojawia się powiadomienie, a sieć się dostosowuje do zmiany.
Joe Baguley, wiceprezes i dyrektor ds. technologii VMware w regionie EMEA zgodził się co do postrzegania całego centrum danych jako jednego komputera.
– Wielu klientów, z którymi rozmawiamy, nie buduje nowych centrów danych, lecz próbują wydostać się poza centra. Chcą przenosić swoje zasoby do innych ośrodków obliczeniowych …lub po prostu przenieść swoje maszyny wirtualne do jednego z dostawców hostingowych – mówił.
– Ci, którzy budują centra danych, patrzą na rozwiązania kontenerowe spełniające ideę GIFEE [Google Infrastructure For Every Else – red.] – i zastanawiają się, w jaki sposób powstają hiperskalowalne centra danych, by móc stworzyć podobne samemu. Zasadniczo wszystko odbywa się na poziomie oprogramowania. Klienci budujący centra danych na dużą skalę, chcą zestawiać jak klocki Lego komponenty infrastruktury hiperkonwergentnej podłączane do 10-gigabitowych magistral (i stopniowo 40- i 100-gigabitowych), przy czym cała inteligencja zaszyta jest w oprogramowaniu urządzeń – mówił Joe Baguley. – Umożliwia to znacznie wydajniejsze wykorzystywanie sprzętu nie tylko pod kątem zużycia energii. Pozwala uniknąć „zaśmiecania” przez sprzęt kupowany przez lata w firmach na potrzeby konkretnych projektów, podczas gdy właściwy operator chmurowy na platformie zwirtualizowanej może dodawać nowy sprzęt do szaf, tak jak klocki Lego. Najbardziej krytyczne obciążenia automatycznie przechodzą i są obsługiwane przez najnowsze rozwiązania, a stary sprzęt może realizować zadania o niższym priorytecie. Zamiast dużych amplitud w cyklach odświeżania sprzętu, stały proces zmian jest znacznie bardziej wydajny – przekonywał Joe Baguley.
Ksenia Efimova zapytała go, czy takie hiperkonwergentne podejście jest odpowiednie dla wszystkich skoro „obecnie obserwujemy migrację do hiperkonwergencji w zakresie systemów CRM i ERP. Czy ten trend będzie się utrzymywał?”
Według Baguely’a – tak, ale „pod warunkiem, że potrafi się zwirtualizować dany system, będzie on działał na hiperkonwergencji i będzie można praktycznie wszystko zwirtualizować.
– Bariera dla hiperkonwergentnej infrastruktury HCI [hyper-converged infrastructure – red.] bardzo rzadko ma związek z aplikacjami lub oprogramowaniem, które próbujemy uruchomić. To zwykle ludzie nie rozumieją, jak korzystać z HCI. Hiperkonwergentna infrastruktura pozwala budować centrum danych jako jedną dużą maszynę. Praca w sieci, przetwarzanie, przechowywanie – wszystko w jednym – przekonywał Joe Baguley.
Omówienie panelu na podstawie opracowania Lionela Snella z NetEvents.