Według Philipa Griffithsa, dyrektora ds. partnerstw w regionie EMEA w firmie NetFoundry, najpierw należy określić strategię i cele w zależności od tego, do czego ma służyć centrum danych:
– Czy chcesz zbudować hiperskalowalne data center? A może serwerownię dla lokalnego oddziału przedsiębiorstwa, przechowującego dane w danym kraju? A może, żeby zmniejszyć opóźnienia, chcesz przetwarzać dane lokalnie na brzegu sieci albo dane IoT, do czego wystarczy kilka serwerów kasetowych lub stelażowych do szaf rack? – mówił.
Według niego, wówczas klient powinien otrzymać dedykowane rozwiązania z uwzględnieniem wcześniej już wspomnianych aspektów, takich jak: ograniczanie zużycia energii, wykorzystanie automatyzacji, sztucznej inteligencji i rozwiązań definiowanych programowo (ang. software defined), co pozwoli do minimum ograniczyć konieczność wzywania serwisu i napraw ręcznych.
Podejście holistyczne
Kevin Deierling, dyrektor ds. marketingu w Mellanox Technologies, zaproponował holistyczne podejście. W dawnych czasach zgodnie z prawem Moore'a można było liczyć na podwajanie wydajności komputerów co kilka lat, dzięki czemu procesory mogły po prostu absorbować całe oprogramowanie, co pozwalało... pisać nieefektywne aplikacje. W dawnych czasach router Cisco przekazywał pakiety za pomocą oprogramowania.
– Dzisiaj dostarczamy przełączniki z portami 100 GbE czy 400 GbE. Potrzebujemy hybrydowego sprzętu i oprogramowania ASIC, aby przyspieszyć działanie maszyn wirtualnych i pracę firewalli oraz zrównoważyć obciążenia itp. – mówił Kevin Deierling.
Decyzje dotyczące polityk nadal muszą podlegać kluczowym zasadom zarządzania ruchem w sieci.
– Inteligencja wciąż musi być na najwyższym poziomie; i tak naprawdę to, o czym lubimy myśleć, to optymalizacja na poziomie centrum danych. Nie optymalizuj na poziomie pojedynczych urządzeń, ale na całej platformie obejmującej serwery, pamięci masowe, sieci i aplikacje. Myśl holistycznie. Centrum danych to komputer. Rozwiązuj rzeczy na tym poziomie – zalecał Deierling.
Kolejnym dyskutowanym tematem była kwestia migracji przetwarzania danych i inteligencji na brzeg sieci. Philip Griffiths podał przykład 5G IoT – „choć początkowo sugerowano, że wszystko zostanie połączone z chmurą, to zamiast tego stawia się na architekturę wielopoziomową obejmującą duże chmurowe centra danych, regionalne data center w chmurze oraz lokalne centra danych na brzegu sieci, a także bramy IoT realizujące lokalne operacje”.