Wydatki na przełączniki wdrażane w sieciach AI back-end zwiększą o 50 proc. rynek przełączników dla centrów danych (ang. data center switch), przewidują analitycy Dell’Oro Group w raporcie AI Networks for AI Workloads Advanced Research Report.
Obecne wydatki na rynku przełączników do centrów danych dotyczą sieci front-end używanych głównie do łączenia serwerów ogólnego przeznaczenia. Obciążenia AI będą wymagały rozbudowy nowej infrastruktury back-endowej. Konkurencja między InfiniBand i Ethernet zaostrza się, gdy producenci walczą o dominację na rynku sieci AI back-end. Dell’Oro przewiduje, że technologia InfiniBand utrzyma pozycję lidera, natomiast Ethernet zyska 20 punktów udziału w przychodach do 2027 r.
– Aplikacje GenAI rozpoczynają nową erę w erze sztucznej inteligencji, wyróżniając się ogromną liczbą parametrów, z którymi muszą sobie poradzić. Kilka dużych aplikacji AI obsługuje obecnie biliony parametrów, a liczba ta rośnie dziesięciokrotnie rocznie. Ten szybki rozwój wymaga wdrożenia tysięcy, a nawet setek tysięcy tzw. accelerated nodes (węzły zapewniające akcelerację mocy obliczeniowej). Łączenie ich w dużych klastrach wymaga odpowiedniej infrastruktury data center, zwanej siecią AI back-end, która różni się od tradycyjnej sieci front-end używanej głównie do łączenia serwerów ogólnego przeznaczenia – powiedziała cytowana w komunikacie Sameh Boujelbene, wiceprezes Dell’Oro Group.
Jaka będzie optymalna technologia do obsługi accelerated nodes? – Można argumentować, że Ethernet jest o jedną generację prędkości szybszy od InfiniBand. Szybkość sieci nie jest jednak jedynym czynnikiem. Ważne są również kontrola przeciążeń sieci oraz adaptacyjne mechanizmy routingu – zaznacza Boujelbene.
Sieci AI przyspieszą przechodzenie na wyższe prędkości. Dell’Oro prognozuje, że do 2025 r. prędkość 800 Gb/s będzie stanowić większość portów w sieciach AI back-end.
Większość popytu na rynku będzie pochodzić od dostawców usług chmurowych Tier 1. W segmencie dostawców Tier 2/3 i dużych przedsiębiorstw preferowany będzie Ethernet.