Cisco har lanserat nya nätverkschip i Silicon One-serien, som är byggda för att effektivt hantera de massiva datamängder som den snabba tillväxten av AI-tillämpningar innebär.
Den nya chipgenerationen testas nu av fem av de sex största molnföretagen, uppger Cisco.
Enligt Cisco är en förutsättning för att den snabba utvecklingen för AI-baserade applikationer ska kunna fortsätta att hårdvaran också utvecklas. De processorer som idag är bäst lämpade för att hantera den typen av uppgifter är vidareutvecklade från grafikprocessorn (GPU), som är byggd för att klara av komplexa beräkningar på ett mer effektivt sätt. De egenskaperna gör dem ideala för att träna olika bas- och språkmodeller för AI utifrån stora datamängder.
Den första generationen Silicon One-chips lanserades i december 2019, och G200 och G202, som den nya generationens nätverkschip heter, utgör den fjärde generationen. De bygger på en egenutvecklad enhetlig ASIC-arkitektur som, enligt Cisco, erbjuder stora fördelar för programmerbarhet och funktionalitet, skalbarhet och energieffektivitet.
De kan koppla samman upp till 32 000 GPU-processorer och dubblar prestandan jämfört med föregående generation, enligt Cisco. Cisco beräknar att de nya chipen kommer att kunna täcka dagens behov av AI- och maskininlärningsuppgifter med 40 procent färre enheter, 50 procent mindre nätverksoptik och lägre latens, vilket också minskar energiförbrukningen och ger utrymme för fortsatt effektiv och hållbar utbyggnad av kapacitet. Överföringsprestandan uppgår till 51.2 terabit per sekund.
”Cisco Silicon One G200 och G202 är i en unik position på marknaden, med avancerade funktioner för att optimera realtidsprestanda för AI- och ML-worklods – samtidigt som de pressar ner kostnaden, elförbrukningen och nätverkslatensen med framstående innovationer”, säger Rakesh Chopra, expert på hårdvaruarkitektur på Cisco, i ett blogginlägg.