Cerebras kondigde slechts 6 nieuwe AI -datasters aan die 40 meter per seconde verwerken – en het kan slecht nieuws zijn voor NVIDIA

Word lid van onze dagelijkse en wekelijkse kranten voor exclusieve inhoud over de nieuwste updates en AI-dekking in de industrie. Leer meer
Cerebrum -systeemEen AI-hardware-startup die de dominantie van Nvidia in de kunstmatige intelligentiemarkt voortdurend heeft uitgedaagd, kondigde dinsdag een aanzienlijke uitbreiding van haar datacenter voetafdruk en twee grote enterprise-partnerschappen aan, die in staat is om een belangrijke leverancier van high-speed AI-toegangsdiensten aan het bedrijf te worden.
Het bedrijf zal zes nieuwe AI -datacenters in Noord -Amerika en Europa verbinden, die zijn schattingcapaciteit zullen vergroten tot een twintigste tijd 40 miljoen tokens per seconde. De uitbreiding omvat faciliteiten in Dallas, Minianpolis, Oklahoma City, Montreal, New York en Frankrijk met 85% van de totale capaciteit in de Verenigde Staten.
In een interview met de directeur van de productmarketing in de cerebra’s, in een interview met de VentureBeat: “Dit jaar is ons doel om echt aan alle eisen en alle nieuwe eisen te voldoen, waarvan we hopen dat we hopen dat we aan alle nieuwe eisen zullen voldoen.” “Dit jaar is ons enorme groei -initiatief dat we over de hele linie kijken voor het hele bord om aan de bijna onbeperkte vraag te voldoen.”
De uitbreiding van datacenter vertegenwoordigt de ambitieuze voorwaarde van het bedrijf dat de markt voor snelle AIS-het proces waarbij getrainde AI-modellen output genereren voor real-world applicaties-zullen uit-de-dance groeien naarmate bedrijven snelle opties zoeken voor GPU-gebaseerde oplossingen van NVIDIA.
Strategische deelname
Met de uitbreiding van de infrastructuur kondigde Serbras een partnerschap aan KeelgezichtPopulair AI Developer Platform, en Alfa’sEen marktinformatieplatform wordt veel gebruikt in de financiële dienstverlening.
Keelgezicht Integratie zal zijn vijf miljoen ontwikkelaars toegang hebben Cerebrgy Met één klik, afzonderlijk zonder zich aan te melden voor Cerebra. Het vertegenwoordigt een belangrijk distributiekanaal voor cerebra, vooral werken met een open-source model zoals ontwikkelaars Bel 3.3 70B,,
Wang legde uit: “Knuffelen gezicht is als AI’s Jethab en alle open source AI -ontwikkeling.” “Integratie is super goed en native. U verschijnt gewoon in de lijst van hun schattingen. U checkt eenvoudig het vakje en vervolgens kunt u Serebra onmiddellijk gebruiken. ,,
Het alfabetische partnerschap vertegenwoordigt een belangrijke winst van de onderneming, die het Financial Intelligence-platform schakelt, door Wang beschreven als “Global, Top Three Closed-Sources AI Model Seller”. Het bedrijf, dat ongeveer 85% van de Fortune 100-bedrijven bedient, gebruikt Serbra om zijn AI-beheerde ontdekkingsmogelijkheden voor marktinformatie te versnellen.
“Dit is een enorme overwinning van de klant en een enorm contract voor ons,” zei Wang. “We versnellen ze tot 10x, dus wat gebeurde vijf seconden of langer, oorspronkelijk gevormd op de cerebra.”

Hoe cerebras AI de race wint voor een ingangsnelheid omdat het logische model traag is
Cerebra’s houden zichzelf in positie als een expert in schattingen met hoge snelheid en beweren dat Wafer-Skele-motor (WSE-3) processor AI-modellen kunnen 10 tot 70 keer sneller worden uitgevoerd dan op GPU gebaseerde oplossingen. Deze snelheidswinst is snel waardevol geworden naarmate de AI -modellen zich ontwikkelen naar complexere logische mogelijkheden.
“Als je de opmerkingen van Jensen hoort, is het argument het volgende grote ding, zelfs volgens NVDIA,” zei Wang Jensen Huang, CEO van NVDIA. “Maar wat hij je niet vertelt, is dat de logica het hele ding 10 keer vertraagt omdat het model moet denken en een stel innerlijke monoloog moet produceren, voordat hij je een laatste antwoord geeft.”
Deze recessie creëert een kans voor Cerebra, wiens speciale hardware is ontworpen om deze meer complexe AI -workloads te versnellen. Het bedrijf heeft al spraakmakende klanten beveiligd Specialiteit AI En Je hebt mistralDegenen die cerebra’s gebruiken om respectievelijk hun AI -zoek- en ondersteuningsproducten kracht te geven.
“We helpen om de snelste AI -zoekmachine ter wereld te worden. Dit is niet alleen anders mogelijk, ‘zei Wang. “We helpen mistral om dezelfde prestatie te bereiken. Nu hebben ze een reden om zich te abonneren op Le Chat Pro met mensen, terwijl eerder je model waarschijnlijk niet dezelfde staat heeft -van het -art niveau als gpt -4. ,,

De meeslepende economie achter de uitdaging van cerebra’s uitdagingen Openai en Nvidia
Cerebra’s wedden dat een combinatie van snelheid en kosten zijn inactiviteitsdiensten ook aantrekkelijk maakt voor bedrijven die belangrijke modellen zoals GPT -4 gebruiken.
Wang vertelde die meta Bel 3.3 70BEen open -source -model dat Serbrace heeft aangepast aan haar hardware, scoort nu hetzelfde op intelligentietests als GPT -4 van Opena, terwijl hardlopen vrij laag is om te worden uitgevoerd.
“Degene die vandaag GPT-4 gebruikt, kan gewoon naar Lama 3.3 70B gaan als een drop-in vervanging,” legde hij uit. De prijs van GPT-4 is ongeveer $ 4,40 aan gemengde woorden. En de Lama is als 3,3 60 cent. We zijn ongeveer 60 cent, toch? Dus u verlaagt de kosten bijna vanaf een reeks grootte. En als u Cerealbra gebruikt, verhoogt u de snelheid in een andere volgorde van grootte. ,,
Insloeg
Het bedrijf investeert voldoende in flexibele infrastructuur als onderdeel van zijn uitbreiding. De faciliteit van zijn Oklahoma City, die in juni 2025 online komt, is ontworpen voor extreme weersevenementen.
“Oklahoma is, zoals u weet, een soort tornado -regio. Dus dit datacenter is daadwerkelijk beoordeeld en ontworpen om volledig resistent te zijn tegen tornado en seismische activiteit, ‘zei Wang. “Het zal bestand zijn tegen de sterkste tornado die op records is vastgelegd. Als dat ding door een bus gaat, stuurt dit ding alleen Lama -tokens naar de ontwikkelaars. ,,
De faciliteit van Oklahoma City zal meer dan 300 cerebra zijn CS -3 -systeem En drievoudige vruchteloze power stations en aangepaste waterkoelingsoplossingen zijn specifiek ontworpen voor het wafel-skele-systeem van Cerebra.

Van scepsis tot marktleiderschap: hoe cerebras de waarde bewijst
De vandaag aangekondigde uitbreiding en partnerschap vormen een belangrijke mijlpaal voor Serebra, die werkt om zich te bewijzen in de AI -hardwaremarkt. Nvidia,,
Wang zei: “Ik denk dat er de juiste twijfel was over de opname van de klant, misschien toen we voor het eerst lanceerden, denk ik dat ik nu helemaal op het bed ben gezet, alleen maar naar de diversiteit van de mensen,” zei Wang.
Het bedrijf richt zich op drie specifieke gebieden waar snelle schattingen de hoogste waarde bieden: real -time spraak- en video -verwerking, logische model en coderingstoepassing.
Wang legde uit: “Codering is een van dergelijke argumenten en regelmatige Q&A die alle codes waarschijnlijk van 30 seconden tot een minuut neemt.” “De snelheid is recht evenredig met de productiviteit van de ontwikkelaar. Daarom is het belangrijk vanwege snelheid. ,,
In plaats van te concurreren in alle AI -workloads, heeft Serebra door zich te concentreren op schattingen met hoge snelheid een niche gevonden waar het ook leiderschap kan claimen bij de grootste cloudproviders.
“Niemand concurreert meestal tegen AWS en Azure op hun schaal. We bereiken duidelijk geen volledige schaal zoals zij, maar om een groot segment te kunnen repliceren … Op het front van de hoge snelheid infectie zullen we meer capaciteit hebben dan zij, “zei Wang.
Waarom de in de VS gecentreerde uitbreiding van cerebra’s van belang is voor AI Soevereiniteit en toekomstige aanklacht
De uitbreiding komt op een moment dat de AI-industrie zich snel richt op schattingen, omdat bedrijven verder gaan experimenteren met generieke AI, om het in productieapplicaties te implementeren waar snelheid en kostenverdediging belangrijk zijn.
Met 85% van de geschatte capaciteit in de Verenigde Staten, neemt Cerebras zichzelf ook als een belangrijke speler in het nastreven van binnenlandse AI -infrastructuur in een tijd waarin de technische soevereiniteit een nationale prioriteit is geworden.
In de aankondiging van het bedrijf, COO van Cerebras Systems, zei Dhiraj Mallik: “Cerebras is turbo met een ongeëvenaarde prestaties, schaal en efficiëntie – deze nieuwe wereldwijde datasters AI zullen dienen als backbones voor de volgende golf van innovatie.”
Als rationeel model Deepsek R1 En O3 van Openai Ze komen vaker voor, de vraag naar snelle schattingsoplossingen zal waarschijnlijk toenemen. Deze modellen, die minuten kunnen duren om antwoorden op traditionele hardware te genereren, werken volgens het bedrijf nauw op het cerebra -systeem.
Voor technische beslissingsfabrikanten die AI-infrastructuuropties evalueren, is de uitbreiding van cerebra’s een belangrijke nieuwe optie voor op GPU gebaseerde oplossingen, met name voor toepassingen waar de responstijd belangrijk is voor gebruikerservaring.
Kan het bedrijf de dominantie van Nvidia op de bredere AI -hardwaremarkt echt uitdagen, het valt nog te bezien, maar de aandacht op schattingen met hoge snelheid en adequate infrastructuurinvestering toont een duidelijke strategie om een waardevol deel van het snel -groeiende AI -landschap uit te sluiten.
Bronlink