Samen AI’s $ 305 miljoen weddenschap: redeneermodellen zoals Deepseek-R1 nemen toe, niet afnemende, GPU-vraag

Word lid van onze dagelijkse en wekelijkse nieuwsbrieven voor de nieuwste updates en exclusieve inhoud over toonaangevende AI-dekking. Leer meer
Toen Deepseek-R1 voor het eerst naar voren kwam, was de heersende angst dat de industrie schudde dat geavanceerde redenering kon worden bereikt met minder infrastructuur.
Het blijkt dat dat niet noodzakelijkerwijs het geval is. Tenminste, volgens Samen aide opkomst van Deepseek en Open-Source-redenering heeft precies het tegenovergestelde effect gehad: in plaats van de behoefte aan infrastructuur te verminderen, verhoogt het deze.
Die toegenomen vraag heeft bijgedragen aan de groei van samen AI’s platform en bedrijf. Vandaag kondigde het bedrijf een financieringsronde van $ 305 miljoen aan, geleid door General Catalyst en mede-geleid door Prosperity7. Samen ontstonden AI voor het eerst in 2023 met als doel het gebruik van het bedrijf van open-source grote taalmodellen (LLMS) te vereenvoudigen. Het bedrijf breidde zich uit in 2024 met het samenvraagplatform samen, dat AI-implementatie mogelijk maakt in Virtual Private Cloud (VPC) en on-premises omgevingen. In 2025 groeit AI opnieuw zijn platform met redeneringsclusters en agentische AI -mogelijkheden.
Het bedrijf beweert dat zijn AI-implementatieplatform meer dan 450.000 geregistreerde ontwikkelaars heeft en dat het bedrijf al het jaar op jaarbasis 6x is gegroeid. De klanten van het bedrijf zijn onder andere ondernemingen en AI -startups zoals Krea AI, Captions en Pika Labs.
“We dienen nu modellen in alle modaliteiten: taal en redeneren en afbeeldingen en audio en video,” vertelde Vipul Prakash, CEO van Together AI, aan VentureBeat.
De enorme impact Deepseek-R1 heeft op de vraag naar AI-infrastructuur
Deepseek-R1 was enorm verstorend toen het voor het eerst debuteerde, om een aantal redenen-waarvan er één de implicatie was dat een voorrand open-source redeneermodel kon worden gebouwd en geïmplementeerd met minder infrastructuur dan een eigen model.
Prakash legde echter uit dat AI samen zijn infrastructuur gedeeltelijk heeft gegroeid om de verhoogde vraag naar Deepseek-R1 gerelateerde werklast te ondersteunen.
“Het is een vrij duur model om conclusie te doen”, zei hij. “Het heeft 671 miljard parameters en u moet het verspreiden over meerdere servers. En omdat de kwaliteit hoger is, is er over het algemeen meer vraag aan de bovenkant, wat betekent dat u meer capaciteit nodig hebt. “
Bovendien merkte hij op dat Deepseek-R1 over het algemeen langer levende verzoeken heeft die twee tot drie minuten kunnen duren. De enorme vraag naar gebruikers naar Deepseek-R1 is verder de behoefte aan meer infrastructuur.
Om aan die vraag te voldoen, heeft AI samen een service uitgerold die het ‘redeneerclusters’ noemt die de gewijdde capaciteit, variërend van 128 tot 2.000 chips, om modellen uit te voeren met de best mogelijke prestaties.
Hoe samen AI organisaties helpen om redeneren te gebruiken AI
Er zijn een aantal specifieke gebieden waar samen AI het gebruik van redeneermodellen zien. Deze omvatten:
- Codeeragenten: Redeneringsmodellen helpen grotere problemen in stappen af te breken.
- Hallucinaties verminderen: Het redeneringsproces helpt om de output van modellen te verifiëren, waardoor hallucinaties worden verminderd, wat belangrijk is voor toepassingen waar nauwkeurigheid cruciaal is.
- Verbetering van niet-herhalende modellen: Klanten destilleren en verbeteren de kwaliteit van niet-herhalingsmodellen.
- Zelfverbetering mogelijk maken: Het gebruik van versterkingsonderwijs met redeneringsmodellen stelt modellen in staat om recursief zelf te verbinden zonder te vertrouwen op grote hoeveelheden door mensen gelabelde gegevens.
Agentische AI stimuleert ook een grotere vraag naar AI -infrastructuur
Samen ziet AI ook een verhoogde vraag naar infrastructuur, omdat de gebruikers agentische AI omarmen.
Prakash legde uit dat agentische workflows, waarbij een enkel gebruikersverzoek resulteert in duizenden API -oproepen om een taak te voltooien, een meer rekenvraag op de infrastructuur van AI stellen.
Om Agentic AI -workloads te ondersteunen, heeft AI onlangs samen overgenomen Codes en boxwiens technologie lichtgewicht, snel opstartende virtuele machines (VM’s) biedt om willekeurige, beveiligde code binnen de AI-cloud samen uit te voeren, waar ook de taalmodellen zich bevinden. Hierdoor kunnen AI de latentie tussen de agentische code en de modellen die moeten worden opgeroepen, de prestaties van agentische workflows verbeteren.
Nvidia Blackwell heeft al een impact
Alle AI -platforms worden geconfronteerd met verhoogde eisen.
Dat is een van de redenen waarom Nvidia nieuw silicium blijft uitrollen dat meer prestaties biedt. De nieuwste productchip van Nvidia is de Blackwell GPU, die nu wordt ingezet bij samen AI.
Prakash zei dat Nvidia Blackwell -chips ongeveer 25% meer kosten dan de vorige generatie, maar 2x de prestaties biedt. Het GB 200-platform met Blackwell-chips is bijzonder goed geschikt voor training en gevolgtrekking van de mix van deskundige (MOE) -modellen, die zijn getraind in meerdere Infiniband-verbonden servers. Hij merkte op dat Blackwell -chips ook naar verwachting een grotere prestatieboost zullen bieden voor de inferentie van grotere modellen, vergeleken met kleinere modellen.
Het competitieve landschap van agentische AI
De markt van AI -infrastructuurplatforms is fel concurrerend.
Samen wordt AI geconfronteerd met concurrentie van zowel gevestigde cloudproviders als AI -infrastructuurstartups. Alle hyperscalers, inclusief Microsoft, AWS en Google, hebben AI -platforms. Er is ook een opkomende categorie AI-focussed spelers zoals GROQ en Samba Nova die allemaal streven naar een stukje lucratieve markt.
Samen heeft AI een full-stack-aanbod, inclusief GPU-infrastructuur met softwareplatformlagen bovenaan. Hierdoor kunnen klanten gemakkelijk bouwen met open-source modellen of hun eigen modellen op het AI-platform samen ontwikkelen. Het bedrijf heeft ook een focus op het ontwikkelen van optimalisaties en versnelde runtimes voor zowel inferentie als training.
“We dienen bijvoorbeeld het Deepseek-R1-model op 85 tokens per seconde en Azure dient het op 7 tokens per seconde,” zei Prakash. “Er is een redelijk vermeend gat in de prestaties en kosten die we onze klanten kunnen bieden.”
Source link