Toernooien

Deepseek is opener geworden


Het is iets meer dan een week geleden dat Deepseek de AI -wereld heeft opgebruikt. De introductie van zijn open gewichtsmodel-blijkbaar getraind op een fractie van de gespecialiseerde computerchips die leiders van de industrie van de industrie-hebben schokgolven in Openai afgezet. Werknemers beweerden niet alleen hints te zien dat Deepseek de modellen van Openai ten onrechte had gedistilleerd om zichzelf te creëren, maar het succes van de startup liet zich afvragen of bedrijven als Openai wild te veel uitgeven aan de reken.

“Deepseek R1 is het sputnik -moment van AI”, schreef Marc Andreessen, een van de meest invloedrijke en provocerende uitvinders van Silicon Valley, op x.

In reactie daarop bereidt Openai zich voor op het lanceren van een nieuw model vandaag, voorafgaand aan het oorspronkelijk geplande schema. Het model, O3-Mini, zal zowel in API als in Chat debuteren. Bronnen zeggen dat het O1-niveaus redeneren heeft met snelheid op 4O-level. Met andere woorden, het is snel, goedkoop, slim en ontworpen om Deepseek te verpletteren.

Het moment heeft Galvanised Openai -personeel. Binnen het bedrijf is er een gevoel dat – met name als Deepseek het gesprek domineert – Openai efficiënter moet worden of het risico lopen achter op zijn nieuwste concurrent te raken.

Een deel van het probleem komt voort uit de oorsprong van Openai als een non-profit onderzoeksorganisatie voordat hij een winstzoekende krachtpatser wordt. Een voortdurende machtsstrijd tussen het onderzoek en de productgroepen, beweren werknemers, heeft geresulteerd in een kloof tussen de teams die werken aan geavanceerd redeneren en degenen die aan chat werken. (Openai -woordvoerder Niko Felix zegt dat dit “onjuist” is en merkt op dat de leiders van deze teams, Chief Product Officer Kevin Weil en Chief Research Officer Mark Chen, “Every Wek afspreken en nauw samenwerken om product- en onderzoeksprioriteiten af ​​te stemmen.”)

Sommigen binnen Openai willen dat het bedrijf een uniform chatproduct bouwt, een model dat kan zien of een vraag geavanceerd redeneren vereist. Tot nu toe is dat niet gebeurd. In plaats daarvan vraagt ​​een vervolgkeuzemenu in ChatGPT gebruikers om te beslissen of ze GPT-4O (“Geweldig voor de meeste vragen”) of O1 willen gebruiken (“GEVANGENDE GEVAKTE REDENING”).

Sommige medewerkers beweren dat, hoewel CHAT het leeuwendeel van de omzet van Openai oplevert, O1 meer aandacht krijgt – en bronnen berekenen – van leiderschap. “Leiderschap geeft niet om chat”, zegt een voormalige medewerker die aan (je raadt het raadt het) chat. “Iedereen wil aan O1 werken omdat het sexy is, maar de codebasis is niet gebouwd voor experimenten, dus er is geen momentum.” De voormalige werknemer vroeg om anoniem te blijven, onder verwijzing naar een niet -onthullingsovereenkomst.

Openai heeft jarenlang geëxperimenteerd met het leren van versterking om het model te verfijnen dat uiteindelijk het geavanceerde redeneringssysteem werd genaamd O1. (Versterkingsonderwijs is een proces dat AI -modellen traint met een systeem van boetes en beloningen.) Deepseek bouwde het leerwerkzaamheden op dat Openai had pionier om zijn geavanceerde redeneringssysteem te creëren, R1 genoemd. “Ze profiteerden van het weten dat versterking leren, toegepast op taalmodellen, werken,” zegt een voormalige Openai -onderzoeker die niet bevoegd is om publiekelijk over het bedrijf te spreken.

“Het versterking van het versterking (Deepseek) deed vergelijkbaar met wat we bij Openai deden”, zegt een andere voormalige Openai -onderzoeker, “maar ze deden het met betere gegevens en schonere stapel.”

Openai -medewerkers zeggen dat onderzoek dat naar O1 ging, werd gedaan in een codebasis, de “Berry” -stapel genaamd, gebouwd voor snelheid. “Er waren afwegingen-experimentele strengheid voor doorvoer”, zegt een voormalige werknemer met directe kennis van de situatie.

Die afwegingen waren logisch voor O1, wat in wezen een enorm experiment was, ondanks de beperkingen van de codebasis. Ze waren niet zo logisch voor chat, een product dat door miljoenen gebruikers werd gebruikt dat was gebouwd op een andere, betrouwbaardere stapel. Toen O1 werd gelanceerd en een product werd, begonnen scheuren te ontstaan ​​in de interne processen van Openai. “Het was als:” Waarom doen we dit in de experimentele codebase, moeten we dit niet doen in de hoofdproductonderzoekscodebase? “, Legt de werknemer uit. “Daar was een grote pushback voor.”



Source link

Related Articles

Back to top button