Toernooien

Grote taaloverkill: hoe SLM’s hun grotere, hulpbronnenintensieve neven kunnen verslaan


Sluit u aan bij onze dagelijkse en wekelijkse nieuwsbrieven voor de laatste updates en exclusieve inhoud over toonaangevende AI-dekking. Meer informatie


Twee jaar na de publieke release van ChatGPT zijn gesprekken over AI onontkoombaar nu bedrijven in elke sector grote taalmodellen (LLM’s) willen inzetten om hun bedrijfsprocessen te transformeren. Maar hoe krachtig en veelbelovend LLM’s ook zijn, veel bedrijfs- en IT-leiders zijn er te veel op gaan vertrouwen en hebben de beperkingen ervan over het hoofd gezien. Dit is de reden waarom ik een toekomst verwacht waarin gespecialiseerde taalmodellen, of SLM’s, een grotere, complementaire rol zullen spelen in de IT van ondernemingen.

SLM’s worden vaker ‘kleine taalmodellen’ genoemd omdat ze minder gegevens en trainingstijd vereisen en ‘meer gestroomlijnde versies van LLM’s’ zijn. Maar ik geef de voorkeur aan het woord ‘gespecialiseerd’ omdat het beter het vermogen van deze speciaal gebouwde oplossingen weergeeft om zeer gespecialiseerd werk met grotere nauwkeurigheid, consistentie en transparantie uit te voeren dan LLM’s. Door LLM’s aan te vullen met SLM’s kunnen organisaties oplossingen creëren die profiteren van de sterke punten van elk model.

Vertrouwen en het LLM ‘black box’-probleem

LLM’s zijn ongelooflijk krachtig, maar staan ​​er ook om bekend dat ze soms ‘het plot verliezen’ of resultaten bieden die uit de koers raken vanwege hun generalistische training en enorme datasets. Deze tendens wordt nog problematischer gemaakt door het feit dat OpenAI’s ChatGPT en andere LLM’s in wezen ‘zwarte dozen’ zijn die niet onthullen hoe ze tot een antwoord komen.

Dit black box-probleem zal in de toekomst een groter probleem worden, vooral voor bedrijven en bedrijfskritische applicaties waar nauwkeurigheid, consistentie en compliance voorop staan. Beschouw de gezondheidszorg, de financiële dienstverlening en de juridische sector als uitstekende voorbeelden van beroepen waarin onnauwkeurige antwoorden enorme financiële gevolgen en zelfs levenslange gevolgen kunnen hebben. Regelgevende instanties merken dit al op en zullen waarschijnlijk verklaarbare AI-oplossingen gaan eisen, vooral in sectoren die afhankelijk zijn van gegevensprivacy en nauwkeurigheid.

Hoewel bedrijven vaak een ‘human-in-the-loop’-aanpak hanteren om deze problemen te verzachten, kan een te grote afhankelijkheid van LLM’s leiden tot een vals gevoel van veiligheid. Na verloop van tijd kan er zelfgenoegzaamheid ontstaan ​​en kunnen fouten onopgemerkt doorglippen.

SLM’s = grotere verklaarbaarheid

Gelukkig zijn SLM’s beter geschikt om veel van de beperkingen van LLM’s aan te pakken. In plaats van te zijn ontworpen voor taken voor algemene doeleinden, worden SLM’s ontwikkeld met een beperktere focus en getraind op domeinspecifieke gegevens. Dankzij deze specificiteit kunnen ze omgaan met genuanceerde taalvereisten op gebieden waar precisie van het grootste belang is. In plaats van te vertrouwen op enorme, heterogene datasets, worden SLM’s getraind op gerichte informatie, waardoor ze de contextuele intelligentie krijgen om consistentere, voorspelbaardere en relevantere antwoorden te geven.

Dit biedt verschillende voordelen. Ten eerste zijn ze beter verklaarbaar, waardoor het gemakkelijker wordt om de bron en de reden achter hun resultaten te begrijpen. Dit is van cruciaal belang in gereguleerde sectoren waar beslissingen moeten worden herleid tot een bron.

Ten tweede betekent hun kleinere formaat dat ze vaak sneller kunnen presteren dan LLM’s, wat een cruciale factor kan zijn voor realtime toepassingen. Ten derde bieden SLM’s bedrijven meer controle over gegevensprivacy en -beveiliging, vooral als ze intern worden ingezet of specifiek voor de onderneming worden gebouwd.

Hoewel SLM’s in eerste instantie mogelijk een gespecialiseerde training vereisen, verminderen ze bovendien de risico’s die gepaard gaan met het gebruik van LLM’s van derden die worden beheerd door externe aanbieders. Deze controle is van onschatbare waarde in toepassingen die strikte gegevensverwerking en naleving vereisen.

Focus op het ontwikkelen van expertise (en wees op uw hoede voor leveranciers die te veel beloven)

Ik wil duidelijk zijn dat LLM’s en SLM’s elkaar niet uitsluiten. In de praktijk kunnen SLM’s LLM’s aanvullen, waardoor hybride oplossingen ontstaan ​​waarbij LLM’s een bredere context bieden en SLM’s een nauwkeurige uitvoering garanderen. Het is ook nog in de kinderschoenen, zelfs als het om LLM’s gaat, dus ik raad technologieleiders altijd aan om de vele mogelijkheden en voordelen van LLM’s te blijven onderzoeken.

Hoewel LLM’s goed kunnen worden geschaald voor een verscheidenheid aan problemen, zijn SLM’s bovendien mogelijk niet goed over te dragen naar bepaalde gebruiksscenario’s. Het is daarom belangrijk om vooraf duidelijk te hebben welke use cases moeten worden aangepakt.

Het is ook belangrijk dat bedrijfs- en IT-leiders meer tijd en aandacht besteden aan het opbouwen van de specifieke vaardigheden die nodig zijn voor het trainen, verfijnen en testen van SLM’s. Gelukkig is er veel gratis informatie en training beschikbaar via gemeenschappelijke bronnen zoals Coursera, YouTube en Huggingface.co. Leiders moeten ervoor zorgen dat hun ontwikkelaars voldoende tijd hebben om te leren en te experimenteren met SLM’s naarmate de strijd om AI-expertise heviger wordt.

Ik adviseer leiders ook om partners zorgvuldig te onderzoeken. Ik sprak onlangs met een bedrijf dat mijn mening vroeg over de claims van een bepaalde technologieleverancier. Mijn mening was dat ze óf hun beweringen overdreef óf simpelweg te ver gingen in het begrijpen van de mogelijkheden van de technologie.

Het bedrijf deed wijselijk een stap terug en implementeerde een gecontroleerde proof-of-concept om de claims van de leverancier te testen. Zoals ik al vermoedde, was de oplossing simpelweg niet klaar voor prime time en kon het bedrijf weglopen met relatief weinig geïnvesteerde tijd en geld.

Of een bedrijf nu begint met een proof-of-concept of een live implementatie, ik raad ze aan om klein te beginnen, vaak te testen en voort te bouwen op vroege successen. Ik heb persoonlijk ervaring met het werken met een kleine set instructies en informatie, maar merkte dat de resultaten uit de koers raakten als ik het model vervolgens meer informatie gaf. Daarom is langzaam en stabiel een verstandige aanpak.

Samenvattend: hoewel LLM’s steeds waardevollere capaciteiten zullen blijven bieden, worden hun beperkingen steeds duidelijker naarmate bedrijven hun afhankelijkheid van AI opschalen. Aanvulling met SLM’s biedt een weg voorwaarts, vooral op terreinen waar veel op het spel staat en die nauwkeurigheid en uitlegbaarheid vereisen. Door te investeren in SLM’s kunnen bedrijven hun AI-strategieën toekomstbestendig maken en ervoor zorgen dat hun tools niet alleen innovatie stimuleren, maar ook voldoen aan de eisen van vertrouwen, betrouwbaarheid en controle.

AJ Sunder is mede-oprichter, CIO en CPO bij Responsive.

DataBeslissers

Welkom bij de VentureBeat-community!

DataDecisionMakers is de plek waar experts, inclusief de technische mensen die datawerk doen, datagerelateerde inzichten en innovatie kunnen delen.

Als u meer wilt lezen over de allernieuwste ideeën en actuele informatie, best practices en de toekomst van data en datatechnologie, sluit u dan aan bij DataDecisionMakers.

Je zou zelfs kunnen overwegen om zelf een artikel bij te dragen!

Lees meer van DataDecisionMakers



Source link

Related Articles

Back to top button