Waarom werknemers AI aan het werk smokkelen

Technologieverslaggever

John, een software -ingenieur van het technologiebedrijf voor financiële dienstverlening, zegt: “Het is gemakkelijk om vergeving te ontvangen in vergelijking met toestemming.” ‘Ga er gewoon mee. En als je later in de problemen komt, maak het het schoon.’
Hij is een van de vele mensen die hun eigen AI -tools op het werk gebruiken zonder toestemming van hun IT -divisie (daarom gebruiken we John’s volledige naam niet).
Volgens een enquête Door software AG gebruikt de helft van alle kenniswerkers individuele AI -apparatuur.
Onderzoekskennis definieert werknemers als “voornamelijk bureau of computers”.
Dit is voor sommigen omdat hun IT -team geen AI -tools aanbiedt, terwijl anderen zeiden dat ze hulpmiddelen van hun keuze wilden.
John’s Company biedt GitHub Copilot voor AI-ondersteunde softwareontwikkeling, maar ze geeft de voorkeur aan cursor.
“Het is nogal een fantastische automatische compleet, maar het is geweldig,” zeggen ze. “Het voltooit 15 regels tegelijk, en dan kijk je ernaar en zeg:” Ja, dat is wat ik heb vastgebonden “. Het bevrijdt je. Je voelt je vloeiend.”
Hij zegt dat hun ongeoorloofde gebruik geen beleid schendt, het is gemakkelijk om een lang goedkeuringsproces te riskeren, zeggen ze. “Ik ben erg lui en betaal goed om kosten na te streven”, zegt hij.
Het advies van John is dat bedrijven flexibel zijn in hun keuze van AI -tools. “Ik vraag mensen op het werk om de teamlicentie niet voor een jaar per jaar te verlengen, omdat het hele landschap in drie maanden verandert”, zeggen ze. “Iedereen wil iets anders doen en zal vastzitten aan de kosten van zinken.”
Een recente release van een onafhankelijk beschikbaar AI -model Deepsek uit China zal waarschijnlijk alleen de AI -opties uitbreiden.
Peter (niet zijn echte naam) is een productmanager in een gegevensopslagbedrijf, dat zijn mensen Google Gemini AI -chatbot aanbiedt.
Externe AI -tools zijn verboden, maar de Peter Search Tool gebruikt chats via Kagi. Hij vindt dat het grootste voordeel van AI voortkomt uit het uitdagen van zijn denken wanneer hij Chatbot vraagt om te reageren op zijn plannen vanuit verschillende klantperspectieven.
“AI geeft je niet zoveel antwoord, omdat je een zeldzame metgezel geeft”, zegt hij. “Als productmanager hebt u veel verantwoordelijkheid en hebt u niet veel goede verkooppunten om de strategie openlijk te bespreken. Deze apparaten zorgen voor een ongeschikt en onbeperkt vermogen.”
De versie van de chat gebruikt (4o) die de video kan analyseren. “Je kunt een samenvatting krijgen van de video van de deelnemers en een volledig gesprek over de punten in de video (met de AI -tool) en hoe ze elkaar overlappen met hun eigen producten.”
In een chatgesprek van 10 minuten kan hij het materiaal bekijken waarin het twee of drie uur duurt om de video te bekijken.
Ze schatten dat hun verhoogde productiviteit gelijk is aan het bedrijf dat gratis voor een extra persoon werkt.
Ze weten niet zeker waarom het bedrijf externe AI heeft verboden. “Ik denk dat dit een controle is,” zeggen ze. “Bedrijven willen zeggen welke apparaten hun werknemers gebruiken. Dit is een nieuwe marginale en ze willen gewoon conservatief worden.”
Het gebruik van ongeautoriseerde AI -toepassingen wordt soms ‘schaduw AI’ genoemd. Het is een meer specifieke versie van ‘Shadow IT’, die zich voordoet wanneer een persoon software of services gebruikt die de IT -afdeling niet heeft goedgekeurd.
Hormonische veiligheidsschaduwen helpen AI te identificeren en helpen voorkomen dat bedrijfsgegevens onjuist worden opgenomen in de AI -tool.
Het volgt meer dan 10.000 AI -apps en is in meer dan 5.000 van hen gezien.
Deze omvatten de aangepaste versies van chatgpt en commerciële software, het toevoegen van AI -functies, zoals de communicatieapparatuur Slack.
Hoewel het populair is, komt schaduw met AI -risico’s.
In een proces dat training wordt genoemd, wordt moderne AI -apparatuur gemaakt door grote hoeveelheden informatie te verteren.
Ongeveer 30% van de harmonische beveiliging van applicaties heeft de trein gebruikt met behulp van de door de gebruiker opgenomen informatie.
Dit betekent dat de gebruikersinformatie onderdeel wordt van de AI -tool en in de toekomst kan worden uitgevoerd naar andere gebruikers.
Bedrijven kunnen zich zorgen maken over het benadrukken van hun handelsgeheimen door de antwoorden op de AI-tools, maar Alastair Patterson, CEO en mede-oprichter van Harmonic Security, is van mening dat het onwaarschijnlijk is. “Het is heel moeilijk om gegevens rechtstreeks uit deze (AI -tools) te krijgen”, zegt hij.
Bedrijven zullen zich echter zorgen maken over hun gegevens die zijn opgeslagen in AI -diensten, die ze geen controle hebben, geen bewustzijn hebben en die onveilig kunnen zijn voor gegevensovertredingen.

Het zal voor bedrijven moeilijk zijn om te vechten tegen het gebruik van AI -tools, omdat ze uiterst nuttig kunnen zijn, vooral voor jonge werknemers.
“AI), de Britse softwareservicesgroep, CEO van Adaptavist Group, zegt,” AI) stelt u in staat om een vijfjarige ervaring in 30 seconden te maken in prompt engineering van 30 seconden, “zegt.
“Het is niet volledig vervangen (ervaring), maar het is een goed been op dezelfde manier dat het hebben van een goede encyclopedie of een calculator je dingen laat doen die je niet zou kunnen doen zonder de apparaten die je zou kunnen.”
Wat zal hij zeggen tegen bedrijven die erachter komen dat ze het nut hebben van Chhaya Ai?
‘Welkom bij de club. Ik denk dat iedereen misschien dat doet. Wees geduldig en begrijp wat mensen gebruiken en waarom, en ontdek hoe u het kunt omarmen en beheren in plaats van afsluiting te eisen. U wilt niet achterlaten als een outfit die (AI).’

Biedt software en hardware om gegevens te beheren over de geproduceerde omgeving van TRIMBAL. Om haar werknemers veilig te helpen AI te gebruiken, heeft het bedrijf een Trimbal -assistent gemaakt. Het is een interne AI -tool op basis van hetzelfde AI -model dat in de chat wordt gebruikt.
Werknemers kunnen een Trimbal Assistant raadplegen voor een breed scala aan applicaties, waaronder productontwikkeling, klantenservice en marktonderzoek. Voor softwareontwikkelaars biedt het bedrijf GitHub Copilot.
Karolina is de directeur van AI in Tortla Timbal. Ze zegt: “Ik moedig iedereen aan om allerlei apparatuur in mijn persoonlijke leven te vinden, maar erken dat haar professionele leven een andere plaats is en er zijn enkele veiligheidsmaatregelen en ideeën”, zegt ze.
Het bedrijf moedigt werknemers aan om nieuwe AI -modellen en applicaties te vinden.
“Het brengt ons bij een vaardigheid die we hebben gedwongen te ontwikkelen: we moeten kunnen begrijpen welke gevoelige gegevens zijn”, zegt ze.
“Er zijn plaatsen waar u uw medische informatie niet plaatst en u zou dat soort beslissingsoproepen moeten kunnen maken (ook voor werkgegevens).”
De ervaring van werknemers die AI thuis gebruiken en voor individuele projecten kunnen het beleid van het bedrijf vormgeven naarmate AI -apparatuur zich ontwikkelt, geloven ze.
Ze zegt dat “er een voortdurende dialoog moet zijn over een continue dialoog die apparatuur ons de beste service geeft”.