Amerikaanse federale aanklagers voeren hun achtervolging op tegen verdachten die gebruik maken van hulpmiddelen voor kunstmatige intelligentie om afbeeldingen van kindermisbruik te manipuleren of te creërenomdat de politie vreest voor de technologie een overstroming zou kunnen veroorzaken illegaal materiaal.

Het Amerikaanse ministerie van Justitie heeft dit jaar twee strafzaken aangespannen tegen beklaagden die ervan worden beschuldigd generatieve AI-systemen te gebruiken, die tekst of afbeeldingen creëren als reactie op aanwijzingen van gebruikers, om expliciete afbeeldingen van kinderen te produceren.

“Er komt nog meer,” zei James Silver, het hoofd van de afdeling Computercriminaliteit en Intellectuele Eigendom van het ministerie van Justitie, en voorspelde nog meer soortgelijke gevallen.

“Waar wij ons zorgen over maken is de normalisering hiervan”, zei Silver in een interview. “AI maakt het gemakkelijker om dit soort beelden te genereren, en hoe meer er beschikbaar zijn, hoe normaler dit wordt. Dat is iets dat we echt willen belemmeren en waar we voor willen staan.”

De opkomst van generatieve AI heeft bij het ministerie van Justitie tot bezorgdheid geleid dat de snel voortschrijdende technologie zal worden gebruikt om cyberaanvallen uit te voeren, de verfijning van cryptocurrency-oplichters te vergroten en de verkiezingsveiligheid te ondermijnen.

Gevallen van kindermisbruik vormen een van de eerste keren dat aanklagers de bestaande Amerikaanse wetten proberen toe te passen op vermeende misdaden waarbij AI betrokken is, en zelfs tegen succesvolle veroordelingen kan beroep worden aangetekend, omdat rechtbanken zich afvragen hoe de nieuwe technologie het juridische landschap rond kinderuitbuiting kan veranderen.

Aanklagers en voorstanders van kinderveiligheid zeggen dat generatieve AI-systemen daders in staat kunnen stellen gewone foto’s van kinderen te morphen en te seksualiseren en waarschuwen dat een proliferatie van door AI geproduceerd materiaal het voor wetshandhavers moeilijker zal maken om echte slachtoffers van misbruik te identificeren en te lokaliseren.

Het National Center for Missing and Exploited Children, een non-profitorganisatie die tips verzamelt over online kinderuitbuiting, ontvangt maandelijks gemiddeld ongeveer 450 rapporten met betrekking tot generatieve AI, aldus Yiota Souras, hoofd juridische zaken van de groep.

Dat is een fractie van het gemiddelde van drie miljoen maandelijkse rapporten over de totale online uitbuiting van kinderen die de groep vorig jaar ontving.

Ongeteste grond

Gevallen waarbij sprake is van door AI gegenereerde beelden van seksueel misbruik zullen waarschijnlijk nieuwe juridische gronden betreden, vooral wanneer er geen identificeerbaar kind wordt afgebeeld.

Silver zei dat aanklagers in dergelijke gevallen obsceniteitsdelicten kunnen aanklagen als de wetten op kinderpornografie niet van toepassing zijn.

Aanklagers hebben Steven Anderegg, een software-ingenieur uit Wisconsin, in mei aangeklaagd wegens onder meer het overbrengen van obsceen materiaal. Anderegg wordt ervan beschuldigd Stable Diffusion, een populair tekst-naar-beeld AI-model, te gebruiken om afbeeldingen te genereren van jonge kinderen die zich bezighouden met seksueel expliciet gedrag en sommige van die afbeeldingen te delen met een 15-jarige jongen, volgens gerechtelijke documenten.

Anderegg heeft onschuldig gepleit en probeert de aanklacht af te wijzen door te stellen dat deze zijn rechten onder de Amerikaanse grondwet schenden, zo blijkt uit gerechtelijke documenten.

Hij is in afwachting van zijn proces vrijgelaten. Zijn advocaat was niet bereikbaar voor commentaar.

Stability AI, de maker van Stable Diffusion, zei dat de zaak betrekking had op een versie van het AI-model dat werd uitgebracht voordat het bedrijf de ontwikkeling van Stable Diffusion overnam. Het bedrijf zei dat het investeringen heeft gedaan om “het misbruik van AI voor de productie van schadelijke inhoud” te voorkomen.

Federale aanklagers hebben ook een Amerikaanse legersoldaat aangeklaagd voor kinderpornografie, deels omdat hij AI-chatbots zou hebben gebruikt om onschuldige foto’s te veranderen van kinderen waarvan hij wist dat ze gewelddadige beelden van seksueel misbruik zouden genereren, zo blijkt uit gerechtelijke documenten.

De beklaagde, Seth Herrera, pleitte niet schuldig en is veroordeeld tot gevangenisstraf in afwachting van zijn proces. De advocaat van Herrera reageerde niet op een verzoek om commentaar.

Juridische experts zeggen dat hoewel seksueel expliciete afbeeldingen van echte kinderen onder de kinderpornografiewetten vallen, het landschap rond obsceniteit en puur door AI gegenereerde beelden minder duidelijk is.

Het Amerikaanse Hooggerechtshof heeft in 2002 een federale wet die elke afbeelding strafbaar stelt, inclusief computergegenereerde beelden, waarop minderjarigen betrokken zijn bij seksuele activiteiten als ongrondwettelijk bestempeld.

“Deze vervolgingen zullen moeilijk zijn als de regering alleen op morele afstotelijkheid vertrouwt om de overwinning te behalen”, zegt Jane Bambauer, hoogleraar rechten aan de Universiteit van Florida, die AI bestudeert en de impact ervan op privacy en wetshandhaving.

Federale aanklagers hebben de afgelopen jaren veroordelingen bewerkstelligd tegen beklaagden die seksueel expliciete afbeeldingen van kinderen hadden die volgens de wet ook als obsceen kwalificeerden.

Voorstanders richten zich ook op het voorkomen dat AI-systemen beledigend materiaal genereren.

Twee non-profitorganisaties, Thorn en All Tech Is Human, hebben in april toezeggingen gekregen van enkele van de grootste spelers op het gebied van AI, waaronder Alphabet’s Google, Amazon.com, Facebook en Instagram-moederbedrijf Meta Platforms, OpenAI en Stability AI om te voorkomen dat hun modellen worden getraind op het gebied van kinderziekten. beelden van seksueel misbruik en om hun platforms te monitoren om de creatie en verspreiding ervan te voorkomen.

“Ik wil dit niet afschilderen als een toekomstig probleem, want dat is het niet. Het gebeurt nu”, zegt Rebecca Portnoff, directeur data science van Thorn.

“Wat betreft de vraag of het een toekomstig probleem is dat volledig uit de hand zal lopen, heb ik nog steeds hoop dat we binnen deze kans kunnen handelen om dat te voorkomen.”

—Andrew Goudsward, Reuters