Toernooien

Antropomorfiserende AI: De ernstige gevolgen van het verwarren van mensachtigen met mensen zijn al aan het licht gekomen


Sluit u aan bij onze dagelijkse en wekelijkse nieuwsbrieven voor de laatste updates en exclusieve inhoud over toonaangevende AI-dekking. Meer informatie


In onze haast om AI te begrijpen en ermee om te gaan, zijn we in een verleidelijke val gelopen: het toekennen van menselijke kenmerken aan deze robuuste maar fundamenteel niet-menselijke systemen. Deze antropomorfisering van AI is niet slechts een onschuldige gril van de menselijke natuur; het wordt een steeds gevaarlijkere tendens die ons oordeel op kritische manieren kan vertroebelen. Leiders uit het bedrijfsleven vergelijken het leren van AI met menselijk onderwijs om trainingspraktijken te rechtvaardigen voor wetgevers die beleid opstellen op basis van gebrekkige analogieën tussen mens en AI. Deze neiging om AI te humaniseren zou op ongepaste wijze cruciale beslissingen in verschillende sectoren en regelgevingskaders kunnen beïnvloeden.

Het bekijken van AI door een menselijke lens in het bedrijfsleven heeft ertoe geleid dat bedrijven de mogelijkheden van AI hebben overschat of de behoefte aan menselijk toezicht hebben onderschat, soms met kostbare gevolgen. De inzet is bijzonder hoog in het auteursrecht, waar antropomorf denken heeft geleid tot problematische vergelijkingen tussen menselijk leren en AI-training.

De taalval

Luister hoe we over AI praten: we zeggen dat het ‘leert’, ‘denkt’, ‘begrijpt’ en zelfs ‘creëert’. Deze menselijke termen voelen natuurlijk aan, maar zijn misleidend. Als we zeggen dat een AI-model ‘leert’, verwerft het geen begrip zoals een menselijke student. In plaats daarvan voert het complexe statistische analyses uit op grote hoeveelheden gegevens, waarbij de gewichten en parameters in zijn neurale netwerken worden aangepast op basis van wiskundige principes. Er is geen sprake van begrip, geen eureka-moment, geen vonk van creativiteit of feitelijk begrip – alleen maar steeds geavanceerdere patroonafstemming.

Deze taalkundige truc is meer dan louter semantisch. Zoals vermeld in de krant, Het illusoire argument van generatieve AI voor eerlijk gebruik: “Het gebruik van antropomorfe taal om de ontwikkeling en het functioneren van AI-modellen te beschrijven is vertekenend omdat het suggereert dat het model, eenmaal getraind, onafhankelijk opereert van de inhoud van de werken waarop het is getraind.” Deze verwarring heeft reële gevolgen, vooral als het juridische en beleidsbeslissingen beïnvloedt.

De cognitieve ontkoppeling

Misschien wel het gevaarlijkste aspect van het antropomorfiseren van AI is de manier waarop het de fundamentele verschillen tussen menselijke en machinale intelligentie maskeert. Hoewel sommige AI-systemen uitblinken in specifieke soorten redeneer- en analytische taken, werken de grote taalmodellen (LLM’s) die het huidige AI-discours domineren – en waar we ons hier op concentreren – via geavanceerde patroonherkenning.

Deze systemen verwerken enorme hoeveelheden gegevens en identificeren en leren statistische relaties tussen woorden, zinsdelen, afbeeldingen en andere input om te voorspellen wat er in een reeks moet gebeuren. Als we zeggen dat ze ‘leren’, beschrijven we een proces van wiskundige optimalisatie waarmee ze steeds nauwkeurigere voorspellingen kunnen doen op basis van hun trainingsgegevens.

Kijk eens naar dit treffende voorbeeld uit onderzoek van Berglund en zijn collega’s: Een model dat is getraind op basis van materialen die stellen dat ‘A is gelijk aan B’ kan vaak niet redeneren, zoals een mens zou doen, om te concluderen dat ‘B gelijk is aan A.’ Als een AI ontdekt dat Valentina Tereshkova de eerste vrouw in de ruimte was, zou deze het juiste antwoord kunnen geven: “Wie was Valentina Tereshkova?” maar worstelt met “Wie was de eerste vrouw in de ruimte?” Deze beperking onthult het fundamentele verschil tussen patroonherkenning en ware redenering – tussen het voorspellen van waarschijnlijke reeksen woorden en het begrijpen van hun betekenis.

Deze antropomorfe vooringenomenheid heeft bijzonder verontrustende implicaties in het voortdurende debat over AI en auteursrecht. Microsoft-CEO Satya Nadella onlangs AI-training vergeleken tot menselijk leren, wat suggereert dat AI hetzelfde zou moeten kunnen doen als mensen uit boeken kunnen leren zonder implicaties voor het auteursrecht. Deze vergelijking illustreert perfect het gevaar van antropomorf denken in discussies over ethische en verantwoorde AI.

Sommigen beweren dat deze analogie moet worden herzien om menselijk leren en AI-training te begrijpen. Wanneer mensen boeken lezen, maken we er geen kopieën van; we begrijpen en internaliseren concepten. AI-systemen daarentegen moeten daadwerkelijke kopieën maken van werken – vaak verkregen zonder toestemming of betaling – deze in hun architectuur coderen en deze gecodeerde versies functionerend houden. De werken verdwijnen niet na het ‘leren’, zoals AI-bedrijven vaak beweren; ze blijven ingebed in de neurale netwerken van het systeem.

De blinde vlek van het bedrijfsleven

Antropomorfiserende AI creëert gevaarlijke blinde vlekken in de zakelijke besluitvorming die verder gaan dan eenvoudige operationele inefficiënties. Wanneer leidinggevenden en besluitvormers AI als ‘creatief’ of ‘intelligent’ in menselijke termen beschouwen, kan dit leiden tot een waterval van risicovolle aannames en potentiële wettelijke verplichtingen.

Het overschatten van de mogelijkheden van AI

Een cruciaal gebied waarop antropomorfisering risico’s met zich meebrengt, is het genereren van inhoud en het naleven van auteursrechten. Wanneer bedrijven AI beschouwen als mensen die in staat zijn om te ‘leren’, kunnen ze er ten onrechte van uitgaan dat door AI gegenereerde inhoud automatisch vrij is van auteursrechtproblemen. Dit misverstand kan ertoe leiden dat bedrijven:

  • Implementeer AI-systemen die onbedoeld auteursrechtelijk beschermd materiaal reproduceren, waardoor het bedrijf wordt blootgesteld aan inbreukclaims
  • Het niet implementeren van de juiste mechanismen voor inhoudsfiltering en toezicht
  • Ga er ten onrechte van uit dat AI op betrouwbare wijze onderscheid kan maken tussen materiaal uit het publieke domein en auteursrechtelijk beschermd materiaal
  • Onderschat de noodzaak van menselijke beoordeling bij het genereren van inhoud

De blinde vlek op het gebied van grensoverschrijdende compliance

De antropomorfe vooroordelen in AI creëren gevaren als we kijken naar grensoverschrijdende compliance. Zoals uitgelegd door Daniel Gervais, Haralambos Marmanis, Noam Shemtov en Catherine Zaller Rowland in “De kern van de zaak: auteursrecht, AI-training en LLM’s,Het auteursrecht werkt op basis van strikte territoriale principes, waarbij elk rechtsgebied zijn eigen regels handhaaft over wat inbreuk is en welke uitzonderingen van toepassing zijn.

Deze territoriale aard van het auteursrecht creëert een complex web van potentiële aansprakelijkheid. Bedrijven kunnen er ten onrechte van uitgaan dat hun AI-systemen vrijelijk kunnen ‘leren’ van auteursrechtelijk beschermd materiaal in verschillende rechtsgebieden, waarbij ze niet onderkennen dat trainingsactiviteiten die in het ene land legaal zijn, in een ander land inbreuk kunnen vormen. De EU heeft dit risico erkend in haar AI-wet, met name via Overweging 106die vereist dat elk AI-model voor algemene doeleinden dat in de EU wordt aangeboden, moet voldoen aan de EU-auteursrechtwetgeving met betrekking tot trainingsgegevens, ongeacht waar die training heeft plaatsgevonden.

Dit is van belang omdat het antropomorfiseren van de mogelijkheden van AI ertoe kan leiden dat bedrijven hun wettelijke verplichtingen over de grenzen heen onderschatten of verkeerd begrijpen. De comfortabele fictie dat AI ‘leert’ zoals mensen, verduistert de realiteit dat AI-training complexe kopieer- en opslagoperaties met zich meebrengt die in andere rechtsgebieden verschillende wettelijke verplichtingen met zich meebrengen. Dit fundamentele misverstand over het feitelijke functioneren van AI, gecombineerd met de territoriale aard van het auteursrecht, creëert aanzienlijke risico’s voor bedrijven die wereldwijd actief zijn.

De menselijke kosten

Een van de meest zorgwekkende kosten is de emotionele tol van het antropomorfiseren van AI. We zien steeds meer gevallen waarin mensen een emotionele band met AI-chatbots vormen en hen als vrienden of vertrouwelingen behandelen. Dit kan bijzonder zijn gevaarlijk voor kwetsbare personen die mogelijk persoonlijke informatie delen of op AI vertrouwen voor emotionele steun die deze niet kan bieden. De reacties van de AI lijken weliswaar empathisch, maar zijn verfijnde patroonmatching op basis van trainingsgegevens – er is geen echt begrip of emotionele connectie.

Deze emotionele kwetsbaarheid kan zich ook manifesteren in professionele omgevingen. Naarmate AI-tools meer geïntegreerd raken in het dagelijkse werk, kunnen werknemers een ongepast niveau van vertrouwen in deze systemen ontwikkelen, waardoor ze als echte collega’s worden behandeld in plaats van als tools. Ze kunnen vertrouwelijke werkinformatie te vrijelijk delen of aarzelen om fouten te melden uit een misplaatst gevoel van loyaliteit. Hoewel deze scenario’s op dit moment geïsoleerd blijven, benadrukken ze hoe antropomorfiserende AI op de werkplek het beoordelingsvermogen kan vertroebelen en ongezonde afhankelijkheden kan creëren van systemen die, ondanks hun geavanceerde reacties, niet in staat zijn tot echt begrip of zorg.

Bevrijden van de antropomorfe val

Dus hoe gaan we verder? Ten eerste moeten we preciezer zijn in ons taalgebruik over AI. In plaats van te zeggen dat een AI ‘leert’ of ‘begrijpt’, zouden we kunnen zeggen dat hij ‘gegevens verwerkt’ of ‘output genereert op basis van patronen in zijn trainingsgegevens’. Dit is niet alleen pedant; het helpt verduidelijken wat deze systemen doen.

Ten tweede moeten we AI-systemen evalueren op basis van wat ze zijn, in plaats van op basis van wat we ons voorstellen dat ze zijn. Dit betekent dat we zowel hun indrukwekkende capaciteiten als hun fundamentele beperkingen moeten erkennen. AI kan enorme hoeveelheden gegevens verwerken en patronen identificeren die mensen misschien over het hoofd zien, maar kan niet begrijpen, redeneren of creëren op de manier waarop mensen dat doen.

Ten slotte moeten we raamwerken en beleid ontwikkelen die zich richten op de werkelijke kenmerken van AI, in plaats van op de ingebeelde mensachtige kwaliteiten. Dit is vooral cruciaal in het auteursrecht, waar antropomorf denken kan leiden tot gebrekkige analogieën en ongepaste juridische conclusies.

Het pad vooruit

Naarmate AI-systemen steeds geavanceerder worden in het nabootsen van menselijke prestaties, zal de verleiding om deze te antropomorfiseren sterker worden. Deze antropomorfe vooringenomenheid beïnvloedt alles, van de manier waarop we de mogelijkheden van AI evalueren tot de manier waarop we de risico’s ervan inschatten. Zoals we hebben gezien, strekt het zich uit tot aanzienlijke praktische uitdagingen rond auteursrechtwetgeving en zakelijke naleving. Wanneer we menselijke leermogelijkheden toeschrijven aan AI-systemen, moeten we hun fundamentele aard begrijpen en de technische realiteit van de manier waarop ze informatie verwerken en opslaan.

Het begrijpen van AI voor wat het werkelijk is – geavanceerde informatieverwerkingssystemen, en niet mensachtige leerlingen – is van cruciaal belang voor alle aspecten van het bestuur en de inzet van AI. Door het antropomorfe denken achter ons te laten, kunnen we de uitdagingen van AI-systemen beter aanpakken, van ethische overwegingen en veiligheidsrisico’s tot grensoverschrijdende naleving van auteursrechten en het beheer van trainingsgegevens. Dit preciezere inzicht zal bedrijven helpen beter geïnformeerde beslissingen te nemen en tegelijkertijd een betere beleidsontwikkeling en het publieke debat rond AI te ondersteunen.

Hoe eerder we de ware aard van AI omarmen, hoe beter we in staat zullen zijn om de diepgaande maatschappelijke implicaties en praktische uitdagingen in onze wereldeconomie het hoofd te bieden.

Roanie Levy is licentie- en juridisch adviseur bij CCC.

DataBeslissers

Welkom bij de VentureBeat-community!

DataDecisionMakers is de plek waar experts, inclusief de technische mensen die datawerk doen, datagerelateerde inzichten en innovatie kunnen delen.

Als u meer wilt lezen over de allernieuwste ideeën en actuele informatie, best practices en de toekomst van data en datatechnologie, sluit u dan aan bij DataDecisionMakers.

Je zou zelfs kunnen overwegen om zelf een artikel bij te dragen!

Lees meer van DataDecisionMakers



Source link

Related Articles

Back to top button