Techniek

Nieuwe criteria kunnen AI -modellen helpen om minder vooringenomenheid te helpen


Divya Siddhartha, oprichter en uitvoerend directeur van het Combined Intelligence Project dat niet in de nieuwe benchmark heeft gewerkt, zei: “We zaten al lang vast aan het oude idee over rechtvaardiging en vooroordelen. “We moeten ons bewust zijn van het verschil, zelfs als het een beetje ongemakkelijk wordt.”

Wang en zijn collega’s zijn een stap in die richting. “AI wordt in zoveel contexten gebruikt dat het in de samenleving moet worden begrepen, en het toont dit artikel,” Miranda Bozen, directeur van het AI Governance Lab van het Centre for Democracy and Technology, die geen deel uitmaakte van het onderzoeksteam. “Het probleem gaat gewoon deze belangrijke delicatesse van het nemen van een hamer missen en bijdragen aan de schade die mensen betreft (zeer laag).”

Benchmarks, zoals Stanford Papers, kunnen teams helpen om beter te beoordelen in AI -modellen – maar deze modellen kunnen eigenlijk enkele andere strategieën vergen. Men kan investeren in meer diverse gegevenssets, hoewel het duur en tijd kan zijn om ze te ontwikkelen. Siddhartha zegt: “Mensen zijn interessanter en bijdragen aan verschillende gegevenssets zijn echt geweldig.” Reageert op mensen die zeggen: “Hé, ik vertegenwoordig het niet. Het was een echt vreemde reactie”, zoals hij zei, de volgende versies van de modellen kunnen worden gebruikt om te trainen en te verbeteren.

Een andere spannende weg om te volgen is de mechanische verklaring of het bestuderen van de interne functies van een AI -model. “Mensen hebben zich gericht op het detecteren van bepaalde neuronen die verantwoordelijk zijn voor de vooringenomenheid en vervolgens op nul te zijn,” zei Agenstein. (In dit geval gebruiken de onderzoekers het woord “neuronen” om de kleinere delen van het “hersenen” van het AI -model te beschrijven)))

Een ander kamp van computerwetenschappers gelooft echter dat het zonder een mens in de AI -lus nooit echt eerlijk of bevooroordeeld kan zijn. “Het idee dat technologie zelf eerlijk is, is een sprookje. Een algoritmisch systeem zal nooit in staat zijn, of het zou niet moeten kunnen zijn: ‘Is dit een gewenste gebeurtenis van discriminatie?’ De vragen moeten niet moreel worden geëvalueerd, “zei professor Sandra Watchter van de Universiteit van Oxford,” die geen deel uitmaakte van de studie. “De wet is een levend systeem, dat we momenteel geloven dat moraliteit en het met ons weg moet zijn.”

Het kan echter snel worden verdeeld om te beslissen wanneer een model al dan niet voor groepen moet worden verantwoord. Omdat verschillende culturen verschillende en zelfs oppositiewaarden hebben, is het moeilijk om precies te weten wat een AI -model moet worden weerspiegeld. Een voorgestelde oplossing is “een soort federale modellen, zoiets als we al doen voor mensenrechten”, zegt Siddhartha – dit is een systeem waarbij elk land of groep zijn eigen soeverein model heeft.

Het aanpakken van bias in AI zal ingewikkeld zijn, mensen overwegen niet welke aanpak. De plek om een ​​beter begin te krijgen van onderzoekers, ethiek en ontwikkelaars lijkt echter de moeite waard, vooral voor Wang en zijn collega’s. “De bestaande billijkheidscriteria zijn uiterst effectief, maar we moeten niet blindelings gunstig voor hen zijn”, zegt hij. “De grootste tekenweg is dat we een-size-fit-to-definities moeten overwinnen en nadenken over hoe deze modellen onze context verder kunnen omvatten.”

Correctie: een eerdere versie van dit verhaal heeft het aantal in de krant beschreven criteria ten onrechte gemaakt. In plaats van twee criteria stelden onderzoekers acht criteria voor in twee categorieën voor: beschrijvend en ideologisch.



Bronlink

Related Articles

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Back to top button