Wetenschap

Mensen willen niet beslissen aan AI die niertransplantatie krijgt • Registreer


Is AI een geschikte bron van morele richting over welke patiënten een niertransplantatie moeten krijgen?

Denk aan deze vraag door Duke University, Carnegie Melan, Oxford University en Bofins geassocieerd met geel.

A Presseer papier Deze maand “AI is een kwalitatieve studie van de beslissing aan toewijzing aan de AI of Nier”, schrijver Vijay Keswani, Vincent Contezer, Walter Signs-Armstrong, Brena K. In de titel van Engwin, Hoda Hodari en Shait wetende, kunt u meer tijd doorbrengen in de titel. In woorden, woorden in woorden zijn woorden in woorden.

De krant is nog steeds een goede beweging door morele beslissing -processen omdat het verwijst naar de complexiteit van het vertalen van geloof in actie en het reproduceren van dat proces in de software.

Volgens het US National Health Institute is er Meer dan 800.000 In de Verenigde Staten leeft de laatste fase met nierziekte, wat betekent dat hun overleving afhangt van regelmatige dialyse of niertransplantatie.

National Nier Foundation Aanname Vanwege niertransplantatie sterven er elke dag 12 mensen in de Verenigde Staten en merken ze ook op dat een van de vijf donoren in de nier wordt gegooid.

Er is dus reden om te geloven dat de toewijzing in de nier beter kan worden afgehandeld.

De auteurs van het onderzoek hebben vanaf het begin erkend dat het pre -werk van de psychologie gecompliceerd is door de morele beslissing van het volk.

“Het is dus niet verwonderlijk dat AI niet alle slips met AI kan vastleggen,” leggen ze uit. “… echter, ondanks de IDCCKress (bijvoorbeeld luidruchtige reactie op dezelfde vraag), is er nog steeds een vraag of een AI de ideologische essentie van de menselijke morele beslissing kan veroveren -dat wil zeggen hoe mensen moreel relevante redenen verwerken, de voorkeuren van morele kenmerken en waarden ontwikkelen, en hun uiteindelijke rechterlijke voorkeuren worden gemaakt en ten minste in hun definitieve oordeel.

“Met andere woorden, is AI in staat om kritieke elementen van de menselijke morele beslissing te modelleren -het nemen van een mens?”

Als u al antwoordde: “Nee”, kunt u tot het einde overslaan. Maar als u zich wat meer wendt, wilt u evalueren hoe mensen morele beslissingen nemen, om te zien of de AI dit proces een beetje bevredigend kan imiteren.

“Het potentiële nut van AI in morele domeinen is voornamelijk gerelateerd aan de mogelijkheid om schaalbaarheid en menselijke cognitieve bias op te lossen (bijvoorbeeld de ‘defecten’ van de besluitvorming uit vermoeidheid)),” zei Duke’s post-doctorale medewerker Vijay Keswani, zei, RegisterDe

“Tegelijkertijd kunnen deze voordelen alleen worden gerealiseerd als een AI -persoon in staat is om morele beslissingen te modelleren op een manier die we hebben aangetoond dat de huidige AI -modellen niet doen.”

Onderzoekers hebben beschreven als een semi-structuurinterview met 20 deelnemers die minimaal $ 20 hebben betaald voor hun tijd.

De respondenten waren niet medisch, mensen waren mensen en de algemene vraag werd gesteld over de beste manier om te beslissen welke patiënten nier zouden moeten krijgen. Andere vragen gesteld om te kiezen welke een van hun twee hypothetische patiënten na het wegen transplantaties zou krijgen

  • De levensjaren zullen naar verwachting worden bereikt door vervanging;
  • Afhankelijke getallen;
  • Obesitas niveau;
  • Wekelijkse werkuren na vervanging;
  • Jaar in de wachtlijst van de transplantatie;
  • Toegewijd aan het aantal ernstige misdaden in het verleden.

Deelnemers werd vervolgens gevraagd om commentaar te geven op hoe goed de geselecteerde strategieën in overeenstemming waren met hun beslissingsproces en om commentaar te geven op de potentiële voordelen en angst van de AI -betrokkenheid bij het niertoewijzingsproces.

De respondenten van de enquête hebben verbazingwekkend genoeg meer criteria gewogen dan andere. Sommige jonge mensen vonden het leuk, anderen uitten hun bezorgdheid over discriminatie van ouderen. Sommigen beschouwen de voorkeuren van leven (zoals roken of drinken) anderen vinden dat het niet belangrijk is.

Meningen gepubliceerd door de deelnemers veranderen soms hun beslissingen zoals ze denken.

Het is verbazingwekkend omdat de morele structuur van de mens vloeibaar kan zijn. Modelleren in AI lijkt gedwongen te falen – iemand zal altijd AI zoeken.

Het proces van morele stroming, dat de auteurs beschrijven als “een dynamisch leerproces”, is echter een element dat moet worden opgenomen in de AI -modellen wanneer gevraagd om moreel oordeel.

De auteurs beschouwden daarom als wiskunde die werd gebruikt om een ​​model te vormen, omdat in overeenstemming met de technieken van verschillende benaderingen. Linar en beslissingsregels hebben het voordeel dat ze worden uitgelegd, zien ze, maar ze passen niet noodzakelijk de menselijke beslissingsprocessen aan. De auteurs hebben opgemerkt dat andere methoden – neuraal netwerk of willekeurig bos – modellen opbrengst die niet worden uitgelegd.

Het artikel wordt daarom geconcludeerd dat de huidige AI -model -vormtechnieken niet geschikt zijn voor het modelleren van de logica van mensen.

De respondenten erkenden hoe AI over AI dacht, AI kon helpen bij het aanpakken van menselijke vooringenomenheid en helpen bij klinische AI. Maar het belangrijkste is dat mensen niet wilden beslissen wie de nier kreeg.

“Velen beseften de cognitieve defecten van de menselijke morele beslissing en AI was optimistisch over het verlichten van deze fouten,” concludeerden de schrijvers. “Niettemin hebben ze nog steeds vertrouwen in de kwalificaties van menselijke experts en hebben de AI -experts leuk gevonden om de uiteindelijke beslissing uit te stellen.”

Sommige van de conceptuele voordelen van betrokkenheid bij AI, zoals vechten tegen menselijke vooringenomenheid, zoals blinde toewijzing van hulpbronnen, kunnen niet worden geleid door specifieke systematische systemen, Caeswani erkende dat er enige waarde kon zijn, maar er werd gevraagd of de AI het potentiële hulpprogramma benadrukte om te bepalen hoe de AI te instrueren.

“Sommige beslissingen (bijvoorbeeld vooroordelen tegen bepaalde groepen) kunnen worden afgehandeld door een betere manier zoals groepsblinde besluitvorming,” zei hij.

“Maar ik denk niet dat alle besluitvormingsfouten duidelijk kunnen worden opgelost door middel van top-down methoden, vooral gezien de diversiteit van de beslissingen onder de mensen die ik geloof in elke persoon/gemeenschapsvoorkeuren om ‘ideale’ keuzes te leren en vervolgens een breed belang te hebben in de methode van het onderste deel van het onderste deel en vervolgens een AI-keuze.

“Natuurlijk, nogmaals, om de afstemming van morele voorkeuren te bereiken, is het noodzakelijk om een ​​goede berekening te hebben voor morele beslissingen -het nemen van een morele beslissing en wij (als veld) zijn nu niet.” ®



Bronlink

Related Articles

Back to top button