Zakelijk

De Trump -regering is van plan algoritmen te gebruiken om demonstranten te richten

Het Amerikaanse ministerie van Buitenlandse Zaken is van plan om technologie te gebruiken om te proberen het niet eens te zijn, terwijl de protesten tegen de regering Trump en Palestina in het hele land blijven groeien. Deze maand, As Rapport Het “Catch and Revoc” -plan van de Marco Rubio is van plan buitenlandse onderdanen van hun visum te pakken waarmee ze in hun land kunnen blijven, kan worden aangedreven door AI -analyse van sociale media -accounts.

Het geplande gebruik van de AI is gekomen omdat Mahmud Khalil, een voormalige student aan de Universiteit van Columbia, een rigoureuze lijn is geworden uit protest van de Trump -regering, en Khalil is vastgehouden en dreigt zijn groene kaart in te trekken om deel te nemen aan de campus.

De regering Trump – Hoewel er geen wet en rechten zijn onder de grondwettelijke wijziging van het land, is het onaanvaardbaar om de sociale media -posten van de mensen te maken om de inhoud van de mensen te analyseren die AI gebruiken, hoewel het niet de wet en rechten heeft die niet het risico lopen om enorme valse positieven te creëren. En het betreft privacy- en AI -experts in gelijke mate.

“Zoveel jaren hebben we dit slechte argument gehoord dat we ons geen zorgen hoeven te maken dat we democratie hebben”, zei AI Ethics Karisa Vellsez aan de Universiteit van Oxford. “Het is duidelijk dat de kwestie van privacy de democratie is. Als je geen privacy hebt, is machtsmisbruik erg aantrekkelijk en het is gewoon een kwestie van tijd voor marteling “

Het risico dat de vellsees en anderen hun bezorgdheid hebben uitgesproken, is dat digitale privacy wordt uitgehold ten gunste van een magisch slachtoffer gedreven door een technologie die mensen vaak in hun nauwkeurigheid geloven.

Het is ook een zorg voor Joanna Bryson, een professor in ethiek en technologie in Berlijn, Duitsland. “De verdwijning van politieke vijanden, of zelfs alleen willekeurige burgers, is een middel geworden om de nieuwe wereld te onderdrukken, vooral in de Nieuwe Wereld”, zegt hij. “Ik hoef mijn ironie niet te vermelden voor het kiezen van een regeling zoals Zuid- en Midden -Amerikaanse dictators in de landen die hij in Trump negeerde.”

Bryson vermeldt ook dat Israël parallel is aan hoe AI vroeger Identificeer het doelwit van duizenden HamasVelen van hen waren vervolgens het doelwit van fysieke bomaanslagen in Gaza door het Israëlische leger. Het controversiële programma met de bijnaam van de lavendel is in twijfel getrokken als het militaire gebruik van AI dat valse positiviteit kan geven en ononderbroken is. “Als de AI -systemen transparant en bewaakt zijn, kunnen we niet weten of de AI -systemen werden opgemerkt waarvoor 35.000 mensen het doelwit waren als er enige rechtvaardiging was.” “Zonder de juiste controle en toepassing van AI en digitale systemen – inclusief het leger, die zelfs niet de EU zijn die momenteel niet doet – kunnen we niet zeggen of er enige rechtvaardiging was voor de doelen, of dat ze alleen een bepaalde man kozen dat ze wat gerechtigheid wilden opblazen om het op te blazen.”

Het gebruik van AI is ook iets in een Smuxscreen, dat is ontworpen om verantwoordelijkheid te nemen voor hun serieuze beslissingen kan worden geleid door het “neutrale” algoritme. “Dit soort dingen probeert nu dit soort dingen te doen met Daze en heeft het al gedaan met Twitter,” zei Bryson. “Om mensen te elimineren en de verantwoordingsplicht te verminderen. Welnu, verantwoording is onduidelijk. “

En het probleem is wanneer we kijken naar de AI -classificatie van materialen voor sociale media, verantwoording is belangrijk omdat wanneer de technologie een fout maakt, dat niet is, niet. Het risico op hallucinaties en vooringenomenheid is het grote probleem tussen AI -systemen. Hallucinaties vinden plaats wanneer de AI -systemen de vragen beantwoorden, of als hun sociale media -inhoud wordt geplaveid door kunstmatige intelligentie voor gebruikers, ontdekt het dat het kan worden gezien als een beschadigde post voor gebruikers. De onderliggende vooringenomenheid in systemen omdat ze hebben ontworpen en waardoor ze creëerden, is het ook een belangrijke oorzaak voor veel fouten in het AI -systeem. In 2018, Amazon Het plan werd gedwongen zich terug te trekken Men dacht dat het systeem automatisch door het systeem was afgewezen omdat de aanvragers eerst het cv passeerden omdat de AI werd opgezet en getraind.

Het is al erg genoeg om indruk te maken of iemand wordt uitgenodigd om een ​​baan voor deze fouten te interviewen. Maar als het gaat om mogelijke detentie en uitzetting van de Verenigde Staten-en het risico om niet in de toekomst naar huis te kunnen terugkeren-is het een veel hogere overstuursituatie.



Bronlink

Related Articles

Back to top button