Zakelijk

Chatbots, dipfakes en spraakklonen: ai vals spelen te koop


Je hebt misschien gehoord van de simulatietheorie, het idee dat niets echt is en dat we allemaal deel uitmaken van een gigantisch computerprogramma. Laten we tenminste de lengte van deze blogpost nemen. Dit idee is niet waar. Desondanks kunnen we naar de toekomst gaan waar we een aanzienlijk deel van een computer-blootgestelde simulatie zien, luisteren en lezen en lezen. We houden het echte hier altijd in FTC, maar wat gebeurt er als we niet echt van het net kunnen zeggen?

A Recent blogberichtWe hebben besproken hoe de term “AI” kan worden gebruikt als een frauduleus verkoopcentrum voor nieuwe producten en diensten. Laten we dat noemen Nep AI Probleem. Het onderwerp van vandaag is het gebruik van AI op de achterkant van het scherm om fraude te maken of te verspreiden. Laten we dit noemen AI Probleem. De tweede is een diepe, opkomende dreiging dat de digitale ecosysteembureaus moeten worden opgelost. Nu

De meesten van ons besteden veel tijd aan het kijken naar dingen op een apparaat. Bedankt voor AI -tools die “synthetische media” creëren of anderszins inhoud produceren, het groeiende percentage van wat we zien is niet authentiek en het verschil wordt moeilijker te zeggen. En deze AI -tools worden steeds geavanceerder, ze worden ook gemakkelijk toegankelijk en gebruiken. Sommige van deze tools kunnen nuttig worden gebruikt, maar oplichters kunnen ze ook gebruiken als een oorzaak van wijdverbreide schade.

Generator AI en synthetische media worden gebruikt om te verwijzen naar de gespreksvoorwaarden Chattabot Ontwikkeld uit grote taalmodellen en technologie die menselijke activiteit imiteert, zoals software die creëert Dipfec -video En SpraakklonenDe Het bewijs dat valsspelers al bestaan, kan deze tools snel en goedkoop gebruiken om deze tools sneller en goedkoop te maken, te verspreiden naar grotere groepen of Gericht op de opgegeven gemeenschap Of specifieke persoon. Ze kunnen chattabot gebruiken om te genereren Speervissende e-mails,, Nepwebsite,, Neppost,, NepprofielEn Fake Customer ReviewOf om te helpen creëren Malware,, RansomwareEn Snelle injectieaanvalDe Ze kunnen gemakkelijk dipfakes en spraakklonen gebruiken Impostster schandaal,, AfpersingEn financiële fraude. En dit is een niet-hoofdlijst.

De FTC -wet kan het verboden van frauduleus of wangedrag implementeren als u effectief bent ontworpen om te bedriegen, verkopen of gebruiken – zelfs als het niet het doel of het enige doel is. Dus overweeg:

Wat moet u het maken of verkopen? Als u een synthetische media of generator AI -product ontwikkelt of aanbiedt, overweeg dan de ontwerpfase en dan redelijkerwijs verwacht – en vaak voor de hand liggend – de manier waarop het kan worden misbruikt voor fraude of andere schade kan veroorzaken. Vraag jezelf vervolgens af dat deze nationale risico’s voldoende bevatten dat je product helemaal niet mag worden geleverd. Het is een meme geweest, maar hier zullen we het Jeff Goldblaum -karakter van “Jurassic Park” parafresseren, Dr. Ian Malcolm, die de leidinggevenden zo druk adviseerde of ze zo druk met hen waren Niet in staat Maak iets dat als ze niet stopten met denken Zou moetenDe

Bent u effectief risico’s verlicht? Als u besluit dit nationale product te maken of aan te bieden, neem dan alle redelijke voorzorgsmaatregelen Voor Het doet de markt pijn. De FTC heeft het bedrijf aangeklaagd dat potentiële schadelijke technologieën bevordert zonder redelijke maatregelen te nemen om consumentenletsel te voorkomen. Alert het misbruik van uw klanten of vragen hen om hen te uiten, is voldoende om hun slechte acteurs te voorkomen. De maatregelen van uw afschrikking moeten duurzaam zijn, ingebouwde functies en geen bugfixes of Al Chhisik -functies die derden kunnen beschadigen door te veranderen of te verwijderen. Als uw apparatuur bedoeld is om mensen te helpen, vraag uzelf dan af dat het echt moet worden nagebootst of gewoon een zo effectief uiterlijk, praat, praat of gedraagt ​​zich als een bot.

Vertrouwt u meer op identificatie na release? Onderzoekers blijven de detectiemethoden voor AI-blootgestelde video’s, afbeeldingen en audio verbeteren. De AI-blootgestelde tekst is moeilijker te identificeren. Deze onderzoekers hebben echter een wapen met door generator AI -apparatuur ontwikkelde bedrijven, en met behulp van deze tools zullen de fraude vaak gaan tot het moment van het detecteren van hun nepmaterialen. Consumenten mogen niet worden belast om te bepalen of er een generator AI wordt gebruikt om te schandalen.

Mis je misleidend welke mensen kijken, luisteren of lezen? Als u een adverteerder bent, kunt u gewoon in de verleiding komen voor de benoeming van enkele van deze tools om iets te verkopen. Celebrity Dipfkes zijn bijvoorbeeld al gebruikelijk en duiken op in advertenties. We hebben Alert Veerboot Nep dating profiel,, Funi -volgersDe resultaten van dipfkes of chatbots kunnen als gevolg daarvan – en in werkelijkheid FTC -toepasselijke actie zijn.

Hoewel het centrum van dit bericht fraude en fraude is, hebben deze nieuwe AI -tools andere ernstige zorgen, zoals het potentiële verlies van kinderen, adolescenten en andere populaties bij het communiceren met deze tools. Het personeel van de Commissie kijkt goed omdat de bedrijven deze producten naar markt en interacties op het gebied van mens-computer brengen, nemen nieuwe en misschien gevaarlijke plooien.

Verdere berichten van FTC AI en uw bedrijf Serie:



Bronlink

Related Articles

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Back to top button