Nieuws

Papa eiste de valse claim van Openee Chatgate dat hij zijn kinderen heeft vermoord

Momenteel herhaalt de chatgpt deze vreselijke valse claims over de hoolmen niet in de uitvoer. Een andere recente update besloot duidelijk tot het probleem: “Patip ontdekt nu ook internet voor informatie over mensen, wanneer wordt gevraagd wie ze zijn,” zei Noyab. Maar omdat Openai eerder had betoogd dat het informatie niet kon corrigeren – het kan alleen informatie blokkeren – het verhaal van Fake Hair Killer is nog steeds opgenomen in de interne gegevens van Chatgate. En totdat de Holman het kan repareren, is het een schending van GDPR en claimt het NYB.

“Hoewel het verlies van het verlies beperkter kan zijn. Als onjuiste persoonlijke gegevens niet worden gedeeld, is AVG evenveel van toepassing op interne gegevens als gedeelde gegevens,” zegt Noyb.

OpenAI kan mogelijk niet eenvoudig gegevens verwijderen

Holmen is niet alleen een chatgate -gebruiker, die zich zorgen maakt dat de hallucinaties van de chatbot het leven kunnen verpesten. De maanden na de lancering van de chat eind 2022 dreigde een Australische burgemeester de laster aan te klagen nadat een chatbot ten onrechte beweerde dat hij naar de gevangenis was gegaan. Tegelijkertijd verbond Chatgpt een echte professor rechten met een nep -zwendel voor seksuele intimidatie, Washington Post Geïnformeerd,, Een paar maanden later diende een radiopresentator een Sued Openii in op chatgate -output, die nepverduistering beschreef.

In sommige gevallen filterde OpenAI het model om te voorkomen dat hij schadelijke uitgangen veroorzaakte, maar heeft waarschijnlijk geen valse informatie uit trainingsgegevens verwijderd, stelde NOYB voor. Maar het filteren van de output en het gooien van ongemak is niet voldoende om gerenommeerde verliezen, nojb -advocaat voor gegevensbescherming, Kalethi Sardeli beschuldigd te voorkomen.

“Het toevoegen van een disclaimer dat u zich niet aan de wet houdt, overwint de wet niet,” zei Sardeli. “AI -bedrijven kunnen niet alleen valse informatie ‘verbergen’ van gebruikers, terwijl ze nog steeds valse informatie verwerken. AI -bedrijven moeten stoppen met acteren zoals GDPR niet op hen van toepassing zijn, wanneer het duidelijk is. Als de hallucinaties niet worden stopgezet, kunnen mensen gemakkelijk te maken krijgen met een gerenommeerde schade.



Bronlink

Related Articles

Back to top button