Het intrekken van Biden AI EO door Trump zal de industrie chaotischer maken, zeggen experts
Sluit u aan bij onze dagelijkse en wekelijkse nieuwsbrieven voor de laatste updates en exclusieve inhoud over toonaangevende AI-dekking. Meer informatie
In het nieuwe jaar wordt verwacht dat de nieuwe regering-Trump veel wijzigingen zal doorvoeren in het bestaande beleid, en AI-regelgeving zal hier niet van worden vrijgesteld. Dit omvat waarschijnlijk de intrekking van een AI-uitvoerend bevel van de huidige president Joe Biden.
Het Biden-bevel richtte overheidstoezichtkantoren op en moedigde modelontwikkelaars aan om veiligheidsnormen te implementeren. Hoewel de regels van het Biden AI-uitvoeringsbesluit zich richten op modelontwikkelaars, zou de intrekking ervan voor bedrijven een aantal uitdagingen kunnen opleveren. Sommige bedrijven, zoals xAI van Trump-bondgenoot Elon Musk, zouden kunnen profiteren van een intrekking van het bevel, terwijl andere naar verwachting met een aantal problemen zullen worden geconfronteerd. Dit kan inhouden dat we te maken krijgen met een lappendeken van regelgeving, minder open delen van databronnen, minder door de overheid gefinancierd onderzoek en meer nadruk op vrijwillige, verantwoorde AI-programma’s.
Lappendeken van lokale regels
Vóór de ondertekening van de EO hielden beleidsmakers verschillende luisterrondleidingen en hoorzittingen met marktleiders om te bepalen hoe technologie het beste op de juiste manier kon worden gereguleerd. Onder de door de Democraten gecontroleerde Senaat was er een grote mogelijkheid dat de AI-regelgeving vooruitgang zou kunnen boeken, maar insiders geloven dat de honger naar federale regels rond AI aanzienlijk is afgekoeld.
Gaurab Bansal, uitvoerend directeur van Verantwoorde innovatielabszei tijdens de ScaleUp: AI-conferentie in New York dat het gebrek aan federaal toezicht op AI ertoe zou kunnen leiden dat staten hun beleid gaan schrijven.
“Er bestaat een gevoel dat beide partijen in het Congres AI niet zullen reguleren, dus het zullen staten zijn die hetzelfde draaiboek zullen hanteren als de SB 1047 in Californië,” zei Bansal. “Bedrijven hebben standaarden nodig voor consistentie, maar het wordt slecht als er een lappendeken van standaarden op verschillende gebieden ontstaat.”
Wetgevers van de staat Californië hebben SB 1047 gepusht – wat een “kill switch” zou hebben verplicht voor modellen naast andere overheidscontroles – en het wetsvoorstel belandde op het bureau van gouverneur Gavin Newsom. Newsoms veto over het wetsvoorstel werd gevierd door grootheden uit de industrie, zoals Yann Le Cunn van Meta. Bansal zei dat staten eerder soortgelijke wetsvoorstellen zullen aannemen.
Dean Ball, een onderzoeker bij Het marktcentrum van de George Mason Universiteitgenoemde bedrijven kunnen moeite hebben met het navigeren door verschillende regelgeving.
“Deze wetten zouden wel eens complexe nalevingsregimes en een lappendeken van wetten kunnen creëren voor zowel AI-ontwikkelaars als bedrijven die AI hopen te gebruiken; Hoe een Republikeins Congres op deze potentiële uitdaging zal reageren, is onduidelijk”, zei Ball.
Vrijwillig verantwoordelijke AI
Door de industrie geleide, verantwoorde AI heeft altijd bestaan. De last voor bedrijven om proactiever te zijn en verantwoording af te leggen en eerlijk te zijn, kan echter groter worden omdat hun klanten de nadruk op veiligheid eisen. Modelontwikkelaars en zakelijke gebruikers moeten tijd besteden aan het implementeren van verantwoord AI-beleid en het ontwikkelen van normen die voldoen aan wetten zoals de AI-wet van de Europese Unie.
Tijdens de ScaleUp: AI-conferentie Microsoft Chief Product Officer voor Responsible AI Sarah Bird zei dat veel ontwikkelaars en hun klanten, waaronder Microsoft, hun systemen voorbereiden op de AI-wet van de EU.
Maar ook al is er geen uitgebreide wet die AI regelt, volgens Bird is het altijd een goede gewoonte om vanaf het begin verantwoorde AI en veiligheid in de modellen en toepassingen te integreren.
“Dit zal nuttig zijn voor start-ups, een groot deel van het hoge niveau van wat de AI-wet van je vraagt is gewoon gezond verstand,” zei Bird. “Als je modellen bouwt, moet je de gegevens beheren die erin gaan; je zou ze moeten testen. Voor kleinere organisaties wordt compliance eenvoudiger als je het helemaal opnieuw doet, dus investeer in een oplossing die je data beheert terwijl deze groeien.”
Het kan echter moeilijker zijn om te begrijpen wat er in de gegevens zit die worden gebruikt om grote taalmodellen (LLM’s) te trainen die bedrijven gebruiken. Jason Corso, hoogleraar robotica aan de Universiteit van Michigan en medeoprichter van een computervisiebedrijf Voxel51vertelde VentureBeat dat de Biden EO veel openheid van modelontwikkelaars aanmoedigde.
“We kunnen de impact van één monster op een model dat een hoge mate van potentieel vertekeningsrisico met zich meebrengt, niet volledig kennen, toch? De bedrijven van modelgebruikers zouden dus op het spel kunnen staan als er geen bestuur is rond het gebruik van deze modellen en de gegevens die erin terechtkomen”, aldus Corso.
Minder onderzoeksdollars
AI-bedrijven genieten momenteel grote belangstelling van investeerders. De overheid heeft echter vaak onderzoek gesteund dat volgens sommige beleggers te riskant is. Corso merkte op dat de nieuwe regering-Trump er misschien voor zou kiezen om niet te investeren in AI-onderzoek om kosten te besparen.
“Ik maak me er alleen zorgen over dat ik niet over de middelen van de overheid beschikt om dit soort risicovolle projecten in een vroeg stadium te steunen”, zei Corso.
Een nieuwe regering betekent echter niet dat er geen geld zal worden toegewezen aan AI. Hoewel het onduidelijk is of de regering-Trump het nieuw opgerichte AI Safety Institute en andere AI-toezichtkantoren zal afschaffen, garandeerde de regering-Biden wel budgetten tot 2025.
“Een hangende vraag die de vervanging van Trump voor de Biden EO moet kleuren, is hoe de autoriteiten moeten worden georganiseerd en de dollars moeten worden toegewezen die zijn toegeëigend onder de AI Initiative Act. Dit wetsvoorstel is de bron voor veel van de autoriteiten en activiteiten die Biden heeft opgedragen aan instanties als NIST, en de financiering zal in 2025 worden voortgezet. Nu deze dollars al zijn toegewezen, zullen veel activiteiten waarschijnlijk in een of andere vorm worden voortgezet. Hoe die vorm eruit ziet, moet echter nog worden onthuld”, zei Matt Mittelsteadt, onderzoeker van het Mercatus Center.
Hoe de volgende regering het AI-beleid in januari ziet, zullen we weten, maar bedrijven moeten zich voorbereiden op wat er daarna komt.
Source link