Bijgewerkt: 21 december 2024

De Europese wet op kunstmatige intelligentie is in werking getreden

Nieuws -> Technologie

Bron: EU Commissie/Wikipedia
03-08-2024

Op 1 augustus 2024 trad de European Artificial Intelligence Act (AI Act), 's werelds eerste uitgebreide verordening over kunstmatige intelligentie, in werking. De AI Act is ontworpen om ervoor te zorgen dat AI die in de EU wordt ontwikkeld en gebruikt, betrouwbaar is, met waarborgen om de fundamentele rechten van mensen te beschermen. De verordening heeft tot doel een geharmoniseerde interne markt voor AI in de EU tot stand te brengen, de opname van deze technologie te stimuleren en een ondersteunende omgeving voor innovatie en investeringen te creëren- meldt de Europese Commissie.

De AI Act introduceert een toekomstgerichte definitie van AI, gebaseerd op een productveiligheids- en risicogebaseerde benadering in de EU:

Minimaal risico: De meeste AI-systemen, zoals AI-aangedreven aanbevelingssystemen en spamfilters, vallen in deze categorie. Deze systemen hebben geen verplichtingen onder de AI Act vanwege hun minimale risico voor de rechten en veiligheid van burgers. Bedrijven kunnen vrijwillig aanvullende gedragscodes aannemen.

Specifiek transparantierisico: AI-systemen zoals chatbots moeten gebruikers duidelijk vertellen dat ze met een machine interacteren. Bepaalde door AI gegenereerde content, waaronder deep fakes, moet als zodanig worden gelabeld en gebruikers moeten worden geïnformeerd wanneer biometrische categorisatie of emotieherkenningssystemen worden gebruikt. Bovendien moeten aanbieders systemen zo ontwerpen dat synthetische audio-, video-, tekst- en beeldinhoud wordt gemarkeerd in een machinaal leesbaar formaat en kan worden gedetecteerd als kunstmatig gegenereerd of gemanipuleerd.



Hoog risico: AI-systemen die als hoog risico worden geïdentificeerd, moeten voldoen aan strenge vereisten, waaronder risicobeperkende systemen, hoge kwaliteit van datasets, logging van activiteiten, gedetailleerde documentatie, duidelijke gebruikersinformatie, menselijk toezicht en een hoog niveau van robuustheid, nauwkeurigheid en cyberbeveiliging. Regelgevende sandboxen zullen verantwoorde innovatie en de ontwikkeling van conforme AI-systemen vergemakkelijken. Zulke AI-systemen met een hoog risico omvatten bijvoorbeeld AI-systemen die worden gebruikt voor rekrutering, of om te beoordelen of iemand recht heeft op een lening, of om autonome robots te besturen.

Onacceptabel risico: AI-systemen die worden beschouwd als een duidelijke bedreiging voor de fundamentele rechten van mensen, worden verboden. Dit omvat AI-systemen of -toepassingen die menselijk gedrag manipuleren om de vrije wil van gebruikers te omzeilen, zoals speelgoed dat spraakassistentie gebruikt om gevaarlijk gedrag van minderjarigen aan te moedigen, systemen die 'sociale scores' door overheden of bedrijven toestaan, en bepaalde toepassingen van voorspellende politiezorg. Bovendien worden sommige toepassingen van biometrische systemen verboden, bijvoorbeeld emotieherkenningssystemen die op de werkplek worden gebruikt en sommige systemen voor het categoriseren van mensen of realtime biometrische identificatie op afstand voor wetshandhavingsdoeleinden in openbaar toegankelijke ruimtes (met beperkte uitzonderingen).

Ter aanvulling op dit systeem introduceert de AI Act ook regels voor zogenaamde algemene AI-modellen, wat zeer capabele AI-modellen zijn die zijn ontworpen om een ​​breed scala aan taken uit te voeren, zoals het genereren van mensachtige tekst. Algemene AI-modellen worden steeds vaker gebruikt als componenten van AI-toepassingen. De AI Act zal transparantie in de waardeketen waarborgen en mogelijke systemische risico's van de meest capabele modellen aanpakken.

Toepassing en handhaving van de AI-regels. Lidstaten hebben tot 2 augustus 2025 de tijd om nationale bevoegde autoriteiten aan te wijzen, die toezicht zullen houden op de toepassing van de regels voor AI-systemen en markttoezichtactiviteiten zullen uitvoeren. Het AI Office van de Commissie zal het belangrijkste uitvoeringsorgaan zijn voor de AI Act op EU-niveau, evenals de handhaver voor de regels voor algemene AI-modellen.

Drie adviesorganen zullen de uitvoering van de regels ondersteunen. De European Artificial Intelligence Board zal zorgen voor een uniforme toepassing van de AI Act in alle EU-lidstaten en zal fungeren als het belangrijkste orgaan voor samenwerking tussen de Commissie en de lidstaten. Een wetenschappelijk panel van onafhankelijke experts zal technisch advies en input geven over handhaving. Dit panel kan met name waarschuwingen aan het AI Office sturen over risico's die samenhangen met algemene AI-modellen. Het AI Office kan ook begeleiding krijgen van een adviserend forum, dat bestaat uit een diverse groep belanghebbenden.

Bedrijven die zich niet aan de regels houden, krijgen een boete. Boetes kunnen oplopen tot 7% van de wereldwijde jaaromzet voor overtredingen van verboden AI-toepassingen, tot 3% voor overtredingen van andere verplichtingen en tot 1,5% voor het verstrekken van onjuiste informatie.

Ter aanvulling op dit systeem introduceert de AI Act ook regels voor zogenaamde algemene AI-modellen, wat zeer capabele AI-modellen zijn die zijn ontworpen om een ​​breed scala aan taken uit te voeren, zoals het genereren van mensachtige tekst. Algemene AI-modellen worden steeds vaker gebruikt als componenten van AI-toepassingen. De AI Act zal transparantie in de waardeketen waarborgen en mogelijke systemische risico's van de meest capabele modellen aanpakken.

Volgende stappen. De meeste regels van de AI-wet gaan in op 2 augustus 2026. Verboden voor AI-systemen die een onaanvaardbaar risico vormen, gelden echter al na zes maanden, terwijl de regels voor zogenaamde General-Purpose AI-modellen na 12 maanden van toepassing worden. Om de overgangsperiode vóór de volledige implementatie te overbruggen, heeft de Commissie het AI Pact gelanceerd. Dit initiatief nodigt AI-ontwikkelaars uit om vrijwillig de belangrijkste verplichtingen van de AI-wet over te nemen vóór de wettelijke deadlines.

De Commissie ontwikkelt ook richtlijnen om te definiëren en te detailleren hoe de AI-wet moet worden geïmplementeerd en om co-regulerende instrumenten zoals normen en gedragscodes te faciliteren. De Commissie heeft een oproep gedaan voor het uiten van interesse om deel te nemen aan het opstellen van de eerste algemene AI-gedragscode, evenals een multi-stakeholderconsultatie die alle belanghebbenden de kans geeft om hun mening te geven over de eerste gedragscode onder de AI-wet.

Achtergrond. Op 9 december 2023 verwelkomde de Commissie de politieke overeenkomst over de AI Act. Op 24 januari 2024 lanceerde de Commissie een pakket maatregelen om Europese startups en MKB's te ondersteunen bij de ontwikkeling van betrouwbare AI. Op 29 mei 2024 onthulde de Commissie het AI Office. Op 9 juli 2024 trad de gewijzigde EuroHPC JU-verordening in werking, waardoor de oprichting van AI-fabrieken mogelijk werd. Hierdoor kunnen speciale AI-supercomputers worden gebruikt voor de training van General Purpose AI (GPAI)-modellen.

Voortgezet onafhankelijk, op bewijs gebaseerd onderzoek door het Joint Research Centre (JRC) is van fundamenteel belang geweest bij het vormgeven van het AI-beleid van de EU en het waarborgen van de effectieve uitvoering ervan.

Kunstmatige intelligentie (AI) is in de breedste zin van het woord intelligentie die wordt vertoond door machines, met name computersystemen. Het is een onderzoeksgebied in de computerwetenschappen dat methoden en software ontwikkelt en bestudeert, waarmee machines hun omgeving kunnen waarnemen en leren en intelligentie kunnen gebruiken om acties te ondernemen die hun kansen op het bereiken van gedefinieerde doelen maximaliseren. Zulke machines kunnen AI's worden genoemd.

Vroege onderzoekers ontwikkelden algoritmen die de stapsgewijze redenering imiteerden die mensen gebruiken, wanneer ze puzzels oplossen of logische deducties maken. Eind jaren 1980 en in de jaren 1990 werden methoden ontwikkeld om met onzekere of onvolledige informatie om te gaan, waarbij concepten uit de waarschijnlijkheidsleer en economie werden gebruikt.

Veel van deze algoritmen zijn niet toereikend om grote redeneringsproblemen op te lossen, omdat ze een "combinatorische explosie" ervaren: ze worden exponentieel langzamer naarmate de problemen groter worden. Zelfs mensen gebruiken zelden de stapsgewijze deductie die vroeg AI-onderzoek kon modelleren. Ze lossen de meeste van hun problemen op met behulp van snelle, intuïtieve oordelen. Nauwkeurig en efficiënt redeneren is een onopgelost probleem.



Amstelveenweb.com is niet verantwoordelijk voor de inhoud van de nieuwsberichten.