Source: OJ L, 2024/1689, 12.7.2024

Current language: SV

Artikel 14 Mänsklig kontroll


    1. AI-systemett maskinbaserat system som är utformat för att fungera med varierande grad av autonomi och som kan uppvisa anpassningsförmåga efter införande och som, för uttryckliga eller underförstådda mål, drar slutsatser härledda från den indata det tar emot, om hur utdata såsom förutsägelser, innehåll, rekommendationer eller beslut som kan påverka fysiska eller virtuella miljöer ska genereras. med hög riskkombinationen av sannolikheten för skada och denna skadas allvarlighetsgrad. ska utformas och utvecklas på ett sådant sätt, inbegripet med lämpliga verktyg för människa–maskin-gränssnitt, att fysiska personer på ett effektivt sätt kan utöva kontroll över dem när de används.

    1. Mänsklig kontroll ska syfta till att förebygga eller minimera de risker för hälsa, säkerhet eller grundläggande rättigheter som kan uppstå när ett AI-systemett maskinbaserat system som är utformat för att fungera med varierande grad av autonomi och som kan uppvisa anpassningsförmåga efter införande och som, för uttryckliga eller underförstådda mål, drar slutsatser härledda från den indata det tar emot, om hur utdata såsom förutsägelser, innehåll, rekommendationer eller beslut som kan påverka fysiska eller virtuella miljöer ska genereras. med hög riskkombinationen av sannolikheten för skada och denna skadas allvarlighetsgrad. används i enlighet med sitt avsedda ändamål eller under förhållanden där det kan förekomma rimligen förutsebar felaktig användninganvändning av ett AI-system på ett sätt som inte överensstämmer med dess avsedda ändamål, men som kan vara resultatet av rimligen förutsebart mänskligt beteende eller interaktion med andra system, inbegripet andra AI-system., särskilt när sådana risker kvarstår trots tillämpningen av andra krav i detta avsnitt.

    1. Tillsynsåtgärderna ska stå i proportion till riskerna, graden av autonomi och användningssammanhang för AI-systemet med hög riskkombinationen av sannolikheten för skada och denna skadas allvarlighetsgrad., och ska säkerställas genom en eller båda av följande typer av åtgärder:

      1. Åtgärder som leverantören har fastställt och, när det är tekniskt möjligt, byggt in i AI-systemet med hög riskkombinationen av sannolikheten för skada och denna skadas allvarlighetsgrad. innan det släpps ut på marknaden eller tas i bruk.

      2. Åtgärder som leverantörer har fastställt innan AI-systemet med hög riskkombinationen av sannolikheten för skada och denna skadas allvarlighetsgrad. släpps ut på marknaden eller tas i bruk och som är lämpliga att genomföras av tillhandahållaren.

    1. Vid genomförandet av punkterna 1, 2 och 3 ska AI-systemet med hög riskkombinationen av sannolikheten för skada och denna skadas allvarlighetsgrad. tillhandahållas tillhandahållaren på ett sådant sätt att fysiska personer som fått i uppdrag att utöva mänsklig kontroll ges möjlighet, enligt vad som är lämpligt och proportionellt, att

      1. korrekt förstå den relevanta kapaciteten och begränsningarna hos AI-systemet med hög riskkombinationen av sannolikheten för skada och denna skadas allvarlighetsgrad. och på vederbörligt sätt kunna övervaka dess drift, bland annat i syfte att upptäcka och ta itu med avvikelser, funktionsstörningar och oväntad prestanda,

      2. förbli medvetna om den möjliga tendensen att automatiskt eller i alltför hög grad lita på de utdata som produceras av ett AI-systemett maskinbaserat system som är utformat för att fungera med varierande grad av autonomi och som kan uppvisa anpassningsförmåga efter införande och som, för uttryckliga eller underförstådda mål, drar slutsatser härledda från den indata det tar emot, om hur utdata såsom förutsägelser, innehåll, rekommendationer eller beslut som kan påverka fysiska eller virtuella miljöer ska genereras. med hög riskkombinationen av sannolikheten för skada och denna skadas allvarlighetsgrad. (automation bias), särskilt när det gäller AI-systemett maskinbaserat system som är utformat för att fungera med varierande grad av autonomi och som kan uppvisa anpassningsförmåga efter införande och som, för uttryckliga eller underförstådda mål, drar slutsatser härledda från den indata det tar emot, om hur utdata såsom förutsägelser, innehåll, rekommendationer eller beslut som kan påverka fysiska eller virtuella miljöer ska genereras. med hög riskkombinationen av sannolikheten för skada och denna skadas allvarlighetsgrad. som används för att tillhandahålla information eller rekommendationer för beslut som ska fattas av fysiska personer,

      3. korrekt kunna tolka utdata från AI-systemet med hög riskkombinationen av sannolikheten för skada och denna skadas allvarlighetsgrad., med beaktande av till exempel tillgängliga tolkningsverktyg och tolkningsmetoder,

      4. i vissa situationer besluta att inte använda AI-systemet med hög riskkombinationen av sannolikheten för skada och denna skadas allvarlighetsgrad. eller på annat sätt bortse från, åsidosätta eller reversera de resultat som AI-systemet med hög riskkombinationen av sannolikheten för skada och denna skadas allvarlighetsgrad. genererar,

      5. ingripa i driften av AI-systemet med hög riskkombinationen av sannolikheten för skada och denna skadas allvarlighetsgrad. eller stoppa systemet med en stoppknapp eller ett liknande förfarande som gör det möjligt för systemet att stoppas i ett säkert läge.

    1. För AI-systemett maskinbaserat system som är utformat för att fungera med varierande grad av autonomi och som kan uppvisa anpassningsförmåga efter införande och som, för uttryckliga eller underförstådda mål, drar slutsatser härledda från den indata det tar emot, om hur utdata såsom förutsägelser, innehåll, rekommendationer eller beslut som kan påverka fysiska eller virtuella miljöer ska genereras. med hög riskkombinationen av sannolikheten för skada och denna skadas allvarlighetsgrad. som avses i punkt 1 a i bilaga III ska de åtgärder som avses i punkt 3 i denna artikel dessutom vara sådana att de säkerställer att ingen åtgärd och inget beslut vidtas respektive fattas av tillhandahållaren på grundval av den identifiering som systemet resulterar i, såvida inte denna identifiering har kontrollerats och bekräftats separat av minst två fysiska personer med nödvändig kompetens, utbildning och auktoritet.

    2. Kravet på en separat kontroll av minst två fysiska personer är inte tillämpligt på AI-systemett maskinbaserat system som är utformat för att fungera med varierande grad av autonomi och som kan uppvisa anpassningsförmåga efter införande och som, för uttryckliga eller underförstådda mål, drar slutsatser härledda från den indata det tar emot, om hur utdata såsom förutsägelser, innehåll, rekommendationer eller beslut som kan påverka fysiska eller virtuella miljöer ska genereras. med hög riskkombinationen av sannolikheten för skada och denna skadas allvarlighetsgrad. som används inom områdena brottsbekämpningverksamhet som genomförs av brottsbekämpande myndigheter eller på deras vägnar för att förebygga, förhindra, utreda, upptäcka eller lagföra brott eller verkställa straffrättsliga påföljder, inbegripet att skydda mot samt förebygga och förhindra hot mot den allmänna säkerheten., migration, gränskontroll eller asyl, om en tillämpning av detta krav enligt unionsrätten eller nationell rätt skulle betraktas som oproportionell.

We're continuously improving our platform to serve you better.

Your feedback matters! Let us know how we can improve.

Found a bug?

Springflod is a Swedish boutique consultancy firm specialising in cyber security within the financial services sector.

We offer professional services concerning information security governance, risk and compliance.

Crafted with ❤️ by Springflod