Har människor övervägt AI och algoritmiskt bias?
- Kehinde Soetan
- 15 jan.
- 3 min läsning

AI och algoritmisk bias är en komplex och pågående utmaning för människor. Enligt Wikipedia beskriver algoritmisk bias systematiska och upprepbara fel i ett datasystem som skapar "orättvisa" resultat, såsom att "privilegiera" en kategori framför en annan – på sätt som skiljer sig från algoritmens avsedda funktion. Å andra sidan kan algoritmisk bias också uppstå när en algoritm producerar resultat som är "systematiskt partiska" på grund av felaktiga antaganden i maskin inlärnings processen eller på grund av "redan partisk data".
Kvaliteten och mångfalden av data påverkar direkt resultaten eftersom AI-system ofta är designade för att lära sig från data. Bias kan uppstå från begränsad dataingång, orättvisa algoritmer, användning av gammal data, brist på transparens i datainsamlingsprocessen samt från partiska metoder under AI-utvecklingen. Många faktorer kan också leda till bias. Dessa faktorer inkluderar: algoritmdesignen, datainsamlingsprocessen, dataselektionsprocessen, beslut om hur data kodas, hur den insamlade datan används och andra. Det kan finnas olika typer av AI-bias: modellbias, databias, fördomar i design, mänsklig bias, feedback loopar, socio-tekniska faktorer och andra.
En datainsamlings- och selektionsprocess som inte är tillräckligt inkluderande när den används för att träna ett AI-system kommer att ge partiska resultat. Detta blir oroande om AI-systemet används inom viktiga områden som rättsväsendet, sjukvård eller straffrätt. Den skapade biasen kan förstärka befintliga ojämlikheter och göra det svårare att hantera problem som rasism eller könsdiskriminering och kan leda till systemiska problem där vissa grupper marginaliseras på grund av beslut fattade av sådana partiska system.
Adoptionen av artificiell intelligens inom kritiska områden som rättsväsende, rättssystem, rekrytering, sjukvård, finans och andra dagliga aktiviteter gör det avgörande för ledare, organisationer, dataexperter, maskininlärningsexperter och andra yrkesverksamma att ta itu med problemet med algoritmisk bias som följer med AI. Det bör noteras att även om datan är av god kvalitet kan algoritmens design (modellen) fortfarande leda till partiska resultat. Dessa partiska resultat lämnar människor med några frågor som måste besvaras. Några av dessa frågor inkluderar:
När algoritmer fattar partiska beslut, vem är då ansvarig? Till exempel, om ett partiskt AI-system endast anställer från en viss ras, ursprung eller kön, eller om ett AI-system orsakar skada inom sjukvården – hur kommer eller hur bör de skyldiga identifieras? Kommer de skyldiga vara de utvecklare som bearbetade och arbetade med datan, maskin inlärnings experterna, dataleverantörerna eller de institutioner som använder systemet?
Hur bör detta hanteras etiskt eller juridiskt? Vem tar på sig ansvaret eller betalar för den skada som orsakats?
Dessa är områden som människor måste ta itu med och finjustera innan den fullständiga adoptionen av AI. Bristen på ansvarighet inom dessa områden kommer att leda till förlorat förtroende för systemet och kommer ytterligare att återskapa och förstärka systemiska problem som nästan tidigare har blivit utrotade.
Organisationer bör erkänna att det finns viktiga utmaningar som följer med att hantera bias. Frågor som hur man hittar balansen mellan att göra algoritmer effektiva och rättvisa bör tänkas igenom noggrant. När man besvarar dessa frågor bör man förstå att definitionen av "rättvisa" varierar stort och att vad som är rättvist, till exempel i kontexten av sjukvård, inte nödvändigtvis är rättvist i kontexten av rekrytering. Dessa olika perspektiv gör det svårt att utveckla en universell definition av "rättvisa" som gäller över alla domäner. Organisationer bör omfamna regelbundna revisioner av AI-system för att kontrollera rättvisa och ansvar, skapa "AI-etiska nämnder" för att hjälpa till att identifiera vad som är rättvist och etiskt, investera tidigt i "bias-detekterings verktyg" och höja kontinuerlig medvetenhet bland anställda för att hjälpa till att säkerställa att systemet är transparent och fritt från bias.
Ett bra samarbete mellan den offentliga och privata sektorn för att hjälpa till att definiera vad som är rättvist eller inte, ökad allmän medvetenhet och utbildning, mer akademisk forskning, inkludering av reglerande myndigheter som ska säkerställa rättvisa i AI-system samt företagsansvar – alla spelar en viktig roll i att mildra bias och säkerställa att AI-teknologier är rättvisa och etiska.
Behöver du hjälp med att utbilda dina team/ledare?
Kontakta oss: https://www.gritscales.com/contact
mycket intressant
bra