Algoritmer som sk*ter där de äter – när AI befäster fördomar

15 november, 2018

Artificiell intelligens och maskininlärning är hett och möjligheterna är många. Vi får bara akta oss så att vi inte tar med oss en massa fördomar in i den sköna nya framtiden.

När maskiner lär sig av oss – som är fallet med AI och machine learning – lär de sig också av våra fel och brister. Vi drar lätt den felaktiga slutsatsen att bara för att något bygger på data eller är programmerat så är det också värdeneutrala fakta. Så är det förstås inte.

Ett avsnitt av podden “You are not so smart” med titeln Machine bias tar upp det faktum att redan idag används algoritmer inom t ex USAs juridiska system som kan avgöra vem som får ett mildare eller hårdare straff, baserat på sådant som etnicitet.

Reproducerar fördomar
Algoritmen gör då ett förslag som inte tar hänsyn till om etniciteten är relevant i det aktuella fallet utan ”ärver” bara gamla förhållanden (att proportionerligt fler av en viss etnisk grupp historiskt har fått fängelsestraff) och föreslår att vi reproducerar dem.

Avsnittet tar också upp hur meddelandetjänster ger dig förslag på hur du kan komplettera påbörjade meningar där programvaran förutsätter att en läkare är en man och en sjuksköterska är kvinna.

Algoritmer som sk*iter där de äter
Det här kallas med ett roligt uttryck ”algorithms that shit where they eat”. Lyssna på podden och hur ett par kloka forskare och experter från bl a Harvard Business School diskuterar hur vi människor kan ta ansvar för etiken och få tekniken att hjälpa oss på riktigt.

Kommentera här

E-postadressen publiceras inte. Obligatoriska fält är märkta *

Health for wealth © 2020