Anoniem13
Legacy Member
Tijd om het eens te hebben over de trend waarbij onze maatschappij meer en meer door "zwarte doos" AI systemen bepaald wordt.
Deze systemen maken belangrijke beslissingen die serieuze gevolgen kunnen hebben voor een individu en het grote probleem bij "zwarte doos" AI systemen is dat de interne werking ervan niet gekend is. Het resultaat valt niet te verklaren.
Als je gedurende 10 minuten deze video bekijkt dan wordt het probleem hopelijk wat duidelijker, hij legt het ook wat beter uit dan ik.
Dit kan leiden tot allerlei bizarre situaties zoals recent nog Apple met hun Apple Card die gehuwde vrouwen om een of andere reden niet dezelfde kredietscore geeft als hun echtgenoten hoewel hun inkomsten niet afzonderlijk gerekend worden. zie hier
Of Amazon die dacht om AI te gebruiken om CVs' te evalueren en dan automatisch vrouwen wegfilterde. zie hier
Of AI die bepaalt wie een lening kan krijgen. zie hier
Of AI die bepaalt welke gevangenen recividisten zullen zijn. zie hier
Dat de resultaten niet te interpreteren zijn is m.i. het grote probleem zoals al gezegd en een van de gevaarlijke gevolgen daarvan is dat je de beslissingen vaak niet in vraag kan stellen. Het algoritme bepaalde dat je niet geschikt was en daar valt weinig aan te doen. Er is namelijk geen mens die kan verklaren hoe die beslissing genomen werd. Het gebruik van deze technieken is natuurlijk enorm kostenbesparend, maar de gevolgen voor het individu mogen niet onderschat worden vind ik. Vooral Big Tech (Google, Facebook, Amazon, Apple, ...) maakt gebruik van deze technieken, maar er zijn meer en meer AI startups die deze technieken willen gebruiken voor toepassingen die voorlopig nog altijd tot het domein der mensen behoren.
Willen we werkelijk een toekomst waarin beslissingen genomen worden door AI systemen die niet te verklaren vallen en waar overheden en bedrijven de verantwoordelijkheid kunnen doorschuiven naar het algoritme?
Deze systemen maken belangrijke beslissingen die serieuze gevolgen kunnen hebben voor een individu en het grote probleem bij "zwarte doos" AI systemen is dat de interne werking ervan niet gekend is. Het resultaat valt niet te verklaren.
Als je gedurende 10 minuten deze video bekijkt dan wordt het probleem hopelijk wat duidelijker, hij legt het ook wat beter uit dan ik.
Dit kan leiden tot allerlei bizarre situaties zoals recent nog Apple met hun Apple Card die gehuwde vrouwen om een of andere reden niet dezelfde kredietscore geeft als hun echtgenoten hoewel hun inkomsten niet afzonderlijk gerekend worden. zie hier
Of Amazon die dacht om AI te gebruiken om CVs' te evalueren en dan automatisch vrouwen wegfilterde. zie hier
Of AI die bepaalt wie een lening kan krijgen. zie hier
Of AI die bepaalt welke gevangenen recividisten zullen zijn. zie hier
Dat de resultaten niet te interpreteren zijn is m.i. het grote probleem zoals al gezegd en een van de gevaarlijke gevolgen daarvan is dat je de beslissingen vaak niet in vraag kan stellen. Het algoritme bepaalde dat je niet geschikt was en daar valt weinig aan te doen. Er is namelijk geen mens die kan verklaren hoe die beslissing genomen werd. Het gebruik van deze technieken is natuurlijk enorm kostenbesparend, maar de gevolgen voor het individu mogen niet onderschat worden vind ik. Vooral Big Tech (Google, Facebook, Amazon, Apple, ...) maakt gebruik van deze technieken, maar er zijn meer en meer AI startups die deze technieken willen gebruiken voor toepassingen die voorlopig nog altijd tot het domein der mensen behoren.
Willen we werkelijk een toekomst waarin beslissingen genomen worden door AI systemen die niet te verklaren vallen en waar overheden en bedrijven de verantwoordelijkheid kunnen doorschuiven naar het algoritme?