News

Betekenen oorlog en misdaad het einde van privacy in Europa? – Joop


  •  

Vandaag

  •  

leestijd 3 minuten

  •  

141 keer bekeken

  •  

39225139155_3e4e9e7a7c_o

een gepixeld gezicht

© cc-foto: EFF Pictures

De oorlog in Oekraïne kostte al meer dan 1400 Oekraïners het leven. Om de identiteit van de slachtoffers te bepalen wordt een systeem gebruikt waar tien miljard foto’s in staan, zonder dat iemand in die database daar ooit toestemming voor heeft gegeven. Dat is niet het enige Europese privacy-schandaal: de Europe Commissie heeft een plan voor één van de grootste gezichtsherkenningssystemen ter wereld. Betekent dit het einde van privateness in Europa?

Clearview
Clearview AI, een Amerikaans bedrijf, helpt de Oekraïense overheid ‘om niets’ om de identiteit van haar burgers te helpen bepalen. Zo kunnen dodelijke slachtoffers beter geïdentificeerd worden. Ook bij checkpoints komt de software program van pas, need met de techniek worden niet-Oekraïners sneller herkend. Dat klinkt als goed nieuws, maar dat is het niet.

De gezichtsherkenningssoftware van het bedrijf is namelijk allesbehalve privacy-vriendelijk. Sterker nog: de kans is groot dat ook jouw foto in Clearview AI staat, zonder dat je daar ooit toestemming voor hebt gegeven. Ook als je geen social media hebt, sta je waarschijnlijk in het systeem, need de kans is groot dat je op een (on-line) groepsfoto staat en ‘getagd’ bent. Clearview heeft inmiddels meer dan tien miljard foto’s through social media en andere on-line bronnen verzameld.

Google, Meta (het moederbedrijf van Fb) en Twitter verzochten Clearview AI om te stoppen met het verzamelen van foto’s, maar daar gaat het bedrijf vrolijk mee door. Boetes houden het bedrijf niet tegen, zelfs niet de 20 miljoen euro boete die het vorige maand kreeg in Italië omdat het bedrijf zich niet houdt aan de Europese privacyrichtlijn GDPR.

Clearview AI komt daarbij regelmatig in opspraak wegens racisme en andere vormen van discriminatie die zich vaak voordoen bij kunstmatig intelligente systemen. Willen we echt dat een racistisch algoritme bepaalt wie wie is? Leren we dan niets van de toeslagenaffaire waarbij een racistisch algoritme bepaalde wie waarschijnlijk met toeslagen zou frauderen?

Het bedrijf wil tot overmaat van ramp zijn software program verkopen aan Verenigde Arabische Emiraten, dat weinig vredelievend is tegenover politieke dissidenten. Op de verlanglijst staan ook Qatar en Singapore, waar homoseksualiteit strafbaar is. Moeten deze landen echt de beschikking krijgen over een database met tien miljard foto’s om zo kritische burgers en homo’s op te sporen? En wat gebeurt er als deze software program in handen komt van Russische soldaten, die zo ook Oekraïense burgers kunnen identificeren?

Prüm II
Ook in de EU staat privateness onder druk. Prüm II, een nieuw plan van de Europese Commissie, laat Europese landen foto’s van verdachten vergelijken. Web zoals bij Clearview AI wordt er gebruik gemaakt van slimme algoritmes om geportretteerden te identificeren. Handig als een Spaanse crimineel zich in Frankrijk bevindt, toch?

Als dit plan doorgaat, ontstaat een van de grootste gezichtsherkenningssystemen ter wereld. De politiediensten kunnen stilstaande beelden van CCTV-camera’s, foto’s van sociale media of die op de telefoon van een slachtoffer vergelijken met mugshots in een politiedatabase. De burgerrechten-ngo European Digital Rights (EDRi) noemt het de meest uitgebreide biometrische surveillance infrastructuur ter wereld.

Het gebruik van gezichtsherkenningstechnologie is niet zonder risico: wie verkeerd geïdentificeerd wordt door zo’n algoritme is de klos, wat tot schrijnende situaties leidde in de Verenigde Staten. Tientallen steden in Amerika verbieden hun lokale politiediensten dan ook om gezichtsherkenning-technologie te gebruiken. De EU debatteert op dit second nog over zo’n verbod.

Clearview AI en Prüm II illustreren een trendy dilemma voor Europa. Accepteren we dat de privateness van – ook onschuldige – burgers geschonden wordt in de strijd tegen misdaad? Komen we in verzet tegen een bedrijf dat software program ontwikkelt om mensenrechtenschendingen mogelijk te maken, ook als dat bedrijf Oekraïne helpt om slachtoffers te identificeren? Is het weggeven van software program aan een land in oorlog niet een smakeloze manier om goede sier te maken, iets als greenwashing (duurzame schijn), maar dan warwashing? En zouden we iets leren van de toeslagenaffaire, waarbij we de macht uit handen gaven aan een racistisch algoritme? 



Supply hyperlink

Leave a Reply

Your email address will not be published.

close