Schrif­te­lijke vragen betref­fende het gebruik van data van burgers door de gemeente


Geacht college,

Recent maakte de NOS bekend dat de overheid op grote schaal gebruikt maakt van voorspellende algoritmes. Dit bleek uit een vertrouwelijke inventarisatie onder 54 overheidsinstanties, die de NOS verkreeg op basis van de wet openbaar bestuur. Ook de gemeente Groningen zou van de technologie gebruik maken.

Deskundigen, de Raad van State en de autoriteit persoonsgegevens waarschuwen voor het gebruik van algoritmes, omdat minderheidsgroepen stelselmatig kunnen worden benadeeld en er een groot risico bestaat op discriminatie.

In diezelfde week kwam de gemeente Groningen nog tweemaal in het nieuws met betrekking tot datatechnologie. De gemeente zou mensen volgen via het zogenaamde WIFI-tracking, waarbij het publiek gevolgd wordt via hun mobiele telefoon. Daarnaast deed de GGD in Groningen mee aan een pilot, waarin door het toepassen van textmining-algoritmes, signalen van kindermishandeling beter zouden kunnen worden opgespoord.

Hierover stellen wij u graag de volgende vragen.

1. Is het college bekend met bovengenoemde inventarisatie van de NOS over algoritmes? Bent u het met ons eens dat het gebruik van algoritmes een nadelig effect kan hebben op kwetsbare groepen en burgers in het algemeen? Begrijpt u de keuze van de gemeente Uden af te zien van voorspellende algoritmes? Overweegt u dit zelf ook te doen? Graag een uitgebreide toelichting.

2. Klopt het dat de gemeente Groningen gebruik maakt van voorspellende algoritmes? Zo ja, welke gemeentelijke instanties en organisaties waarover de gemeente het bevoegd gezag is, maken gebruik van deze technologie? Is de gemeente voornemens bij meer instanties gebruik te gaan maken van algoritmes? Welke? Met welk doel en waarom denkt u dat juist algoritmes hieraan kunnen bijdragen, wat zijn de voordelen volgens u?

3. De autoriteit persoonsgegevens waarschuwt voor het gebruik van algoritmes en zegt dat de overheid hier transparant in moet zijn. In hoeverre is de gemeente Groningen volgens u voldoende transparant in het gebruik van algoritmes, wanneer een besluit over een persoon (mede) wordt genomen met behulp van deze techniek?

4. Het is niet altijd duidelijk welke gegevens in een algoritme worden gestopt en op basis van welke data een uitkomst wordt gebaseerd. Overheden geven aan dat het soms lastig is om te weten wat er precies gebeurt. In hoeverre doet dit probleem zich volgens u voor in Groningen? Bent u bereid hier onderzoek naar te verrichten? Zo ja, op welke wijze? Zo nee, waarom niet?

5. Eén van de nadelen van het gebruik van algoritmes is dat mensen die niet voldoen aan de kenmerken die ingevoerd zijn in een algoritme, “onopgemerkt” blijven. Ziet u hierin een gevaar, zoals bijvoorbeeld bij het experiment waaraan de GGD meedeed om kindermishandeling op te sporen? Graag een toelichting.

6. "Medewerkers vinden het soms lastig af te wijken van het algoritme als de situatie van de cliënt daar om vraagt" zegt het centrum indicatiestelling zorg. Geldt dit ook voor medewerkers in de gemeente Groningen? Bestaan er regels of methodieken om te voorkomen dat medewerkers te veel steunen op de uitkomsten van een algoritme?

7. Klopt het bericht uit de Volkskrant dat burgers in de gemeente Groningen worden gevolgd via het signaal dat hun mobiele telefoon uitzendt? Zo ja, kunt u toelichten hoe deze data worden gebruikt, of deze met derden worden gedeeld en op welke wijze deze worden opgeslagen en voor hoelang?

8. Bent u het met de Partij voor de Dieren eens dat wanneer burgers worden gevolgd via hun mobiele telefoon, zij hiervan op de hoogte zouden moeten worden gesteld door middel van bijvoorbeeld informatiebordjes? Zo nee, waarom niet?

9. Bij de pilot die de GGD in Groningen wil doen, waarbij door het toepassen van textmining-algoritmes, signalen van kindermishandeling beter zouden kunnen worden opgespoord, zal een lijst ontstaan van mensen of gezinnen, die puur op basis van algoritmes verdacht worden van kindermishandeling. Op welke wijze wordt omgegaan met deze lijst en wordt geborgd dat mensen niet op enigerlei wijze later in hun leven last ondervinden van het feit dat ze op deze lijst staan?

Met vriendelijke groet,

Kirsten de Wrede

Partij voor de Dieren

https://nos.nl/artikel/2286848-overheid-gebruikt-op-grote-schaal-voorspellende-algoritmes-risico-op-discriminatie.html

https://nos.nl/artikel/2286880-privacywaakhond-overheid-moet-transparanter-zijn-over-algoritmes.html

https://www.volkskrant.nl/nieuws-achtergrond/tientallen-nederlandse-gemeenten-volgen-u-met-wifitracking~b5c614ad/

https://www.volkskrant.nl/wetenschap/wifitracking-of-hoe-ook-de-gemeente-elke-stap-volgt-die-u-met-uw-mobiel-maakt~b5ef4a41/?_ga=2.193344365.1950776973.1559732963-1945343759.1545648770

https://www.sociaalweb.nl/nieuws/van-onderzoek-naar-uitvoeringspraktijk-textmining-kindermishandeling

https://specials.publiekdenken.nl/special-isamenleving-2019/aan-de-slag-met-algoritmen/

Antwoorddatum: 10 jul. 2019

Hierbij doen wij u toekomen ons antwoord op de door mevrouw K. de Wrede van de Partij voor de Dieren gestelde vragen ex art. 38 RvO over het gebruik van data van burgers door gemeente Groningen (algoritmes). De brief van de vragensteller treft u als bijlage aan.

Gemeente Groningen speelt een belangrijke rol in de huidige ontwikkelingen in Nederland ten aanzien van het ontwerpen van Principes voor de Digitale Samenleving1. Deze in ontwikkeling zijnde Principes voor de Digitale Samenleving worden dit najaar gepresenteerd op de Bestuurdersdag van de VNG, met de bedoeling deze principes te laten vaststellen.

Gemeente Groningen participeert daarvoor in werkgroepen, onder regie van VNG Realisatie, om allerlei zaken die te maken hebben met Smart Cities te ontrafelen. Eén van die zaken heeft betrekking op behoorlijk bestuur rondom dataverzamelingen in de openbare ruimte. Voor het verkrijgen van die data worden bijvoorbeeld camera’s opgehangen binnen de gemeente Groningen en sensoren in de infrastructuur (zoals verkeersregelinstallaties) geplaatst. Het gebruik van moderne technologieën zoals algoritmes en Wi-Fi-tracking door de gemeente Groningen dienen ook binnen deze context te worden bezien.

Beantwoording van de vragen:

1. a. Is het college bekend met bovengenoemde inventarisatie van de NOS

over algoritmes?

- Ja, het college van B&W is geïnformeerd over dit WOB-verzoek.

b. Bent u het met ons eens dat het gebruik van algoritmes een nadelig

effect kan hebben op kwetsbare groepen en burgers in het algemeen?

- Ja, indien algoritmes (maar methodologieën in het algemeen)

onzorgvuldig worden gebruikt, kan dit inderdaad een nadelig effect

hebben op elke betrokken groep of burger. Eén van de uitdagingen is, zoals bij alle informatieverwerkingsprocessen

/-systemen, het voeden van in dit geval de algoritmes met betrouwbare

data. Het borgen van de datakwaliteit en beoordelen van de uitkomsten

door mensen blijft relevant om het risico van ‘garbage in = garbage out’

te kunnen voorkomen. Algoritmes kunnen het menselijk handelen, inclusief de vooroordelen en

handelingen uit het verleden (die bepaalde bevolkingsgroepen ook nu al

bevoordeelden of benadeelden) inzichtelijk maken.

Het gebruik van algoritmes zelf vormt in de basis niet de oorzaak van

bijvoorbeeld discriminatie, maar deze algoritmes kunnen de effecten wel

versterken. Het is daarom van belang om deze menselijke bias / vooroordelen te

herkennen zodat ze kunnen worden bestreden of voorkomen. Het

gebruik van algoritmes kan hierbij helpen, zodat betere conclusies

kunnen worden getrokken.

c. Begrijpt u de keuze van de gemeente Uden af te zien van voorspellende

algoritmes?

- Het argument van de gemeente Uden om de uitkomsten van een

algoritme niet als werkelijkheid te zien is een begrijpelijk argument.

Onderzoeken waarbij gebruik wordt gemaakt van algoritmes dienen een

exploratief karakter te hebben, waarbij gezocht wordt naar aanwijzingen

in de data zonder dat deze direct tot (automatische) besluitvorming

leiden.

d. Overweegt u dit zelf ook te doen? Graag een uitgebreide toelichting.

- Nee, de gemeente Groningen overweegt dit niet. Onder de juiste

randvoorwaarden (privacy: werken op basis van een wettelijke

grondslag en het in acht nemen van de beginselen voor de verwerking

van (persoons)gegevens met daarbij een nauw omschreven doel. En de

juiste mate van informatiebeveiliging) vindt de gemeente Groningen dat

het zorgvuldig gebruik van algoritmes geoorloofd is. Dit om te komen

tot betere (meer effectieve en efficiënte) analyses voor de uitvoering van

haar kerntaken.

Wij willen benadrukken dat de gemeente Groningen het belang van het

op de juiste manier vergaren en analyseren van data hoog in het vaandel

heeft. Wij nemen de maximale zorgvuldigheid in acht bij de verwerking

van deze data. De gemeente Groningen probeert daarbij een proactieve

bijdrage te leveren aan de ontwikkeling van de visie op deze nieuwe

technologieën en de zienswijze op landelijk niveau.

2.

a. Klopt het dat de gemeente Groningen gebruik maakt van voorspellende

algoritmes?

- Ja.

b. Zo ja, welke gemeentelijke instanties en organisaties waarover de

gemeente het bevoegd gezag is, maken gebruik van deze technologie?

- Binnen het Sociaal Domein:

Voor de uitvoering van de Participatiewet probeert de gemeente

Groningen te komen tot een wiskundig model waarmee de

uitvoeringspraktijk zo goed mogelijk wordt ondersteund. Zo’n model

beoogt kenmerken vast te stellen waarmee patronen zo scherp mogelijk

in beeld komen. Dit allemaal op basis van eigen informatie uit het

verleden: vastgelegd in de uitkeringsadministratie, de registratie

rechtshandhaving, de registratie van schuldhulpverlening, de

basisregistratie personen en de basisregistratie adressen en gebouwen.

- Binnen de GGD:

Momenteel maakt de gemeente Groningen geen gebruik van

voorspellende algoritmes. GGD Groningen (JGZ) is voornemens een

pilot te starten in de provincie Groningen om de bruikbaarheid van een

voorspellende algoritmes op basis van productiedata te testen. Het doel

is het verbeteren van de signalering van kindermishandeling. Onze

inwoners profiteren van het gebruik van algoritmes. Het kan immers

helpen om bijvoorbeeld onterechte handhavingsonderzoeken en

-maatregelen (buitengewoon vervelend voor cliënten) terug te dringen.

Is de gemeente voornemens bij meer instanties gebruik te gaan maken van

algoritmes? Welke? Met welk doel en waarom denkt u dat juist algoritmes

hieraan kunnen bijdragen, wat zijn de voordelen volgens u?

- Nee.

3. De autoriteit persoonsgegevens waarschuwt voor het gebruik van algoritmes en

zegt dat de overheid hier transparant in moet zijn.

a. In hoeverre is de gemeente Groningen volgens u voldoende transparant

in het gebruik van algoritmes, wanneer een besluit over een persoon

(mede) wordt genomen met behulp van deze techniek?

- Binnen het Sociaal Domein:

De gemeente Groningen vindt het belangrijk om fraude op te sporen,

want fraude ondermijnt het draagvlak onder onze sociale zekerheid.

De afdeling Onderzoek Informatie en Statistiek stelt momenteel, in het

kader van transparantie, een zogenaamd verantwoordingsrapportage op.

Deze rapportage wordt opgesteld mede op verzoek van het ministerie

4

van Sociale Zaken en Werkgelegenheid in het kader van

‘Handhavingskoers sociale zekerheid 2018-2021’.

Data-analyses moeten plaatsvinden binnen de kaders van de Algemene

Verordening Gegevensbescherming (AVG). De Functionaris

Gegevensbescherming toetst deze en is nadrukkelijk bij dit soort

onderzoeken betrokken.

Eén van de uitgangspunten van de AVG is transparantie over het

verwerken van persoonsgegevens. De gemeenten dienen op grond van

de AVG altijd informatie te geven over de aard van de verwerking.

Daarbij kan de betrokkene een klacht indienen over de geboden

transparantie bij de Autoriteit Persoonsgegevens als toezichthoudende

autoriteit op grond van de AVG.

Het gebruik van algoritmes voor de fraudebestrijding binnen het Sociaal

Domein is opgenomen in het verwerkingenregister van de gemeente

Groningen. Dit register is momenteel echter nog niet gepubliceerd door

de gemeente Groningen.

Binnen het aanvraagproces voor uitkeringen wordt momenteel geen

gebruik gemaakt van algoritmes. Alleen binnen de afdeling Handhaving

wordt in een pilot (data-gestuurd werken) repressief gebruik gemaakt

van algoritmes voor handhavingsdoeleinden. Het gebruik van de

algoritmes is aanvullend op de bestaande handhavingspraktijk.

- Binnen de GGD:

Zodra de financiering voor de pilot rond is en de GGD Groningen gaat

starten met deze pilot dan zullen de cliënten hierover worden

geïnformeerd.

4. Het is niet altijd duidelijk welke gegevens in een algoritme worden gestopt en op

basis van welke data een uitkomst wordt gebaseerd. Overheden geven aan dat

het soms lastig is om te weten wat er precies gebeurt.

a. In hoeverre doet dit probleem zich volgens u voor in Groningen?

- Dit is niet van toepassing binnen de gemeente Groningen. De gebruikte

data zijn bekend binnen het Sociaal Domein. Er wordt gebruik gemaakt

van eenvoudige algoritmes (decision tree en random forest) voor de

data-analyses die goed uit te leggen zijn. Van belang is te vermelden dat met betrekking tot de handhaving in het

Sociaal Domein geen sprake is van automatische besluitvorming.

Signalen, ook signalen die door middel van data-analyse tot stand

komen, moeten altijd eerst onderzocht worden met toepassing van het

beginsel van hoor en wederhoor, alvorens een sanctie kan worden

opgelegd.

- Binnen de GGD:

Niet van toepassing zolang het algoritme nog niet wordt gebruikt.

b. Bent u bereid hier onderzoek naar te verrichten? Zo ja, op welke wijze?

Zo nee, waarom niet?

- Ja, indien daartoe aanleiding is. De gemeente Groningen ziet uit naar

landelijke richtlijnen omtrent het zorgvuldig gebruik van algoritmes

binnen de uitvoering van haar wettelijke taken.

- Overigens investeert de gemeente Groningen binnen het Sociaal Domein

voor het begrijpen van de werking van algoritmes reeds in onderzoek

door promovenda van de Rijksuniversiteit Groningen.

- Binnen de GGD:

Een lector aan de Hanzehogeschool zal worden gevraagd hier gedurende

de pilot onderzoek naar te verrichten.

5. Eén van de nadelen van het gebruik van algoritmes is dat mensen die niet

voldoen aan de kenmerken die ingevoerd zijn in een algoritme, “onopgemerkt”

blijven.

a. Ziet u hierin een gevaar, zoals bijvoorbeeld bij het experiment waaraan

de GGD meedeed om kindermishandeling op te sporen? Graag een

toelichting.

- GGD Groningen heeft meegedaan aan een onderzoekpilot en ziet geen

gevaar dat signalen van vermoedens kindermishandeling onopgemerkt

blijven.

Door het toepassen van algoritmes wordt er juist een systeem in staat

gebracht die gemiste signalen van vermoedens van kindermishandeling

actief opspoort.

Dit algoritme werd getraind met oude geanonimiseerde data, waarbij

signalen van (vermoedens van) kindermishandeling aan de orde waren.

In deze pilot bleek het algoritme in circa 80% van de vermoedens terecht

te hebben gesignaleerd. Door het algoritme te blijven voeden met

resultaten uit het verleden, kan het percentage van 80% nog hoger

worden. Bij een correcte werking van algoritmes is het juist de bedoeling dat

mensen die onschuldig zijn terecht niet worden aangemerkt of

opgemerkt. Het belangrijkste doel is om het onopgemerkt blijven van vermoedens

van kindermishandeling terug te dringen. Naar schatting is slechts een

derde van het daadwerkelijke aantal situaties van kindermishandeling in

beeld.

6. "Medewerkers vinden het soms lastig af te wijken van het algoritme als de

situatie van de cliënt daar om vraagt" zegt het Centrum Indicatiestelling Zorg.

a. Geldt dit ook voor medewerkers in de gemeente Groningen?

- Voor het Sociaal Domein is een dergelijke situatie niet van toepassing,

aangezien het gebruik van algoritmes zich nog in de testfase bevindt.

- Voor de GGD:

Het algoritme geeft enkel een signaal af bij vermoeden van gemiste

signalen kindermishandeling. Er wordt geen (inhoudelijke) informatie

opgeslagen. De medewerkers van de gemeente Groningen beseffen dat het juist goed

is om zich niet volledig te laten leiden door hetgeen een algoritme

aanwijst. De menselijke intelligentie is altijd leidend, zeker als de

situatie daar naar vraagt. Het is aan de jeugdgezondheidszorgmedewerker

zelf hiernaar te acteren. Alvorens deze pilot start worden

beroepskrachten getraind in het gebruik van het voorspellende

algoritme.

b. Bestaan er regels of methodieken om te voorkomen dat medewerkers te

veel steunen op de uitkomsten van een algoritme?

- Er worden binnen het Sociaal Domein altijd aanvullende blinde

steekproeven gedaan, buiten de uitkomsten van het algoritme, op de hele

populatie.

- Voor de GGD:

De inzet van de menselijke intelligentie blijft altijd bepalend voor wat er

met de aanwijzingen van het algoritme gebeurt.

De techniek kan de professional niet vervangen, maar biedt slechts

ondersteuning bij de signalering van (vermoedens van)

kindermishandeling. Het is vervolgens de professional die hier een

vervolg aan geeft. Dat vervolg vraagt om een hoge mate van

professionele sensitiviteit, waarover een algoritme niet beschikt.

7.

a. Klopt het bericht uit de Volkskrant dat burgers in de gemeente

Groningen worden gevolgd via het signaal dat hun mobiele telefoon

uitzendt?

- Nee, dit bericht klopt niet. De bezoekers aan de binnenstad van

gemeente Groningen worden niet gevolgd via het signaal van hun

mobiele telefoon. Wel wordt het aantal passanten op verschillende

locaties in de binnenstad van Groningen geteld. De wijze waarop dit

tellen van passanten geschiedt, voldoet aan de Europese privacyverordening

(AVG) en aan de recente richtlijnen van de Autoriteit

Persoonsgegevens.

b. Zo ja, kunt u toelichten hoe deze data worden gebruikt, of deze met

derden worden gedeeld en op welke wijze deze worden opgeslagen en

voor hoelang?

- Het externe bureau Locatus telt momenteel op verschillende locaties in

de binnenstad het aantal passanten, in opdracht van de gemeente

Groningen. Dit is ten behoeve van de monitoring van de binnenstad. Met

het monitoren krijgt de gemeente Groningen een beeld van de

bezoekersaantallen in de binnenstad op verschillende locaties en de

daarmee samenhangende (economische) ontwikkeling.

De aantallen passanten per telpunt worden door leverancier Locatus

gedeeld met de gemeente Groningen en op aanvraag met pandeigenaren

en winkeliers.

De persoonsgegevens worden niet blijvend opgeslagen en binnen één

milliseconde geanonimiseerd. De geanonimiseerde, niet op

persoonsniveau herleidbare data worden wel opgeslagen, in principe

voor onbepaalde tijd.

8. Bent u het met de Partij voor de Dieren eens dat wanneer burgers worden

gevolgd via hun mobiele telefoon, zij hiervan op de hoogte zouden moeten

worden gesteld door middel van bijvoorbeeld informatiebordjes? Zo nee,

waarom niet?

- Niet van toepassing, de burgers worden niet gevolgd via hun mobiele

telefoon (zie toelichting vraag 7).

9. Bij de pilot die de GGD in Groningen wil doen, waarbij door het toepassen van

textmining-algoritmes, signalen van kindermishandeling beter zouden kunnen

worden opgespoord, zal een lijst ontstaan van mensen of gezinnen, die puur op

basis van algoritmes verdacht worden van kindermishandeling.

a. Op welke wijze wordt omgegaan met deze lijst en wordt geborgd dat

mensen niet op enigerlei wijze later in hun leven last ondervinden van

het feit dat ze op deze lijst staan?

- Deze stelling is onjuist. GGD Groningen heeft meegedaan aan de

bovengenoemde pilot. Het algoritme werd getraind met oude

geanonimiseerde data van het systeem MLcas, waarbij signalen van

vermoedens van kindermishandeling aan de orde waren. GGD

Groningen zal haar datasysteem MLcas zo instellen dat door middel van

algoritmes de jeugdgezondheidsprofessional tijdens consulten, adequater

kan handelen bij (gemiste) signalen van vermoedens

kindermishandeling. Er komt dus geen lijst van mensen of gezinnen. Het

algoritme is slechts een hulpmiddel voor de jeugdgezondheidsprofessional

van GGD Groningen.