Schriftelijke vragen betreffende het gebruik van data van burgers door de gemeente
Indiendatum: jun. 2019
Geacht college,
Recent maakte de NOS bekend dat de overheid op grote schaal gebruikt maakt van voorspellende algoritmes. Dit bleek uit een vertrouwelijke inventarisatie onder 54 overheidsinstanties, die de NOS verkreeg op basis van de wet openbaar bestuur. Ook de gemeente Groningen zou van de technologie gebruik maken.
Deskundigen, de Raad van State en de autoriteit persoonsgegevens waarschuwen voor het gebruik van algoritmes, omdat minderheidsgroepen stelselmatig kunnen worden benadeeld en er een groot risico bestaat op discriminatie.
In diezelfde week kwam de gemeente Groningen nog tweemaal in het nieuws met betrekking tot datatechnologie. De gemeente zou mensen volgen via het zogenaamde WIFI-tracking, waarbij het publiek gevolgd wordt via hun mobiele telefoon. Daarnaast deed de GGD in Groningen mee aan een pilot, waarin door het toepassen van textmining-algoritmes, signalen van kindermishandeling beter zouden kunnen worden opgespoord.
Hierover stellen wij u graag de volgende vragen.
1. Is het college bekend met bovengenoemde inventarisatie van de NOS over algoritmes? Bent u het met ons eens dat het gebruik van algoritmes een nadelig effect kan hebben op kwetsbare groepen en burgers in het algemeen? Begrijpt u de keuze van de gemeente Uden af te zien van voorspellende algoritmes? Overweegt u dit zelf ook te doen? Graag een uitgebreide toelichting.
2. Klopt het dat de gemeente Groningen gebruik maakt van voorspellende algoritmes? Zo ja, welke gemeentelijke instanties en organisaties waarover de gemeente het bevoegd gezag is, maken gebruik van deze technologie? Is de gemeente voornemens bij meer instanties gebruik te gaan maken van algoritmes? Welke? Met welk doel en waarom denkt u dat juist algoritmes hieraan kunnen bijdragen, wat zijn de voordelen volgens u?
3. De autoriteit persoonsgegevens waarschuwt voor het gebruik van algoritmes en zegt dat de overheid hier transparant in moet zijn. In hoeverre is de gemeente Groningen volgens u voldoende transparant in het gebruik van algoritmes, wanneer een besluit over een persoon (mede) wordt genomen met behulp van deze techniek?
4. Het is niet altijd duidelijk welke gegevens in een algoritme worden gestopt en op basis van welke data een uitkomst wordt gebaseerd. Overheden geven aan dat het soms lastig is om te weten wat er precies gebeurt. In hoeverre doet dit probleem zich volgens u voor in Groningen? Bent u bereid hier onderzoek naar te verrichten? Zo ja, op welke wijze? Zo nee, waarom niet?
5. Eén van de nadelen van het gebruik van algoritmes is dat mensen die niet voldoen aan de kenmerken die ingevoerd zijn in een algoritme, “onopgemerkt” blijven. Ziet u hierin een gevaar, zoals bijvoorbeeld bij het experiment waaraan de GGD meedeed om kindermishandeling op te sporen? Graag een toelichting.
6. "Medewerkers vinden het soms lastig af te wijken van het algoritme als de situatie van de cliënt daar om vraagt" zegt het centrum indicatiestelling zorg. Geldt dit ook voor medewerkers in de gemeente Groningen? Bestaan er regels of methodieken om te voorkomen dat medewerkers te veel steunen op de uitkomsten van een algoritme?
7. Klopt het bericht uit de Volkskrant dat burgers in de gemeente Groningen worden gevolgd via het signaal dat hun mobiele telefoon uitzendt? Zo ja, kunt u toelichten hoe deze data worden gebruikt, of deze met derden worden gedeeld en op welke wijze deze worden opgeslagen en voor hoelang?
8. Bent u het met de Partij voor de Dieren eens dat wanneer burgers worden gevolgd via hun mobiele telefoon, zij hiervan op de hoogte zouden moeten worden gesteld door middel van bijvoorbeeld informatiebordjes? Zo nee, waarom niet?
9. Bij de pilot die de GGD in Groningen wil doen, waarbij door het toepassen van textmining-algoritmes, signalen van kindermishandeling beter zouden kunnen worden opgespoord, zal een lijst ontstaan van mensen of gezinnen, die puur op basis van algoritmes verdacht worden van kindermishandeling. Op welke wijze wordt omgegaan met deze lijst en wordt geborgd dat mensen niet op enigerlei wijze later in hun leven last ondervinden van het feit dat ze op deze lijst staan?
Met vriendelijke groet,
Kirsten de Wrede
Partij voor de Dieren
https://nos.nl/artikel/2286880-privacywaakhond-overheid-moet-transparanter-zijn-over-algoritmes.html
https://specials.publiekdenken.nl/special-isamenleving-2019/aan-de-slag-met-algoritmen/
Indiendatum:
jun. 2019
Antwoorddatum: 10 jul. 2019
Hierbij doen wij u toekomen ons antwoord op de door mevrouw K. de Wrede van de Partij voor de Dieren gestelde vragen ex art. 38 RvO over het gebruik van data van burgers door gemeente Groningen (algoritmes). De brief van de vragensteller treft u als bijlage aan.
Gemeente Groningen speelt een belangrijke rol in de huidige ontwikkelingen in Nederland ten aanzien van het ontwerpen van Principes voor de Digitale Samenleving1. Deze in ontwikkeling zijnde Principes voor de Digitale Samenleving worden dit najaar gepresenteerd op de Bestuurdersdag van de VNG, met de bedoeling deze principes te laten vaststellen.
Gemeente Groningen participeert daarvoor in werkgroepen, onder regie van VNG Realisatie, om allerlei zaken die te maken hebben met Smart Cities te ontrafelen. Eén van die zaken heeft betrekking op behoorlijk bestuur rondom dataverzamelingen in de openbare ruimte. Voor het verkrijgen van die data worden bijvoorbeeld camera’s opgehangen binnen de gemeente Groningen en sensoren in de infrastructuur (zoals verkeersregelinstallaties) geplaatst. Het gebruik van moderne technologieën zoals algoritmes en Wi-Fi-tracking door de gemeente Groningen dienen ook binnen deze context te worden bezien.
Beantwoording van de vragen:
1. a. Is het college bekend met bovengenoemde inventarisatie van de NOS
over algoritmes?
- Ja, het college van B&W is geïnformeerd over dit WOB-verzoek.
b. Bent u het met ons eens dat het gebruik van algoritmes een nadelig
effect kan hebben op kwetsbare groepen en burgers in het algemeen?
- Ja, indien algoritmes (maar methodologieën in het algemeen)
onzorgvuldig worden gebruikt, kan dit inderdaad een nadelig effect
hebben op elke betrokken groep of burger. Eén van de uitdagingen is, zoals bij alle informatieverwerkingsprocessen
/-systemen, het voeden van in dit geval de algoritmes met betrouwbare
data. Het borgen van de datakwaliteit en beoordelen van de uitkomsten
door mensen blijft relevant om het risico van ‘garbage in = garbage out’
te kunnen voorkomen. Algoritmes kunnen het menselijk handelen, inclusief de vooroordelen en
handelingen uit het verleden (die bepaalde bevolkingsgroepen ook nu al
bevoordeelden of benadeelden) inzichtelijk maken.
Het gebruik van algoritmes zelf vormt in de basis niet de oorzaak van
bijvoorbeeld discriminatie, maar deze algoritmes kunnen de effecten wel
versterken. Het is daarom van belang om deze menselijke bias / vooroordelen te
herkennen zodat ze kunnen worden bestreden of voorkomen. Het
gebruik van algoritmes kan hierbij helpen, zodat betere conclusies
kunnen worden getrokken.
c. Begrijpt u de keuze van de gemeente Uden af te zien van voorspellende
algoritmes?
- Het argument van de gemeente Uden om de uitkomsten van een
algoritme niet als werkelijkheid te zien is een begrijpelijk argument.
Onderzoeken waarbij gebruik wordt gemaakt van algoritmes dienen een
exploratief karakter te hebben, waarbij gezocht wordt naar aanwijzingen
in de data zonder dat deze direct tot (automatische) besluitvorming
leiden.
d. Overweegt u dit zelf ook te doen? Graag een uitgebreide toelichting.
- Nee, de gemeente Groningen overweegt dit niet. Onder de juiste
randvoorwaarden (privacy: werken op basis van een wettelijke
grondslag en het in acht nemen van de beginselen voor de verwerking
van (persoons)gegevens met daarbij een nauw omschreven doel. En de
juiste mate van informatiebeveiliging) vindt de gemeente Groningen dat
het zorgvuldig gebruik van algoritmes geoorloofd is. Dit om te komen
tot betere (meer effectieve en efficiënte) analyses voor de uitvoering van
haar kerntaken.
Wij willen benadrukken dat de gemeente Groningen het belang van het
op de juiste manier vergaren en analyseren van data hoog in het vaandel
heeft. Wij nemen de maximale zorgvuldigheid in acht bij de verwerking
van deze data. De gemeente Groningen probeert daarbij een proactieve
bijdrage te leveren aan de ontwikkeling van de visie op deze nieuwe
technologieën en de zienswijze op landelijk niveau.
2.
a. Klopt het dat de gemeente Groningen gebruik maakt van voorspellende
algoritmes?
- Ja.
b. Zo ja, welke gemeentelijke instanties en organisaties waarover de
gemeente het bevoegd gezag is, maken gebruik van deze technologie?
- Binnen het Sociaal Domein:
Voor de uitvoering van de Participatiewet probeert de gemeente
Groningen te komen tot een wiskundig model waarmee de
uitvoeringspraktijk zo goed mogelijk wordt ondersteund. Zo’n model
beoogt kenmerken vast te stellen waarmee patronen zo scherp mogelijk
in beeld komen. Dit allemaal op basis van eigen informatie uit het
verleden: vastgelegd in de uitkeringsadministratie, de registratie
rechtshandhaving, de registratie van schuldhulpverlening, de
basisregistratie personen en de basisregistratie adressen en gebouwen.
- Binnen de GGD:
Momenteel maakt de gemeente Groningen geen gebruik van
voorspellende algoritmes. GGD Groningen (JGZ) is voornemens een
pilot te starten in de provincie Groningen om de bruikbaarheid van een
voorspellende algoritmes op basis van productiedata te testen. Het doel
is het verbeteren van de signalering van kindermishandeling. Onze
inwoners profiteren van het gebruik van algoritmes. Het kan immers
helpen om bijvoorbeeld onterechte handhavingsonderzoeken en
-maatregelen (buitengewoon vervelend voor cliënten) terug te dringen.
Is de gemeente voornemens bij meer instanties gebruik te gaan maken van
algoritmes? Welke? Met welk doel en waarom denkt u dat juist algoritmes
hieraan kunnen bijdragen, wat zijn de voordelen volgens u?
- Nee.
3. De autoriteit persoonsgegevens waarschuwt voor het gebruik van algoritmes en
zegt dat de overheid hier transparant in moet zijn.
a. In hoeverre is de gemeente Groningen volgens u voldoende transparant
in het gebruik van algoritmes, wanneer een besluit over een persoon
(mede) wordt genomen met behulp van deze techniek?
- Binnen het Sociaal Domein:
De gemeente Groningen vindt het belangrijk om fraude op te sporen,
want fraude ondermijnt het draagvlak onder onze sociale zekerheid.
De afdeling Onderzoek Informatie en Statistiek stelt momenteel, in het
kader van transparantie, een zogenaamd verantwoordingsrapportage op.
Deze rapportage wordt opgesteld mede op verzoek van het ministerie
4
van Sociale Zaken en Werkgelegenheid in het kader van
‘Handhavingskoers sociale zekerheid 2018-2021’.
Data-analyses moeten plaatsvinden binnen de kaders van de Algemene
Verordening Gegevensbescherming (AVG). De Functionaris
Gegevensbescherming toetst deze en is nadrukkelijk bij dit soort
onderzoeken betrokken.
Eén van de uitgangspunten van de AVG is transparantie over het
verwerken van persoonsgegevens. De gemeenten dienen op grond van
de AVG altijd informatie te geven over de aard van de verwerking.
Daarbij kan de betrokkene een klacht indienen over de geboden
transparantie bij de Autoriteit Persoonsgegevens als toezichthoudende
autoriteit op grond van de AVG.
Het gebruik van algoritmes voor de fraudebestrijding binnen het Sociaal
Domein is opgenomen in het verwerkingenregister van de gemeente
Groningen. Dit register is momenteel echter nog niet gepubliceerd door
de gemeente Groningen.
Binnen het aanvraagproces voor uitkeringen wordt momenteel geen
gebruik gemaakt van algoritmes. Alleen binnen de afdeling Handhaving
wordt in een pilot (data-gestuurd werken) repressief gebruik gemaakt
van algoritmes voor handhavingsdoeleinden. Het gebruik van de
algoritmes is aanvullend op de bestaande handhavingspraktijk.
- Binnen de GGD:
Zodra de financiering voor de pilot rond is en de GGD Groningen gaat
starten met deze pilot dan zullen de cliënten hierover worden
geïnformeerd.
4. Het is niet altijd duidelijk welke gegevens in een algoritme worden gestopt en op
basis van welke data een uitkomst wordt gebaseerd. Overheden geven aan dat
het soms lastig is om te weten wat er precies gebeurt.
a. In hoeverre doet dit probleem zich volgens u voor in Groningen?
- Dit is niet van toepassing binnen de gemeente Groningen. De gebruikte
data zijn bekend binnen het Sociaal Domein. Er wordt gebruik gemaakt
van eenvoudige algoritmes (decision tree en random forest) voor de
data-analyses die goed uit te leggen zijn. Van belang is te vermelden dat met betrekking tot de handhaving in het
Sociaal Domein geen sprake is van automatische besluitvorming.
Signalen, ook signalen die door middel van data-analyse tot stand
komen, moeten altijd eerst onderzocht worden met toepassing van het
beginsel van hoor en wederhoor, alvorens een sanctie kan worden
opgelegd.
- Binnen de GGD:
Niet van toepassing zolang het algoritme nog niet wordt gebruikt.
b. Bent u bereid hier onderzoek naar te verrichten? Zo ja, op welke wijze?
Zo nee, waarom niet?
- Ja, indien daartoe aanleiding is. De gemeente Groningen ziet uit naar
landelijke richtlijnen omtrent het zorgvuldig gebruik van algoritmes
binnen de uitvoering van haar wettelijke taken.
- Overigens investeert de gemeente Groningen binnen het Sociaal Domein
voor het begrijpen van de werking van algoritmes reeds in onderzoek
door promovenda van de Rijksuniversiteit Groningen.
- Binnen de GGD:
Een lector aan de Hanzehogeschool zal worden gevraagd hier gedurende
de pilot onderzoek naar te verrichten.
5. Eén van de nadelen van het gebruik van algoritmes is dat mensen die niet
voldoen aan de kenmerken die ingevoerd zijn in een algoritme, “onopgemerkt”
blijven.
a. Ziet u hierin een gevaar, zoals bijvoorbeeld bij het experiment waaraan
de GGD meedeed om kindermishandeling op te sporen? Graag een
toelichting.
- GGD Groningen heeft meegedaan aan een onderzoekpilot en ziet geen
gevaar dat signalen van vermoedens kindermishandeling onopgemerkt
blijven.
Door het toepassen van algoritmes wordt er juist een systeem in staat
gebracht die gemiste signalen van vermoedens van kindermishandeling
actief opspoort.
Dit algoritme werd getraind met oude geanonimiseerde data, waarbij
signalen van (vermoedens van) kindermishandeling aan de orde waren.
In deze pilot bleek het algoritme in circa 80% van de vermoedens terecht
te hebben gesignaleerd. Door het algoritme te blijven voeden met
resultaten uit het verleden, kan het percentage van 80% nog hoger
worden. Bij een correcte werking van algoritmes is het juist de bedoeling dat
mensen die onschuldig zijn terecht niet worden aangemerkt of
opgemerkt. Het belangrijkste doel is om het onopgemerkt blijven van vermoedens
van kindermishandeling terug te dringen. Naar schatting is slechts een
derde van het daadwerkelijke aantal situaties van kindermishandeling in
beeld.
6. "Medewerkers vinden het soms lastig af te wijken van het algoritme als de
situatie van de cliënt daar om vraagt" zegt het Centrum Indicatiestelling Zorg.
a. Geldt dit ook voor medewerkers in de gemeente Groningen?
- Voor het Sociaal Domein is een dergelijke situatie niet van toepassing,
aangezien het gebruik van algoritmes zich nog in de testfase bevindt.
- Voor de GGD:
Het algoritme geeft enkel een signaal af bij vermoeden van gemiste
signalen kindermishandeling. Er wordt geen (inhoudelijke) informatie
opgeslagen. De medewerkers van de gemeente Groningen beseffen dat het juist goed
is om zich niet volledig te laten leiden door hetgeen een algoritme
aanwijst. De menselijke intelligentie is altijd leidend, zeker als de
situatie daar naar vraagt. Het is aan de jeugdgezondheidszorgmedewerker
zelf hiernaar te acteren. Alvorens deze pilot start worden
beroepskrachten getraind in het gebruik van het voorspellende
algoritme.
b. Bestaan er regels of methodieken om te voorkomen dat medewerkers te
veel steunen op de uitkomsten van een algoritme?
- Er worden binnen het Sociaal Domein altijd aanvullende blinde
steekproeven gedaan, buiten de uitkomsten van het algoritme, op de hele
populatie.
- Voor de GGD:
De inzet van de menselijke intelligentie blijft altijd bepalend voor wat er
met de aanwijzingen van het algoritme gebeurt.
De techniek kan de professional niet vervangen, maar biedt slechts
ondersteuning bij de signalering van (vermoedens van)
kindermishandeling. Het is vervolgens de professional die hier een
vervolg aan geeft. Dat vervolg vraagt om een hoge mate van
professionele sensitiviteit, waarover een algoritme niet beschikt.
7.
a. Klopt het bericht uit de Volkskrant dat burgers in de gemeente
Groningen worden gevolgd via het signaal dat hun mobiele telefoon
uitzendt?
- Nee, dit bericht klopt niet. De bezoekers aan de binnenstad van
gemeente Groningen worden niet gevolgd via het signaal van hun
mobiele telefoon. Wel wordt het aantal passanten op verschillende
locaties in de binnenstad van Groningen geteld. De wijze waarop dit
tellen van passanten geschiedt, voldoet aan de Europese privacyverordening
(AVG) en aan de recente richtlijnen van de Autoriteit
Persoonsgegevens.
b. Zo ja, kunt u toelichten hoe deze data worden gebruikt, of deze met
derden worden gedeeld en op welke wijze deze worden opgeslagen en
voor hoelang?
- Het externe bureau Locatus telt momenteel op verschillende locaties in
de binnenstad het aantal passanten, in opdracht van de gemeente
Groningen. Dit is ten behoeve van de monitoring van de binnenstad. Met
het monitoren krijgt de gemeente Groningen een beeld van de
bezoekersaantallen in de binnenstad op verschillende locaties en de
daarmee samenhangende (economische) ontwikkeling.
De aantallen passanten per telpunt worden door leverancier Locatus
gedeeld met de gemeente Groningen en op aanvraag met pandeigenaren
en winkeliers.
De persoonsgegevens worden niet blijvend opgeslagen en binnen één
milliseconde geanonimiseerd. De geanonimiseerde, niet op
persoonsniveau herleidbare data worden wel opgeslagen, in principe
voor onbepaalde tijd.
8. Bent u het met de Partij voor de Dieren eens dat wanneer burgers worden
gevolgd via hun mobiele telefoon, zij hiervan op de hoogte zouden moeten
worden gesteld door middel van bijvoorbeeld informatiebordjes? Zo nee,
waarom niet?
- Niet van toepassing, de burgers worden niet gevolgd via hun mobiele
telefoon (zie toelichting vraag 7).
9. Bij de pilot die de GGD in Groningen wil doen, waarbij door het toepassen van
textmining-algoritmes, signalen van kindermishandeling beter zouden kunnen
worden opgespoord, zal een lijst ontstaan van mensen of gezinnen, die puur op
basis van algoritmes verdacht worden van kindermishandeling.
a. Op welke wijze wordt omgegaan met deze lijst en wordt geborgd dat
mensen niet op enigerlei wijze later in hun leven last ondervinden van
het feit dat ze op deze lijst staan?
- Deze stelling is onjuist. GGD Groningen heeft meegedaan aan de
bovengenoemde pilot. Het algoritme werd getraind met oude
geanonimiseerde data van het systeem MLcas, waarbij signalen van
vermoedens van kindermishandeling aan de orde waren. GGD
Groningen zal haar datasysteem MLcas zo instellen dat door middel van
algoritmes de jeugdgezondheidsprofessional tijdens consulten, adequater
kan handelen bij (gemiste) signalen van vermoedens
kindermishandeling. Er komt dus geen lijst van mensen of gezinnen. Het
algoritme is slechts een hulpmiddel voor de jeugdgezondheidsprofessional
van GGD Groningen.
Wij staan voor:
Interessant voor jou
Schriftelijke vragen over staatsloosheid
Lees verderSchriftelijke vervolgvragen aanvraag omgevingsvergunning gemengd bedrijf Woltersum
Lees verder