Plenaire sessies 2019

Plenair I - Prof. Lokke Moerel, Morrison Foerster 

Als een van de bekendste privacy-advocaten ter wereld, specialiseert Lokke Moerel zich in de implementatie van nieuwe digitale technologieën gebaseerd op privacy-by-design en ethics-by-design.  Zij is hoogleraar technologie & recht bij Tilburg University en Senior of Counsel bij advocatenkantoor Morrison & Foerster (Berlijn). Door haar werk met de Amerikaanse tech-giganten staat ze vooral bekend om haar expertise in big data en artificial intelligence. In 2016 was ze co-auteur van het pre-advies van de Nederlandse Juristen Vereniging over big data en het Internet of Things (http://ssrn.com/abstract=2784123). Lokke is lid van de Nederlandse Cyber Security Raad en vervult diverse toezichtfuncties. In 2018 ontving Lokke de International Law Office Client Choice Award voor beste Internet & Technology advocaat van Duitsland en de 2018 Acquisition International Global Excellence Award for Most Influential Woman in Data Protection Law. Zie ook haar haar Tedx-lezing over AI en Ethics.

Ethics in the age of AI
De meeste verzekeraars gebruiken inmiddels machine learning algorithms, dit zijn algoritmen die zelf-lerend zijn en voorspellingen kunnen doen, maar niet altijd de uitkomsten kunnen verklaren (ze zijn een ‘black box’). Deze algoritmes zullen steeds meer van het werk van actuarissen gaan overnemen, en de vraag is hoe deze beroepsgroep ook voor de toekomst relevant kunnen blijven. Of big data-initiatieven worden geaccepteerd door de maatschappij en inkomsten genereren, hangt uiteindelijk af van ethische overwegingen in plaats van compliance met regelgeving. De relevantie van actuarissen zal dus vooral moeten komen van de contextuele beoordelingen van de met AI gegenereerde uitkomsten en de daarmee gemoeide ethische afwegingen. Hoewel de Europese Algemene Verordening Gegevensbescherming (AVG) niet voorziet in specifieke regels voor dergelijke algoritmes, vereist het ‘accountability beginsel’ dat algoritmen op een eerlijke, transparante, voorspelbare en verifieerbare manier moeten worden ontworpen, ontwikkeld en toegepast ('Algorithmic Accountability'). Lokke zal uitleggen wat Algorithmic Accountability betekent, en hoe dit in de praktijk kan worden gerealiseerd.

Lokke bespreekt welke ethische overwegingen hier een rol spelen en hoe deze kunnen worden toegepast om ervoor te zorgen dat AI-applicaties maatschappelijk worden geaccepteerd en daardoor succesvol kunnen zijn.

Plenair II - Dirk Jonker, Crunchr 

Dirk Jonker is CEO en oprichter van Crunchr, een intelligente oplossing voor Workforce Planning & People Analytics – en partner bij  Focus Orange. Al 15 jaar focust zijn research en productontwikkeling op hoe elegante wiskunde en data bedrijven kunnen helpen bij de generalisatie van duurzame en competitieve voordelen met behulp van mensen.

Hij vertrok vanuit Amsterdam naar New York, waar hij vijf jaar heeft gewerkt. Recentelijk stond hij in The Economist en ontving hij de prijs van Actuaris van het jaar.

Hoe koppelt u uw ervaringen aan het thema ‘de grenzen van privacy’?
Met tekorten op de talentenmarkt en industrieën die sneller dan ooit transformeren, willen werkgevers de dynamiek van hun interne arbeidsmarkt begrijpen. Wie zijn de beste mensen, wat is de kwaliteit van managers, wie kan het bedrijf verlaten en hoe houden we ons personeel fit? De technologie om deze inzichten te bieden, maakt werkgevers hongerig naar data. Welke gegevens kunnen er worden verzameld - en hoe kunnen deze worden gebruikt? Wat is de balans tussen de privacy van een werknemer versus de strategische uitvoering van het bedrijf?

Vind u dat privacy innovatie in de weg zit in de verzekerings- en pensioenwereld?
Wetgevers hebben het moeilijk met het tempo van technologische innovatie. Dit geldt niet alleen in de financiële sector maar ver daarbuiten. Denk bijvoorbeeld aan de introductie van Uber (waar personenauto's tegen vergoeding vervoeren). Plotseling was Uber daar, wetgevers en politici hadden geen idee. Denk niet eens aan autoverzekeringspolissen voor zelfrijdende voertuigen.

Het echte probleem is dat wetgevers blijven focussen op het eindresultaat van innovatie (bijvoorbeeld Uber). Maar innovatie blijft elk jaar terugkomen. Denk aan de onafhankelijke aannemers discussie rond het bezorgen van eten. We moeten opnieuw nadenken over hoe we innovatie kunnen omarmen met een sterk beleid. Maar blijf tegelijkertijd weg van te beschermend zijn, want soms willen we onze privacy verkopen. Vind je het niet leuk om Facebook gratis te gebruiken of met korting te winkelen bij de Albert Heijn?

People Analytics & Data Privacy
Slim gebruik van innovatieve data- en communicatietechnieken levert veel nieuwe diensten en inzichten op, waar gebruikers en de samenleving blij van worden. Maar data-analytics schuurt al snel tegen de privacy van de mensen van op wie die data betrekking hebben, constateert people analytics pionier Dirk Jonker. Hoe zorgen we dat we de maatschappelijke winst van data analytics kunnen verzilveren zonder inbreuk op de persoonlijke levenssfeer?
De wetgever gaat dat niet voor ons oplossen. Die stelt grenzen aan de inbreuken van gisteren, bijvoorbeeld met de vorig jaar van kracht geworden privacy-richtlijn. Maar het trage wetgevingsproces kan de snelle ontwikkelingen in de markt niet bijhouden, laat staan dat het nieuwe inbreuken kan voorkomen. Volgens Dirk zullen de ontwikkelaars en gebruikers van analytics diensten dat zelf moeten doen.
Aanbieders die op lange termijn willen overleven moeten al in de ontwikkelingsfase de impact van hun diensten overzien en maatregelen treffen om privacy te respecteren. Zij kunnen hiervoor zelfs analytics-technieken gebruiken. Gebruikers moeten veel kritischer zijn, met name ten aanzien van gratis diensten die leven van de exploitatie van de data van hun gebruikers. Op die manier winnen op termijn de aanbieders die het vertrouwen van hun klanten verdienen.

Plenair III - Ruud Koning

Ruud de Koning is een toegepast econometrist uit Groningen. Na zijn promotie op het gebied van toegepaste micro econometrie heeft hij zich verder toegelegd op twee gebieden: sporteconomie en actuariaat, beiden vanuit die gezamenlijke achtergrond. Deze twee gebieden hebben overigens raakvlakken, denk aan modellen voor extremen. Naast zijn academische bezigheden is hij momenteel toezichthouder Univé Noord-Nederland.

Ruud de Koning vult actuariaat dus empirisch in, en dan is de link met grote bestanden en privacy snel gemaakt.  Binnen het actuariaat als wetenschap is aandacht voor privacy van recente datum, zo levert een zoektocht in ‘Insurance: Mathematics and Economics’ vijf artikelen op met sleutelwoord ‘privacy’ en die artikelen zijn van 2015 of recentere datum. Privacy raakt dus aan de grenzen van de wetenschap: er is weinig over gepubliceerd, klanten vinden het belangrijk, en het verhoudt zich matig met nieuwe ontwikkelingen als AI en big data.

Rekenen, omdat het kan?
Privacy is eerder een mogelijkheid voor verzekeraars, dan een beperking. De grote vraag is of verzekeraars die privacy hoog in het vaandel dragen, niet de slechte risico’s zullen aantrekken, en de verzekeraars die die-met instemming van de verzekerden-wat minder aandacht aan privacy besteden de betere risico’s uit de markt pikken. In hoeverre blijft verzekerbaarheid voor iedereen mogelijk?

Big data, artificial intelligence, deep learning, als je tegenwoordig dit soort kreten niet gebruikt, lijk je nauwelijks meer serieus te worden genomen. Computers zijn clusters geworden, en als het even kan, rekenen we niet meer op een cpu, maar op een gpu. Wat betekent de toename van data en rekenkracht voor het actuariaat? Eén mogelijkheid is het explicieter modelleren van individuele heterogeniteit. In deze bijdrage is dat wat we doen: aan de hand van een voorbeeld betreffende arbeidsongeschiktheidsverzekeringen, laat ik zien hoe niet-waargenomen individuele heterogeniteit kan worden gemodelleerd, en vervolgens worden gebruikt bij bepaling van de reserve. In de voorgestelde methode leren we, in de loop van de tijd, meer over de niet-waargenomen heterogeniteit: is de verzekerde een keer ongelukkig, of structureel ongezond? Als we op deze manier leren over individuele heterogeniteit, roept dat wel een vraag op: kunnen we negatieve risicoselectie voorkomen?

Plenair IV - Hans de Zwart, Bits of Freedom

Hans de Zwart is filosoof en directeur van de digitale burgerrechtenorganisatie Bits of Freedom. In het verleden was hij Senior Innovation Adviser for Global HR and Learning Technologies bij Shell, daarvoor Moodle-consultant bij een onderwijstechnologieconsultant en hij begon zijn carrière als docent bewegingsonderwijs op een middelbare school in Amsterdam Zuidoost.

Zijn werkveld is altijd het raakvlak tussen technologie (die hij het liefste "open" ziet) en maatschappelijke ontwikkelingen, vaak bekeken vanuit het perspectief van de rechten van burgers. Hij weet dat technologie altijd óók politiek is en geloof in de kracht van design. Hij verbaast zich nog steeds over de manier waarop data vooral als ‘asset’ gezien wordt en zelden als ‘liability’ en vindt dat verzekeraars best met data aan de slag kunnen, maar dan wel binnen mensenrechtenkaders en met behoud van het solidariteitsprincipe.

Je kunt altijd een gesprek met hem beginnen over: een goed boek dat je recent gelezen hebt, jongleren, filosofie, vrije software, dominoën of The Big Lebowski.

Privacy, vrijheid en verzekeringen in tijden van surveillance kapitalisme
Waarom is privacy essentieel voor onze vrijheid? Hoe word je een surveillance kapitalist? En wat heeft dit te maken met verzekeringen? Hans de Zwart, directeur van Bits of Freedom, de onafhankelijke organisatie die opkomt voor digitale rechten, legt het uit.

Cancel