Algoritmische besluitvorming en het kartelverbod
-
Inleiding
Het gebruik van informatietechnologie is inmiddels zo wijdverspreid dat dit grote hoeveelheden gegevens oplevert. Via sociale media en via sensoren die zijn ingebouwd in apparaten (die op hun beurt zijn verbonden met het Internet of Things) worden immense hoeveelheden gegevens gegenereerd. Deze data groeien exponentieel, zijn grotendeels ongestructureerd van aard (ze omvatten ook lastiger doorzoekbare formaten zoals foto’s, audio en video) en bevatten doorgaans realtime informatie. Deze gegevens, aangeduid als big data, kunnen worden gebruikt om nieuwe verbanden en patronen te ontdekken, maar omdat het zulke grote hoeveelheden betreft, zijn geautomatiseerde analysemethoden nodig.1x V. Mayer-Schönberger en K. Cukier, Big Data: A Revolution That Will Transform How We Live, Work and Think, New York: Houghton, Mifflin, Harcourt Publishing Company 2013. Hiervoor worden algoritmen gebruikt. Algoritmen kunnen nieuwe patronen en verbanden blootleggen, maar kunnen ook worden ingezet voor geautomatiseerde besluitvorming.2x A. Gandomi en M. Haider, ‘Beyond the hype: Big data concepts, methods and analytics’, International Journal of Information Management 2015, 35, p. 137-144. Ten opzichte van menselijke besluitvorming is het algoritme sneller, beter geïnformeerd (want realtime informatie kan meteen worden meegenomen) en beter onderbouwd (want gebaseerd op alle beschikbare gegevens in plaats van slechts steekproeven). Tot op zekere hoogte kan algoritmische besluitvorming ook vrijer zijn van bias en vooroordelen.3x Tot op zekere hoogte, want als de gegevens of de analysemethoden al bias bevatten, wordt dit weerspiegeld in de analyseresultaten. Zie I. Zliobaite en B. Custers, ‘Using sensitive personal data may be necessary for avoiding discrimination in data-driven decision models’, Artificial Intelligence and Law 2016, 24, p. 183-201; S. Barocas, en A.D. Selbst, ‘Big Data’s Disparate Impact’, California Law Review 2016, 104, p. 671-732.
Algoritmen nemen derhalve in toenemende mate besluitvorming over van menselijke actoren. Zulke besluitvorming kan geoptimaliseerd en gepersonaliseerd worden voor bepaalde situaties en personen. Een typisch voorbeeld zijn gepersonaliseerde advertenties, waarbij mensen op basis van beschikbare persoonskenmerken worden ingedeeld in profielen en op maat aanbiedingen ontvangen.4x T. Zarsky, ‘Mine your own business’, Yale Journal of Law and Technology 2003, nr. 1. Die profielen kunnen gericht zijn op persoonlijke voorkeuren en aankoopgedrag, maar kunnen bijvoorbeeld ook betrekking hebben op credit scores en betaalgedrag.5x T. Zarsky, ‘Understanding Discrimination in the Scored Society’, Washington Law Review, 2015, nr. 4. Profielen worden ook gebruikt voor vergaande geautomatiseerde en gepersonaliseerde prijsstelling.6x F.J. Zuiderveen Borgesius en J. Poort, ‘Online Price Discrimination and EU Data Privacy Law’, Journal of Consumer Policy 2017, DOI: 10.1007/s10603-017-9354-z.
Als algoritmische besluitvorming betrekking heeft op prijsstellingen kan dat mededingingsrechtelijk relevant zijn. De vraag die in dit artikel centraal staat, is of dit type besluitvorming leidt tot (nieuwe typen van) mededingingsbeperkende overeenkomsten of gedragingen, en of, en hoe, het mededingingsrecht, zijn handhaving, of wellicht de algoritmische besluitvorming zelf, moet worden aangepast. -
Algoritmische besluitvorming
Algoritmen, bijvoorbeeld gebaseerd op technieken uit de data mining en machine learning, zijn gericht op het geautomatiseerd verwerken van (grote) hoeveelheden gegevens.7x T. Calders en B.H.M. Custers , ‘What is data mining and how does it work?’, in: B.H.M.Custers, T. Calders, B. Schermer en T. Zarsky (red.), Discrimination and Privacy in the Information Society, Heidelberg: Springer 2013. Het gaat om big data: zeer grote volumes (exabytes), ongestructureerde (tekst, video, enz.) en snelle (vaak realtime) gegevens. De gegevens komen beschikbaar doordat gebruikers ze bewust online plaatsen, bijvoorbeeld op sociale media, maar ook via apparaten en sensoren, onder meer via het Internet of Things, mobiele apps en sensoren in allerlei draagbare apparaten.8x B.H.M.Custers en H. Ursic, ‘Big data and data reuse: a taxonomy of data reuse for balancing big data benefits and personal data protection’, International Data Privacy Law 2016, nr. 1, p. 4-15. De ontwikkelingen op het terrein van big data leiden tot een steeds grotere behoefte aan geautomatiseerde gegevensanalyses, om het tekort aan menselijk inzicht en overzicht ten aanzien van deze grote hoeveelheden te compenseren. In de kern zijn algoritmen een serie (mathematische) instructies om gegevens te verwerken. Op die manier kunnen op basis van historische gegevens modellen en profielen worden ontwikkeld. Algoritmen kunnen niet alleen gegevens geautomatiseerd analyseren, maar ook besluiten daaraan verbinden. In een marktomgeving betekent dit bijvoorbeeld dat op die manier vraag en aanbod snel op elkaar kunnen worden afgestemd. In beginsel is voor veel van die besluiten dan ook geen menselijke tussenschakel meer nodig.
Dit gebruik van algoritmen brengt vele voordelen met zich mee, biedt nieuwe kansen op de markt, en leidt derhalve tot grotere economische welvaart.9x N.P. Schepp en A. Wambach, ‘On Big Data and Its Relevance for Market Power Assessment’, Journal of European Competition Law & Practice, 2016, nr. 2, p. 120-124. Werkprocessen, bijvoorbeeld, kunnen verder worden geoptimaliseerd, via personalisatie kan de kwaliteit van producten en diensten worden verbeterd en nieuwe inzichten op basis van big data en gedetailleerde risico-inschattingen en prognoses kunnen bijdragen aan het identificeren van nieuwe markten, waaronder nieuwe doelgroepen voor bestaande producten en diensten of nieuwe producten en diensten voor bestaande doelgroepen. Ook leidt het verzamelen en (geautomatiseerd) analyseren van grote hoeveelheden data tot nieuwe business cases, waaronder het verkopen of leasen van de ruwe gegevens of van opgewerkte, hoogwaardige kennis en informatie.
Door algoritmen kan ook het marktmechanisme efficiënter werken. Een bekend voorbeeld van het geautomatiseerd analyseren van gegevens en daar via algoritmen besluiten aan verbinden is dat van geautomatiseerde biedingen op veilingsite eBay. Daarbij kan een gebruiker bij het uitbrengen van een bod tevens een maximum aangeven tot hoever hij of zij wil verhogen. Het algoritme verhoogt echter alleen het bod als een andere gebruiker met een hoger bod komt. Dat heeft tot gevolg dat wanneer twee of meer gebruikers hun bod met een maximum instellen, het algoritme binnen een fractie van een seconde naar dat maximum zal schieten. Lemonade, een start-up, biedt op basis van machine learning voordeligere zorgpremies aan én betaalt sneller uit.10x A. Moodie, ‘How artificial intelligence could help make the insurance industry trustworthy’, The Guardian, 28 januari 2017, www.theguardian.com/sustainable-business/2017/jan/28/insurance-company-lemonde-claims, geraadpleegd op 13 juni 2018. En op de beursvloer is het, wanneer koersen stevig fluctueren, voor handelaren van groot belang op het juiste moment, bij de juiste koers, toe te slaan. Algoritmen kunnen niet alleen snel reageren, maar bovendien veranderingen voorspellen.11x M. Stucke en A. Ezrachi, Artificial Intelligence & Collusion: When Computers Inhibit Competition, Oxford Legal Studies Research Paper 2015, nr. 18. De computer kan dit sneller dan een mens, zodat het instellen van bepaalde bandbreedtes de efficiëntie kan verhogen. Op deze manier kunnen vraag en aanbod meer, beter en sneller met elkaar worden verbonden, waarbij algoritmen doorgaans geen of lage transactiekosten met zich meebrengen.
Maar het gebruik van algoritmische besluitvorming kan ook nadelige effecten hebben voor de consument. Zo kunnen algoritmen risicoprofielen ontwikkelen voor specifieke personen (‘wie heeft een hoger risico?’), die vervolgens weer kunnen worden gebruikt voor het nemen van beslissingen (hoger risico betekent hogere verzekeringspremie). Een recentelijk aan het licht gekomen voorbeeld van dergelijke besluitvorming is dat mensen die wonen op huisnummer 186a een hogere premie voor hun inboedelverzekering betalen dan hun buren, die wonen op huisnummer 186.12x ‘De verzekering is bij huisnummer 186A duurder dan bij 186’, NOS, 26 augustus 2015, https://nos.nl/artikel/2054035-de-verzekering-is-bij-huisnummer-186a-duurder-dan-bij-186.html, geraadpleegd op 13 juni 2018. De algoritmen vinden verbanden door simpelweg grote hoeveelheden gegevens met elkaar te vergelijken. Of er een onderliggend causaal verband is (en zo ja, hoe dat er dan uitziet) is hierbij niet relevant voor het algoritme, noch de vraag of de uitkomst een juiste is in het licht van de basis waarop het verzekeringssysteem rust.13x Dat geldt des te sterker voor het zorgverzekeringsysteem, waaraan solidariteit ten grondslag ligt, wat door vergaand gepersonaliseerd aangeboden zorgverzekeringen en zorgpremies die door algoritmen mogelijk worden gemaakt kan worden ondermijnd. Ook zijn er voorbeelden van algoritmische besluitvorming (bij de overheid) die tot uitkomsten leiden die stelselmatig negatief uitpakken voor bepaalde groepen en daarmee discriminerend zijn.14x In Wisconsin werd de heer Loomis veroordeeld tot zes jaar gevangenisstraf, mede op basis van een berekening door een algoritme genaamd Compas. Dit algoritme berekent de kans op recidive. Zie: M. Smith, ‘In Wisconsin, a Backlash Against Using Data to Foretell Defendants’ Futures’, The New York Times, 22 juni 2016, www.nytimes.com/2016/06/23/us/backlash-in-wisconsin-against-using-data-to-foretell-defendants-futures.html, geraadpleegd op 13 juni 2018. Maar ook in marktrelaties kan de werking van algoritmes negatief uitpakken: zo gebruikte de Amerikaanse verzekeraar Allstate een algoritme voor optimale prijsstelling dat was gebaseerd op de kans dat klanten prijzen zouden vergelijken alvorens een verzekering aan te schaffen. Klanten die wel vooraf prijzen vergeleken kregen kortingen tot 90 procent, klanten die niet vooraf prijzen vergeleken kregen premieverhogingen tot wel 800 procent.15x National Association of Professional Allstate Agents, ‘Smoking Gun Reveals Allstate’s Illegal Auto Insurance Pricing Scheme’, Consumer Federation Report, 16 december 2014, http://napaausa.org/table/price-optimization/, geraadpleegd op 13 juni 2018.
Algoritmische besluitvorming kan dus zeer verschillende effecten hebben. Daarbij is bij het beoordelen van hoe algoritmische besluitvorming uitpakt, ook van belang in hoeverre de algoritmen autonoom zijn. Eenvoudige algoritmen, zoals beslisbomen, hebben een heldere input-outputstructuur, waarbij dezelfde input steeds tot dezelfde output leidt. Echter, geavanceerder technologieën, zoals machine learning en neurale netwerken, kunnen zelflerend zijn.16x Machine learning is een set van technieken die het computers mogelijk maken te ‘leren’ bepaalde taken steeds beter uit te voeren op basis van data, zonder dat ze expliciet daartoe geprogrammeerd zijn. Neurale netwerken zijn systemen die leren via grote voorbeelden, zonder dat ze geprogrammeerd zijn met taakspecifieke regels. Beide technologieën zijn datagedreven in plaats van hypothese-, theorie- of vraaggedreven en leggen dus de nadruk op ‘wat de data te vertellen hebben’. Het gaat dus om ongericht zoeken naar nieuwe patronen en verbanden. Daarbij leidt dezelfde input dus niet per se tot dezelfde output: als het algoritme heeft geleerd dat bepaalde input op een andere manier moet worden gecombineerd dan voorheen, zal dat leiden tot andere output. En als de algoritmen werken op basis van patroonherkenning, kunnen uiteraard ook veranderingen in grote datasets (bijvoorbeeld doordat er steeds nieuwe gegevens bijkomen) leiden tot het herkennen van nieuwe patronen, die vervolgens zullen leiden tot gewijzigde algoritmische besluitvorming.
Deze uitkomsten zijn derhalve niet per definitie (mededingingsrechtelijk) onaanvaardbaar. Wel wordt een van de problematische aspecten van algoritmische besluitvorming duidelijk, namelijk dat het – in de woorden van Vestager – ‘not easy [is] to know exactly how those algorithms work’.17x Vestager, Speech 16 maart 2017, ‘Algorithms and competition Bundeskartellamt 18th Conference on Competition’, https://ec.europa.eu/commission/commissioners/2014-2019/vestager/announcements/bundeskartellamt-18th-conference-competition-berlin-16-march-2017_en, geraadpleegd op 13 juni 2018. Dat kan een gevolg zijn van een gebrek aan ‘tech-savyness’ bij mededingingsjuristen,18x Zie ook FTC Acting Chair Ohlhausen, ‘Should we fear the things that go beep in the night?’, 23 mei 2017: www.ftc.gov/public-statements/2017/05/should-we-fear-things-go-beep-night-some-initial-thoughts-intersection. maar is ook inherent aan de werking van algoritmes: er is niet per definitie transparantie ten aanzien van de werking van de besluitvorming, en de uitkomsten kunnen onvoorzienbaar zijn. Dat inzicht, gekoppeld aan de groei van het gebruik van algoritmen (en de machtige positie van enkele platformen die veel gebruikmaken van algoritmische besluitvorming) leidt meer in het algemeen tot een roep om algoritmische transparantie.19x T. Cerquitelli, D. Quercia en F. Pasquale, Transparent Data Mining for Big and Small Data, Heidelberg: Springer 2017. Het gaat daarbij primair om transparantie voor de consument (of, in de relatie met de overheid die gebruikmaakt van algoritmische besluitvorming, voor de burger), zoals ondertussen beter is beschermd door de Algemene Verordening Gegevensbescherming. Hierna zullen we bezien of betere transparantie ook relevant kan zijn in het licht van mogelijke mededingingsrechtelijke problemen. -
Algoritmen en het kartelverbod
Algoritmen worden ingezet voor (besluiten omtrent) prijsvorming. Mededingingsrechtelijk is dat geen probleem natuurlijk, als dat op individuele basis gebeurt. Concurrenten kunnen ook allemáál gebruikmaken van algoritmen voor het bepalen van hun prijs. Ook dat betekent nog niet dat sprake is van onderlinge afstemming van prijsvorming of het maken van mededingingsbeperkende afspraken via algoritmen. Maar algoritmen en algoritmische besluitvorming kunnen onder omstandigheden wel degelijk tot onderlinge afstemming leiden of onderlinge afstemming faciliteren. In deze paragraaf gaan we in op de vraag hoe algoritmische besluitvorming kan leiden tot (nieuwe typen van) mededingingsbeperkende afstemming en welke problemen zich daarbij kunnen voordoen bij het mededingingsrechtelijk kwalificeren en bewijzen daarvan.20x Daarbij bouwen we voort op hetgeen in literatuur naar voren is gebracht. Zie in algemene zin vooral: Stuck en Ezrachi 2015; N. Abe en T. Kamba, ‘A Web Marketing System With Automatic Pricing’, Computer Networks 2000, nr. 1-6, p. 775-788; S.B. Hwang en S. Kim, ‘Dynamic Pricing Algorithm for E-Commerce’, in: T. Sobh en K. Elleithy (red.), Advances in Systems, Computing Sciences and Software Engineering, Springer 2006, p. 149-155; S.K. Mehra, ‘Antitrust and the Robo-Seller: Competition in the Time of Algorithms’, Minnesota Law Review 2015, vol. 100; B.J. Drijber, ‘Big data en het mededingingsrecht’, in: P.H. Blok (red.), Big data en het recht, Den Haag: Sdu Uitgevers 2017; A. Ittoo en N. Petit, ‘Algorithmic Pricing Agents and Tacit Collusion: A Technological Perspective’, IO: Regulation, Antitrust & Privatization SSRN.
a. Het faciliteren van afstemming door algoritmen
Het is duidelijk dat algoritmen kunnen worden gebruikt als instrument om afspraken tussen concurrenten te faciliteren en de uitvoering daarvan te monitoren. Het algoritme is daarbij allereerst een hulpmiddel voor het effectief uitvoeren van de intentie van de betrokken partijen: het algoritme voert in zekere zin de wil van de deelnemers aan de afspraak uit. Het algoritme kan bijvoorbeeld prijsveranderingen doorvoeren.21x Stucke en Ezrachi 2015. Een vaak gebruikt voorbeeld om dit te illustreren is de Topkins-zaak, waarin posterverkopers hun offline gemaakte prijsafspraken op Amazon’s marktplaats lieten implementeren door een geïnstrueerd algoritme. De verkopers maakten daarbij gebruik van een commercieel verkrijgbaar algoritme, dat ze zo instelden dat het de prijs van de concurrent volgde, zodat de prijzen, door deze afstemming, hoog werden gehouden.22x Dat kan ook tot bizarre resultaten leiden, zo laat een ander voorbeeld omtrent Amazon zien. In de verkoop van een boek (The Making of a Fly van Peter Lawrence) werd de prijs steeds verder verhoogd, uiteindelijk tot boven 23 miljoen dollar (A. Couts, ‘Why did Amazon charge $23,698,655.93 for a textbook?’, Digital Trends, 23 april 2011). De oorzaak hiervan was dat twee verkopers van hetzelfde boek beide een algoritme gebruikten om de prijs te bepalen. De ene verkoper paste elke dag de prijs aan op 99 procent van de prijs van concurrent. Maar de andere verkoper paste elke dag de prijs aan op 127 procent van de concurrent. Dat liep al snel uit de hand met omhoog spiraliserende prijzen, maar er was nergens een stop ingebouwd, hetgeen tot bovengenoemde absurde prijsstellingen leidde. Na ontdekking werden de prijzen handmatig teruggezet – het boek is uiteraard nooit voor die hoge prijzen verkocht.
In dit voorbeeld is sprake van een klassieke mededingingsbeperkende afspraak, die vervolgens door algoritmen werd uitgevoerd, gecontinueerd en gemonitord. Algoritmen kunnen daarbij sneller handelen dan menselijke actoren (en maken bovendien geen vergissingen), waardoor de afstemming bestendiger kan zijn en een dynamisch karakter krijgt. Maar in mededingingsrechtelijke zin is hierbij geen sprake van iets nieuws: de algoritmen zijn niet zelflerend, maar door menselijke actoren geïnstrueerd.23x Zie ook A. Deng, ‘An Antitrust Lawyer’s Guide to Machine Learning’, Antitrust 2018, nr. 2, p. 80 (met verwijzing naar hetzelfde voorbeeld). Zo blijkt ook al uit de Eturas-zaak dat het mededingingsrechtelijke concept van een onderling afgestemde gedraging ook van toepassing is wanneer die afstemming plaatsvindt door middel van een online omgeving.24x HvJ EU 21 januari 2016, zaak C-74/14, Eturas UAB e.a./Lietuvos Respublikos konkurencijos taryba, ECLI:EU:C:2016:42 Ter herinnering: in die zaak werden reisbureaus die via een centrale digitale omgeving reizen boekten op de hoogte gesteld van het feit dat hun mogelijkheid om kortingen te verlenen aan banden werd gelegd. De communicatie verliep derhalve via een digitaal platform (via e-mails en een systeemwijziging – in feite een nieuw algoritme), maar gemakkelijk te begrijpen met gebruik van de bekende mededingingsrechtelijke concepten. In dit type zaken kan het mededingingsrecht dus ‘gewoon’ worden toegepast.
Het feit dat algoritmen de mededingingsbeperkende afspraak uitvoeren of dat de afstemming via online kanalen plaatsvindt, kan echter wél invloed hebben op de bewijsvoering. Hoewel zelfs een eenmalige afstemming, zoals blijkt uit T-Mobile, een inbreuk kan opleveren,25x HvJ EG 4 juni 2009, zaak C-8/08, T-Mobile, Jur. 2009, p. I-4529. is er voor implementatie en monitoring van een prijsafspraak weinig daadwerkelijk contact nodig bij gebruik van een prijsalgoritme. Gebruikmaken van een digitale omgeving, zoals een algoritme, betekent aan de ene kant dat het in principe traceerbaar is wat er is gebeurd. Dat ligt in de digitale omgeving opgeslagen. De werking van het algoritme en de uitkomsten daarvan kunnen dan worden opgespoord, mits zulke informatie niet (bij alle partijen) is verwijderd of versleuteld.26x Op zich is het verwijderen of versleutelen van gegevens niet heel ingewikkeld, maar in de praktijk laten veel organisaties dit na. Overigens zijn toezichthouders in bepaalde situaties wel gemachtigd de sleutels op te eisen, maar dat is dan wel weer beperkt tot de betreffende jurisdictie – in internationale context kan dit problematisch zijn, zie J.J. Oerlemans, Investigating cybercrime (diss. Leiden), 2017, Meijers-reeks, nr. 275. Aan de andere kant kan de digitale omgeving problemen opleveren voor het bewijzen van de intentie van de partijen en of zij de informatie daadwerkelijk hebben ontvangen of onderkend. Het Hof van Justitie voerde om dat probleem te ondervangen in Eturas nieuwe bewijsvermoedens in, waardoor onder omstandigheden de bewijslast op de partijen komt te liggen. Dergelijke bewijsvermoedens kunnen ook behulpzaam zijn in het verder vormgeven van de bewijsvoering in dit type zaken.27x HvJ EU 21 januari 2016, zaak C-74/14, Eturas UAB e.a./Lietuvos Respublikos konkurencijos taryba, ECLI:EU:C: 2016:42b. Algoritmen in een ‘hub-and-spoke’-achtige situatie
We herhalen nog maar eens dat algoritmen gemakkelijk kunnen worden ingezet voor het vaststellen van prijzen, met name ook in een online verkoopomgeving.28x Abe en Kamba 2000, p. 775-788. Daarbij is het niet ondenkbaar dat concurrerende partijen vergelijkbare, of dezelfde, prijsalgoritmen gebruiken. Wanneer deze algoritmen vergelijkbare input (data) verwerken en tot vergelijkbare output (prijzen) komen, kan een algoritme een virtuele hub vormen, vergelijkbaar met een ‘normale’ hub-and-spokevorm.29x Zie B. Orbach, ‘Hub-and-Spoke Conspiracies’, The Antitrust Source 2016, 15 (4), p. 1-15. Voor recente uitspraken, zie HvJ EU 22 oktobert 2015, zaak C-194/14P, AC-Truehand AG/Europese Commissie, ECLI:EU:C:2015:717 en United States of America v Apple Inc. et al., 12 Civ. 2862 (DLC). Daarbij wordt informatie van verschillende concurrenten niet rechtstreeks onderling gedeeld, maar via een ‘hub’ – een centrale partij – teruggegeven, al dan niet in een indirecte of gewijzigde vorm.
Het komt ons voor dat zich in de digitale economie hiervan op zijn minst twee vormen kunnen voordoen. De eerste is de ‘Uber’-vorm, waarin de aanbieders van diensten (of goederen) hetzelfde prijsalgoritme gebruiken en daarbij een prijs krijgen voorgeschreven.30x Zie bijvoorbeeld: J. Nowag, ‘The UBER-Cartel? UBER between Labour and Competition Law’, Lund Student EU Law Review 2016, vol. 3. Dat is niet alleen het geval bij Uber, maar ook bij andere aanbieders in de deeleconomie. Problematisch is dit niet zozeer in individuele verticale relaties, maar wel doordat de prijsbinding wordt toegepast via het centrale platform. Door het gebruik van hetzelfde algoritme in vele verticale relaties krijgt dat gebruik een horizontaal karakter. Voor Uber geldt bijvoorbeeld dat wanneer de vraag hoog is, de prijs van een Uber-taxirit automatisch wordt verhoogd. Individuele Uber-chauffeurs worden niet geacht daarvan af te wijken (het algoritme geeft de ‘default price’) en in extreme gevallen heeft dit in de Verenigde Staten bijvoorbeeld geleid tot prijzen van wel $ 57 per minuut.31x Z. Chen, A. Mislov en C. Wilson, ‘Peeking Beneath the Hood of Uber’, 2015. Diezelfde stijging doet zich voor in een crisissituatie, tot ergernis van een aantal bestuurders. Zie hierover o.a.: D. Kedmey, ‘This Is How Uber’s ‘Surge Pricing’ Works’, Time, 15 december 2014, http://time.com/3633469/uber-surge-pricing/ en: ‘How surge pricing works’, zie www.uber.com/en-NL/drive/partner-app/how-surge-works/, geraadpleegd op 13 juni 2018. Dat is verder niet met geheimzinnigheid omgeven: de uitkomst van de algoritmische besluitvorming is duidelijk. Die transparantie in prijszetting kan in algemene zin leiden tot het afnemen van informatie-asymmetrie en tot lagere transactiekosten. Dat kan wenselijk zijn, maar dat is het niet als daar een mededingingsbeperkende prijsafspraak aan ten grondslag ligt. Om tot die conclusie te komen moeten zowel Uber als de taxichauffeurs worden aangemerkt als ondernemingen. Uber is door het Hof van Justitie aangemerkt als ‘taxibedrijf’ (en geen e-commerce platform)32x L. Risack, ‘Hof van Justitie: UBER is niet louter een bemiddelaar’, Rechtenkrant.be, 13 juni 2018, http://rechtenkrant.be/hof-van-justitie-uber-niet-louter-een-bemiddelaar/, geraadpleegd op 13 juni 2018. en de taxichauffeurs, althans in het Verenigd Koninkrijk, zijn vooralsnog ‘werknemers’. Als er echter wel sprake is van een overeenkomst tussen de taxichauffeurs, of een hub-and-spokesituatie via het Uber-algoritme, dan kan deze algoritmische prijszetting worden aangemerkt als inbreuk op het mededingingsrecht.33x Zie ook M. Anderson en M. Huffman, ‘The Sharing Economy meets the Sherman Act: Is Uber a Firm, A Cartel, or Something in Between?’, Columbia Business Law Review 2017, p. 859- 933. Vlak voor afronding van de tekst van dit artikel werd bekend gemaakt dat de Luxemburgse Mededingingsautoriteit voor een vergelijkbaar algoritme een besluit heeft genomen dat inhoudt dat de mededingingsbeperkende afspraak aan de voorwaarden van ontheffing (onder het Luxemburgse recht) voldoet. Zie: ‘Le Conseil de la concurrence exempte l’accord mis en place par Webtaxi S.à.r.l. sur le marché de la réservation préalable de taxis.’ Conseil de la concurrence, 8 juni 2018, https://concurrence.public.lu/fr/decisions/ententes/20161/decision-2016-as-05.html.
Ook online marktplaatsen als Amazon en eBay maken gebruik van prijsalgoritmen om te komen tot afstemming van een prijs tussen aanbieder en afnemer. Zolang sprake is van een klassieke, hoewel digitale, ‘marktplaats’, is ook hier weinig mededingingsrechtelijks aan de hand: Amazon en eBay stellen in beginsel niet zélf de prijs vast. Een nieuwe ontwikkeling is echter dat zij zelf ook optreden als dienstenaanbieder en daarbij gebruikmaken van de data die hun marktplaats hun oplevert. Het gebruik van prijsalgoritmen voor dynamic pricing en aanpassing tot op het individuele consumentenniveau is controversieel – zie ook de discussie over hypernudging34x Zie K. Yeung, ‘“Hypernudge”: Big Data as a mode of regulation by design’, Information, Communication & Society 2017, 20. – maar lijkt vooralsnog buiten het bereik van het kartelverbod te blijven (eerder zal moeten worden gekeken naar toepassing van artikel 102 VWEU – zie artikel van Eric van Damme, Inge Graef en Wolf Sauter in dit nummer).
Wél relevant voor de toepassing van het verbod op het maken van mededingingsbeperkende afspraken is de recent in het nieuws gekomen zaak waarbij autofabrikanten, via het gebruiken van hetzelfde algoritme, prijzen voor reserveonderdelen deden stijgen.35x ‘Opeens is die wielbeschermer zes keer duurder’, NRC, 1 juni 2018, www.nrc.nl/nieuws/2018/06/01/opeens-is-die-wielbeschermer-zes-keer-duurder-a1605152. Ook dit lijkt op een hub-and-spokesituatie. Via het centrale punt – Accenture in dit geval, zelf geen autofabrikant – werden concurrerende autofabrikanten aan een softwarepakket geholpen voor prijsvaststelling van reserveonderdelen. Het is vooralsnog onduidelijk of autofabrikanten wisten dat er sprake was van het ‘doorgeven’ van informatie aan de concurrent, hoewel – als het klopt – een door Accenture georganiseerde ontmoeting tussen twee autofabrikanten om te spreken over de software de wenkbrauwen kan doen fronsen. De autofabrikanten hebben in ieder geval het softwarepakket gebruikt om de optimale prijs vast te stellen. Het algoritme maakte daarbij gebruik van de dataverzameling van bestaande reserveonderdelen (en hun prijs). Die onderdelen werden geclassificeerd in ‘families’ en de prijzen voor de onderdelen in een familie, die voorheen uiteen konden lopen, werden daarna vastgesteld op basis van het duurste onderdeel. Het resultaat is prijsstijging. De bewijskwestie draait in dit geval met name om de vraag of ook kan worden bewezen dat sprake was van (doelbewuste) afstemming.
De situatie waarin verschillende concurrenten bij hetzelfde bedrijf een algoritme aanschaffen is mededingingsrechtelijk lastig, zelfs als daardoor de prijzen stijgen. Die aanschaf kan immers om legitieme redenen plaatsvinden, bijvoorbeeld omdat dit het beste algoritme is dat op dat moment wordt aangeboden.36x Stucke en Ezrachi 2015. Een voorbeeld wordt gegeven door twee Rotterdamse tankstations die beide het Deense prijsalgoritme a2i Systems in gebruik hadden. Het algoritme hanteerde lagere prijzen in de ochtend, terwijl het tegen sluitingstijd de prijzen verhoogde. De prijsfluctuatie tussen ochtend en middag kon oplopen tot 3,5 cent. De prijzen van de twee tankstations fluctueerden vaak gelijktijdig.37x Zie: S. Schechner, ‘Why Do Gas Station Prices Constantly Change? Blame the Algorithm’, Small Business Frontiers, 8 mei 2017, http://smallbusinessfrontiers.com/2017/05/10/why-do-gas-station-prices-constantly-change-blame-the-algorithm/, geraadpleegd 13 juni 2018. Naast de vraag wat hiervan het effect op consumentenwelvaart precies is, is dit geen typische hub-and-spokesituatie en evenmin is sprake van onderlinge afstemming. Ook van wilsovereenstemming tussen de concurrenten die het algoritme hebben gekocht is geen sprake: zij hoeven niet eens te weten dat het algoritme ook door hun concurrenten wordt gebruikt. Toch kan in gevallen waarin meerdere ondernemingen in een markt hetzelfde algoritme gebruiken de uitkomst zijn dat het algoritme tot dezelfde (hoge) prijs komt. Het effect kan dat van een horizontale prijsafspraak of onderling afgestemde feitelijke gedraging zijn. Maar zoals een economisch rationele aanpassing aan marktgedrag van een ander (ook in een oligopolistische markt), zelfs als dat leidt tot parallel gedrag, nog niet het bewijs levert van een onderling afgestemde feitelijke gedraging, zal het ook hier lastig zijn om deze algoritmische prijsaanpassing als afstemming te kwalificeren. Dat is anders als kan worden aangetoond dat de tankstations wisten dat zij hetzelfde algoritme gingen aanschaffen en deze parallelle prijsstelling daarvan het gevolg zou zijn, maar dat is vergelijkbaar met de hiervoor genoemde voorbeelden van facilitering door algoritmen.c. Dynamische prijsstelling
Een van de grote voordelen van het gebruik van algoritmen voor prijsvaststelling is de mogelijkheid van dynamische prijsstelling. De algoritmen worden dan (door individuele ondernemingen) geprogrammeerd om – vrijwel in real time – te reageren op veranderende marktomstandigheden.38x S.B. Hwang en S. Kim, ‘Dynamic Pricing Algorithm for E-Commerce’, in: Sobh en Elleithy 2006, p. 149-155; Mehra 2015. Technisch gezien wordt dat steeds eenvoudiger, maar de betreffende ondernemingen moeten wel over grote hoeveelheden gegevens beschikken. De onderlinge interactie tussen (verschillende) algoritmen van concurrerende ondernemingen zou dan kunnen leiden tot het aanpassen van prijzen. Wanneer een marktpartij bijvoorbeeld tijdelijk de prijzen wil verlagen voor het genereren van extra omzet, zullen de algoritmen van andere marktpartijen daarop onmiddellijk reageren met aangepaste prijzen. Omdat daardoor de initiërende marktpartij de extra omzet misloopt, ontbreekt de prikkel om de prijzen te verlagen die er zonder real time prijsstelling wel zou kunnen zijn geweest. Dat betekent dat door de onderlinge interactie de algoritmen kunnen leiden tot stabiele en transparante markten, maar niet noodzakelijkerwijs tot de laagste, meest concurrerende prijzen.
Dit type prijscoördinatie zou zich derhalve voor kunnen doen zonder dat er ook maar enige vorm van communicatie is tussen de verschillende marktpartijen en zonder dat zij hetzelfde algoritme hebben aangeschaft. Algoritmen kunnen immers elk individueel zo geprogrammeerd worden dat ze de prijsstelling van concurrerende bedrijven volgen. De algoritmen van deze bedrijven kunnen na verloop van tijd, na het voeden van genoeg data, leren dat het niet loont lagere prijzen door te voeren. Gezamenlijk, zonder enige vorm van intentie bij de programmeur of tussen de ondernemingen, komen de algoritmen dan tot een (niet-marktconform) evenwicht. In dit geval is er parallel gedrag en zelfs afgestemd gedrag, maar niet noodzakelijkerwijs is sprake van een onderling afgestemde feitelijke gedraging in de (huidige) juridische betekenis. Zo’n situatie valt derhalve buiten het bereik van het mededingingsrecht.
De verwachting is dat deze afstemming zich vooral zal voordoen in marktomstandigheden waarin ook ‘gewone’ onderling afgestemde feitelijke gedragingen stabiel kunnen plaatsvinden (hoewel het voorstelbaar is dat het in de toekomst mogelijk is dit type gedrag aan te treffen in andere markten, vanwege de ontwikkeling van geavanceerde algoritmen): een homogeen product, transparante prijsstelling, toetredingsbarrières en een in-elastische vraag.39x OECD, Algorithms and Collusion: Competition Policy in the Digital Age, 2017, www.oecd.org/competition/algorithms-collusion-competition-policy-in-the-digital-age.htm. De algoritmische dynamische prijsstelling is dan een ‘plusfactor’ waardoor de afstemming bestendig(er) wordt. Aan de andere kant is er ook op gewezen dat diezelfde dynamische prijszettingsalgoritmen ook een destabiliserend effect kunnen hebben, zeker als zij gecombineerd worden met op het individu afgestemde prijzen. Het zal dan vrijwel onmogelijk zijn om te komen tot een stabiele prijszetting door algoritmische afstemming omdat er een nagenoeg eindeloos aantal mogelijke prijsbepalingen is.40x N. Petit, ‘Antitrust and Artificial Intelligence: A Research Agenda’, Journal of European Competition Law & Practice 2017, 8(6), p. 361-362 Hoewel het conceptuele mededingingsrechtelijke kader tekort kan schieten, is het nog wel de vraag hoe groot dit probleem in werkelijkheid zal zijn.d. Machine learning en kunstmatige intelligentie
Algoritmen ook kunnen worden geprogrammeerd een bepaald doel te bereiken, bijvoorbeeld winstmaximalisatie, zonder dat de beslissingsprocedure zelf wordt voorgeschreven. Het algoritme zal dan zelfstandig op zoek gaan naar manieren om dit doel te bereiken. Doorgaans gaat dat via technieken die gebruikmaken van unsupervised learning. Dit zijn machine learning-technieken die patronen en verbanden ontdekken zonder dat vooraf structuren worden meegegeven. Waar vormen van supervised learning op zoek gaan naar bijvoorbeeld verbanden tussen bepaalde categorieën, zullen bij unsupervised learning de categorieën door het algoritme zelf worden ontwikkeld. Een ander voorbeeld is dat sommige vormen van data mining werken met beslisbomen, maar dat bij unsupervised learning ook wordt geleerd en de beslisboom zelfstandig wordt aangepast.41x Voor een goed overzicht van de verschillende vormen zie: Deng 2018. Door grote hoeveelheden data te analyseren kunnen algoritmen leren via welke wegen het gestelde doel kan worden bereikt. Dat kan natuurlijk ook toegepast worden in een marktsituatie met verschillende partijen die elk gebruikmaken van machine learning-algoritmen met een vergelijkbaar (of gelijk) doel. Bij een non zero-sum game kunnen de algoritmen ontdekken dat het komen tot prijsafspraken of -afstemming, of het verdelen van marktaandeel, kan bijdragen aan het te bereiken doel.42x The United States Department of Justice, ‘Price Fixing, Bid Rigging And Market Allocation Schemes’, 25 juni 2015. Dat kan in theorie, want het is wel de vraag of de omstandigheden waaronder dit een logische uitkomst is zich in de praktijk gemakkelijk zullen voordoen,43x Deng 2018. leiden tot een verstoring van het marktmechanisme en vermindering van concurrentie.
In het verlengde hiervan ligt de discussie over wat we hier ‘echte’ kunstmatige intelligentie zullen noemen. Dat is het moment dat robots – algoritmen dus – zélf doelstellingen formuleren, leren van hun omgeving en zowel doelen als besluitvorming aanpassen. Eurocommissaris Vestager noemt in dit verband de computer ‘Deep Thought’ als voorbeeld. Er is nooit iets op tegen om The Hitchhikers Guide to the Galaxy op nieuw te lezen,44x Vestager, Speech 16 maart 2017, ‘Algorithms and competition Bundeskartellamt 18th Conference on Competition’, https://ec.europa.eu/commission/commissioners/2014-2019/vestager/announcements/bundeskartellamt-18th-conference-competition-berlin-16-march-2017_en, geraadpleegd op 13 juni 2018 en: D. Adams, The Hitchhiker’s Guide to the Galaxy, Random House USA Inc 1995. maar het bezien van de film ‘Deus ex Machina’ is wellicht relevanter om te begrijpen wanneer dit punt zich voordoet. Hoe het ook zij, dat is technologisch gezien nu (nog) niet aan de orde. Deze situaties zijn vanuit het oogpunt van mededingingsrecht niet gemakkelijk: er is geen sprake van een overeenkomst of van een onderling afgestemde feitelijke gedraging in het geval van algoritmische machine learning. Bij ‘echte’ kunstmatige intelligentie zou de afstemming zich zelfs gehéél buiten de invloed van menselijk actoren kunnen afspelen. In deze gevallen is niet ondenkbaar dat zowel marktpartijen als toezichthouder zich niet bewust zijn van afstemming, die immers door de algoritmen is aangeleerd en tot stand gebracht. Dat maakt zowel de toepassing van de concepten van het verbod lastig, als het toezicht op naleving daarvan. Wanneer in de toekomst een zodanig geavanceerde kunstmatige intelligentie ontstaat (of wordt ontworpen) dat het robotalgoritme de klassieke Turingtest doorstaat,45x De Turingtest voor kunstmatige intelligentie houdt in dat een mens in de interactie niet meer kan onderscheiden of hij nu communiceert met een andere natuurlijke persoon of met een kunstmatige vorm van intelligentie. dan zou dat kunnen noodzaken tot het construeren van een nieuw subject van mededingingsrecht. In dit verband is interessant dat het Europees Parlement recentelijk – buiten de mededingingsrechtelijke context – de Commissie heeft opgeroepen na te denken over het creëren van rechtspersoonlijkheid voor robots.46x Zie: Robotics open letter EU, ‘Open letter to the European Commission artificial intelligence and robotics’, www.robotics-openletter.eu/, geraadpleegd op 13 juni 2018; maar zie ook al de resolutie van december 2017, die met de fantastische eerste overweging begint: ‘dat van Mary Shelley’s monster van Frankenstein tot de klassieke legende van Pygmalion, van het verhaal van de Praagse Golem tot de robot van Karel Čapek – die de term bedacht – mensen gefantaseerd hebben over de mogelijkheid om intelligente machines te bouwen, veelal met een menselijke gestalte’ op: www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-2017-0051+0+DOC+PDF+V0//NL. Dat roept allerlei nieuwe ethische, juridische en praktische vragen op: is dat niet veel te vroeg, krijgen robots dan ook mensenrechten?47x Zie ook discussie in NRC: Lotfi El Hamidi, ‘Moeten robots een aparte juridische status krijgen? Een twistgesprek’, NRC, 20 april 2018, www.nrc.nl/nieuws/2018/04/20/moeten-robots-een-aparte-juridische-status-krijgen-een-twistgesprek-a1600265, geraadpleegd op 13 juni 2018. En ook vragen voor het mededingingsrecht: is het zinnig een robot-subject met boetes aan te pakken of moet de sanctie dan het beëindigen van intelligentie zijn?48x Deze discussie speelt ook in het aansprakelijkheidsrecht, zie bijvoorbeeld S. Gless, E. Silverman en T. Weigend, ‘If Robots Cause Harm, Who is to Blame’, New Criminal Law Review 2016, nr. 3, p. 412-436. -
Vooruitzichten, antwoorden en beschouwingen voor het mededingingsrecht
De mededingingsrechtelijke discussie omtrent algoritmische besluitvorming spitst zich momenteel vooral toe op de vraag of het mededingingsrecht voldoende flexibel is en voldoende is toegesneden om effectief te kunnen worden toegepast en ingezet in de digitale economie. Die discussie is niet beperkt tot het kartelverbod. In dit meer algemene debat zijn verschillende posities te onderscheiden. De eerste is dat het mededingingsrecht op zich prima geschikt is, dat hooguit enkele concepten moeten worden aangepast en er wellicht nieuwe ‘theories of harm’ (met name als het gaat om misbruik van machtspositie) helder moeten worden onderbouwd en dat het handig zou kunnen zijn de reikwijdte van het toezicht op concentraties iets uit te breiden (zoals nu in Oostenrijk en Duitsland is gedaan).49x Zie: ‘New transaction value threshold in German merger control’, Noerr, 22 juni 2017, www.noerr.com/en/newsroom/News/new-transaction-value-threshold-in-german-merger-control.aspx. geraadpleegd op 13 juni 2018 Met andere woorden: er is niet iets fundamenteel nieuws aan de hand; het mededingingsrecht past zich zonder fundamentele herziening wel aan. De tweede positie is dat er door de werking van algoritmen, met name door dynamische prijsstelling die kan leiden tot afstemming van prijzen zonder nadere tussenkomst van personen en door machine learning en kunstmatige intelligentie, wel degelijk fundamentele verschuivingen zullen zijn in de marktordening en vormgeving van marktransacties. Het mededingingsrecht heeft daarom een fundamentele herijking nodig om daarop een goed antwoord te formuleren.
Deze reacties zijn, in algemene zin, herkenbaar: bij de ontwikkeling en de introductie van nieuwe technologie of een nieuwe maatschappelijke ontwikkeling doet zich vaker een fase voor waarin het recht (of de rechtsgemeenschap) op zoek gaat naar inkadering. Dat kan leiden tot een te snél antwoord, waardoor de flexibiliteit – die juist bij technologisch ontwikkelingen nodig is – verdwijnt. Maar de aanpassingsfase kan ook te lang duren, waardoor de negatieve consequenties voor de samenleving als geheel niet door het rechtssysteem kunnen worden ondervangen.50x G. Mandel, ‘Hoofdstuk 9 Legal Evolution in Response to Technological Change’, in: R. Brownsword, E. Scotford en K. Yeung (red.), The Oxford Handbook of Law, Regulation and Technology, Oxford: Oxford University Press 2017, p. 226. Het is precies die spagaat waarin de mededingingsrechtelijke discussie zich ook lijkt af te spelen.
Onze uiteenzetting leidt niet tot schokkende conclusies. Wel kan worden vastgesteld dat de vraag naar de toereikendheid en toekomstbestendigheid van het mededingingsrecht op zijn minst twee componenten omvat. Niet alleen of de juridische concepten (zullen blijven) voldoen, maar ook of het toezicht en de handhaving versterkt of aangepast zouden moeten worden. Ten aanzien van het eerste component is vervolgens de vraag of – en hoe snel dan – het rechtssysteem aangepast zou moeten worden. Zou niet eerst moeten worden afgewacht of de situaties waarin het mededingingsrechtelijk conceptueel kader tekort zou kunnen schieten zich daadwerkelijk voor gaan doen? Is het mededingingsrecht vervolgens intrinsiek flexibel genoeg om door middel van een herinterpretatie van de huidige mededingingsnormen de nieuwe vormen van afstemming te integreren? De ontwikkeling van het mededingingsrecht suggereert een zekere flexibiliteit. Interessant is ook dat de Europese Commissie aangeeft dat ondernemingen zich in ieder geval niet achter een computerprogramma kunnen verschuilen om mededingingsrechtelijke verantwoordelijkheid te ontduiken.51x Speech 16 maart 2017, Vestager, Bundeskartelamt: ‘I think we need to make it very clear that companies can’t escape responsibility for collusion by hiding behind a computer program.’ In de speech van Eurocommissaris Vestager wordt daarbij echter voortgebouwd op het voorbeeld in de zaak Eturas. Echter, zoals hierboven weergegeven, zijn er nu juist situaties denkbaar waar er tussen de menselijke vormgeving van het algoritme en de afstemming een veel grotere afstand zit dan in die zaak, waarbij de online omgeving vooral faciliterend was. De Commissie geeft bovendien aan dat ondernemingen zich moeten richten op ‘compliance by design’: het stilstaan bij hoe het algoritme zal functioneren, nog voordat het in gebruik wordt genomen.52x B.H.M. Custers en B.W. Schermer, ‘Responsibly Innovating Data Mining and Profiling Tools: A New Approach to Discrimination Sensitive and Privacy Sensitive Attributes’, in: J. van den Hoven, N. Doorn, T. Swierstra, B.-J. Koops en H. Romijn (red.), Responsible innovation 1: innovative solutions for global issues, Dordrecht: Springer 2014, p. 335-350. Compliance by design (en het vergelijkbare concept van ‘ethics by design’)53x Zie ter vergelijking: OECD, Tax Compliance by Design, 2014. is een verstandig uitgangspunt, maar het is onduidelijk bij wie de verantwoordelijkheid dan precies komt te liggen, de programmeur of de onderneming. Bovendien, hoe zelfstandiger het algoritme functioneert, hoe lastiger het wordt om de uitkomsten van afstemming tussen meerdere algoritmen toe te rekenen aan de onderneming. Zonder een zekere risicoaansprakelijkheid te accepteren, blijft het dus de vraag of het concept van onderling afgestemde feitelijke gedraging ook de afstemming-zonder-menselijke-actoren kan omvatten.54x Ook: OECD 2014, p. 22.
Ten aanzien van het tweede punt (toezicht en handhaving) komen we terug op de in de inleiding opgeworpen discussie omtrent algoritmische transparantie (en algorithmic accountability). Algoritmische besluitvorming heeft verschillende kenmerken, die echter verschillend zijn per (type) algoritme: bij een simpele algoritmische beslisboom is het spoor van besluitvorming gemakkelijker te herkennen – en op te sporen – dan bij vormen van geavanceerde machine learning, waar soms sprake kan zijn van een grote mate van onvoorspelbaarheid en onvoorzienbaarheid. Algoritmische besluitvorming kan worden achterhaald door nadere inspectie van de gebruikte data en algoritmen. In feite is de situatie dan repliceerbaar en daarmee voorspelbaar, in tegenstelling tot situaties waarin geavanceerde machine learning en kunstmatige intelligentie worden gebruikt.55x Ook de OECD wijst op het probleem van het ‘leaving no trace’ voor toezicht en handhaving, OECD 2014, p. 32. In laatstgenoemde situaties is transparantie, inclusief reverse engineering en reconstructie, veel ingewikkelder of zelfs onmogelijk. Nu kunnen toezichthouders vuur met vuur bestrijden, en zélf (machine learning) algoritmen inzetten om afstemming op het spoor te komen,56x Zie Deng 2018. Zie ook het voorbeeld van discriminatie: data mining en machine learning kan leiden tot discriminatie, maar kan ook bijdragen aan het opsporen van discriminatie, zie: D. Pedreschi, S. Ruggieri en F. Turini, ‘The Discovery of Discrimination’, in: B.H.M. Custers, T. Calders, B. Schermer en T. Zarsky (red.), Discrimination and Privacy in the Information Society (nr. 3), Heidelberg: Springer 2013, p. 3-26. maar hier is ook de vraag of transparantie omtrent de werking van algoritmen mogelijke mededingingsbeperkende afstemming, of mogelijke niet-marktconforme uitkomsten kan tegengegaan, of in ieder geval de handhaving kan vergemakkelijken.
De discussie omtrent transparantie omvat ook algoritmische besluitvorming in het publieke domein (tussen burger en overheid) en consumentenbescherming. Zo wordt transparantie ook bepleit omdat het mogelijkheden biedt voor de consument om geïnformeerd keuzes te maken (bijvoorbeeld een andere dienstverlener te kiezen indien deze betere bescherming van privacy biedt) of zich te verzetten tegen bepaalde praktijken. Dat is vanuit concurrentieperspectief ook relevant, want dat kan daadwerkelijke concurrentie creëren op (bijvoorbeeld) privacybescherming.57x Met betrekking tot de positie van consumenten is ook de ontwikkeling omtrent dataportabiliteit interessant. I. Graef, J. Verschakelen en P. Valcke, ‘Putting the Right to Data Portability into a Competition Law Perspective’, The Journal of the Higher School of Economics, Annual Review 2013, p. 53-63. Maar verhoogde transparantie omtrent de werking van algoritmen kan ook concurrenten meer inzicht bieden in bedrijfsmodellen van anderen en daardoor mededingingsbeperkend zijn én haaks staan op bescherming van intellectuele-eigendomsrechten. Voor toezichthouders is, zelfs met meer transparantie omtrent het ontwerp en de werking van algoritmen, het begrijpen van de besluitvorming van geavanceerde algoritmen geenszins eenvoudig. Ook bij eenvoudige algoritmen die zeer grote hoeveelheden data als input gebruiken, kunnen uitkomsten onvoorspelbaar zijn.
De OECD stelt in dit verband twee oplossingen voor: ‘Black-box access’ en ‘White-box access’.58x A. Gal, ‘It’s a Feature, not a Bug: On Learning Algorithms and what they teach us’, OECD 2017, https://one.oecd.org/document/DAF/COMP/WD(2017)50/en/pdf. Onder het eerste type toegang krijgt de toezichthouder de mogelijkheid om een simulatie in te voeren in het prijsalgoritme, maar geen toegang tot de code zelf. Op basis hiervan kan een oordeel worden gevormd over het mededingingsbeperkende karakter van het algoritme. In het tweede scenario krijgt de toezichthouder een blik onder de motorkap, inclusief de gebruikte datasets en algoritmen. Daarbij moet worden opgemerkt dat wanneer de algoritmen aangekocht zijn, ze voor de onderneming die ze gebruikt ook een black box zijn; in dat geval zal dus hoger in de keten inzicht en toegang moeten worden verkregen. Ondertussen zijn in reactie op de snelle ontwikkelingen in de digitale economie veel toezichthouders zich aan het voorbereiden op mogelijke onderzoeken of hebben ze reeds onderzoeken gestart. Marktscans zijn elkaar in rap tempo opgevolgd59x Zie Autorité de la concurrence, ‘Avis n° 18-A-03 portant sur l’exploitation des données dans le secteur de la publicité sur internet’, 2018 en Bundeskartellamt & Autorité de la concurrence, ‘Competition Law and Data’, 2016. Daarnaast: ACM, ‘Ontwikkelingen digitale revolutie zowel kans als risico’, 2018. en er wordt samenwerking gezocht met toezichthouders op andere terreinen, zoals – in Nederland – samenwerking tussen de ACM en de Autoriteit Persoonsgegevens en het Commissariaat voor de Media. Daarnaast klinkt de roep om een extra toezichthouder, speciaal voor algoritmen. Dat is opnieuw niet door mededingingsrechtelijke overwegingen ingegeven (of zelfs: helemaal niet), maar door de veel bredere implicaties van het wijdverbreide gebruik van algoritmen die grote hoeveelheden data kunnen verwerken. De recente ontwikkelingen rondom het gebruik van data van Facebookgebruikers (en de personen in het netwerk van deze gebruikers) voor gerichte targeting in het kader van verkiezingen laten zien dat deze implicaties niet moeten worden onderschat. Zo’n toezichthouder zou vooral de impact op grondrechten en democratie moeten bewaken en zich moeten beperken tot het bewerkstellingen van accountability door transparantie af te dwingen.60x C. Volschenk, ‘Why every country needs an algorithm regulator’, AIM Group, 17 juli 2017, https://aimgroup.com/2017/07/17/why-every-country-needs-an-algorithm-regulator/, geraadpleegd op 13 juni 2018.
Alles overziend komen we tot een niet al te verassende conclusie: het is duidelijk dat het debat over algoritmische besluitvorming in het mededingingsrecht voorlopig nog niet zal gaan liggen. De ontwikkelingen gaan snel, zowel technologisch als in het juridische debat. De juridische concepten lijken in sommige gevallen tekort te schieten, met name als het gaat om prijsafstemming waarbij menselijke actoren geen of een zeer ondergeschikte rol spelen. Handhaving en toezicht en daarmee samenhangende bewijsvraagstukken zijn ingewikkeld. Over voor de hand liggende oplossingen zoals steviger toezicht en het bevorderen van transparantie wordt nagedacht, maar of het huidige mededingingsrecht voldoende flexibel en toegesneden is op deze ontwikkelingen zal, gezien de snelheid van de technologische ontwikkelingen waarschijnlijk al in de nabije toekomst, moeten blijken.
Algoritmen nemen in toenemende mate besluitvorming over van menselijke actoren. Door het gebruik van big data (grote hoeveelheden, doorgaans ongestructureerde en realtime gegevens) kunnen algoritmen sneller en beter reageren op veranderende omstandigheden dan menselijke actoren. Binnen het mededingingsrecht is de aandacht voor algoritmische besluitvorming groot, nu het risico bestaat dat het gebruik daarvan leidt tot, bijvoorbeeld, afstemming van prijzen. De vraag is of hier sprake is van daadwerkelijk nieuwe typen van kartelvorming en in welke vorm deze zich dan kunnen voordoen of dat het ‘business as usual’ is. De focus van dit artikel – dat geflankeerd wordt door de bijdragen van Eric van Damme, Inge Graef en Wolf Sauter in dit nummer, met een focus op misbruik van machtspositie – ligt op het verbod op het maken van mededingingsbeperkende afspraken (het kartelverbod) als gevolg van de technologische ontwikkelingen op het terrein van algoritmische besluitvorming. Daarbij wordt zowel aan de technologische (on)mogelijkheden als de potentiële betekenis voor het mededingingsrecht aandacht besteed.
Noten
- * Met dank aan de uitstekende onderzoeksondersteuning van Guus Visman, student-assistent aan de Universiteit Utrecht.
-
1 V. Mayer-Schönberger en K. Cukier, Big Data: A Revolution That Will Transform How We Live, Work and Think, New York: Houghton, Mifflin, Harcourt Publishing Company 2013.
-
2 A. Gandomi en M. Haider, ‘Beyond the hype: Big data concepts, methods and analytics’, International Journal of Information Management 2015, 35, p. 137-144.
-
3 Tot op zekere hoogte, want als de gegevens of de analysemethoden al bias bevatten, wordt dit weerspiegeld in de analyseresultaten. Zie I. Zliobaite en B. Custers, ‘Using sensitive personal data may be necessary for avoiding discrimination in data-driven decision models’, Artificial Intelligence and Law 2016, 24, p. 183-201; S. Barocas, en A.D. Selbst, ‘Big Data’s Disparate Impact’, California Law Review 2016, 104, p. 671-732.
-
4 T. Zarsky, ‘Mine your own business’, Yale Journal of Law and Technology 2003, nr. 1.
-
5 T. Zarsky, ‘Understanding Discrimination in the Scored Society’, Washington Law Review, 2015, nr. 4.
-
6 F.J. Zuiderveen Borgesius en J. Poort, ‘Online Price Discrimination and EU Data Privacy Law’, Journal of Consumer Policy 2017, DOI: 10.1007/s10603-017-9354-z.
-
7 T. Calders en B.H.M. Custers , ‘What is data mining and how does it work?’, in: B.H.M.Custers, T. Calders, B. Schermer en T. Zarsky (red.), Discrimination and Privacy in the Information Society, Heidelberg: Springer 2013.
-
8 B.H.M.Custers en H. Ursic, ‘Big data and data reuse: a taxonomy of data reuse for balancing big data benefits and personal data protection’, International Data Privacy Law 2016, nr. 1, p. 4-15.
-
9 N.P. Schepp en A. Wambach, ‘On Big Data and Its Relevance for Market Power Assessment’, Journal of European Competition Law & Practice, 2016, nr. 2, p. 120-124.
-
10 A. Moodie, ‘How artificial intelligence could help make the insurance industry trustworthy’, The Guardian, 28 januari 2017, www.theguardian.com/sustainable-business/2017/jan/28/insurance-company-lemonde-claims, geraadpleegd op 13 juni 2018.
-
11 M. Stucke en A. Ezrachi, Artificial Intelligence & Collusion: When Computers Inhibit Competition, Oxford Legal Studies Research Paper 2015, nr. 18.
-
12 ‘De verzekering is bij huisnummer 186A duurder dan bij 186’, NOS, 26 augustus 2015, https://nos.nl/artikel/2054035-de-verzekering-is-bij-huisnummer-186a-duurder-dan-bij-186.html, geraadpleegd op 13 juni 2018.
-
13 Dat geldt des te sterker voor het zorgverzekeringsysteem, waaraan solidariteit ten grondslag ligt, wat door vergaand gepersonaliseerd aangeboden zorgverzekeringen en zorgpremies die door algoritmen mogelijk worden gemaakt kan worden ondermijnd.
-
14 In Wisconsin werd de heer Loomis veroordeeld tot zes jaar gevangenisstraf, mede op basis van een berekening door een algoritme genaamd Compas. Dit algoritme berekent de kans op recidive. Zie: M. Smith, ‘In Wisconsin, a Backlash Against Using Data to Foretell Defendants’ Futures’, The New York Times, 22 juni 2016, www.nytimes.com/2016/06/23/us/backlash-in-wisconsin-against-using-data-to-foretell-defendants-futures.html, geraadpleegd op 13 juni 2018.
-
15 National Association of Professional Allstate Agents, ‘Smoking Gun Reveals Allstate’s Illegal Auto Insurance Pricing Scheme’, Consumer Federation Report, 16 december 2014, http://napaausa.org/table/price-optimization/, geraadpleegd op 13 juni 2018.
-
16 Machine learning is een set van technieken die het computers mogelijk maken te ‘leren’ bepaalde taken steeds beter uit te voeren op basis van data, zonder dat ze expliciet daartoe geprogrammeerd zijn. Neurale netwerken zijn systemen die leren via grote voorbeelden, zonder dat ze geprogrammeerd zijn met taakspecifieke regels. Beide technologieën zijn datagedreven in plaats van hypothese-, theorie- of vraaggedreven en leggen dus de nadruk op ‘wat de data te vertellen hebben’. Het gaat dus om ongericht zoeken naar nieuwe patronen en verbanden.
-
17 Vestager, Speech 16 maart 2017, ‘Algorithms and competition Bundeskartellamt 18th Conference on Competition’, https://ec.europa.eu/commission/commissioners/2014-2019/vestager/announcements/bundeskartellamt-18th-conference-competition-berlin-16-march-2017_en, geraadpleegd op 13 juni 2018.
-
18 Zie ook FTC Acting Chair Ohlhausen, ‘Should we fear the things that go beep in the night?’, 23 mei 2017: www.ftc.gov/public-statements/2017/05/should-we-fear-things-go-beep-night-some-initial-thoughts-intersection.
-
19 T. Cerquitelli, D. Quercia en F. Pasquale, Transparent Data Mining for Big and Small Data, Heidelberg: Springer 2017.
-
20 Daarbij bouwen we voort op hetgeen in literatuur naar voren is gebracht. Zie in algemene zin vooral: Stuck en Ezrachi 2015; N. Abe en T. Kamba, ‘A Web Marketing System With Automatic Pricing’, Computer Networks 2000, nr. 1-6, p. 775-788; S.B. Hwang en S. Kim, ‘Dynamic Pricing Algorithm for E-Commerce’, in: T. Sobh en K. Elleithy (red.), Advances in Systems, Computing Sciences and Software Engineering, Springer 2006, p. 149-155; S.K. Mehra, ‘Antitrust and the Robo-Seller: Competition in the Time of Algorithms’, Minnesota Law Review 2015, vol. 100; B.J. Drijber, ‘Big data en het mededingingsrecht’, in: P.H. Blok (red.), Big data en het recht, Den Haag: Sdu Uitgevers 2017; A. Ittoo en N. Petit, ‘Algorithmic Pricing Agents and Tacit Collusion: A Technological Perspective’, IO: Regulation, Antitrust & Privatization SSRN.
-
21 Stucke en Ezrachi 2015.
-
22 Dat kan ook tot bizarre resultaten leiden, zo laat een ander voorbeeld omtrent Amazon zien. In de verkoop van een boek (The Making of a Fly van Peter Lawrence) werd de prijs steeds verder verhoogd, uiteindelijk tot boven 23 miljoen dollar (A. Couts, ‘Why did Amazon charge $23,698,655.93 for a textbook?’, Digital Trends, 23 april 2011). De oorzaak hiervan was dat twee verkopers van hetzelfde boek beide een algoritme gebruikten om de prijs te bepalen. De ene verkoper paste elke dag de prijs aan op 99 procent van de prijs van concurrent. Maar de andere verkoper paste elke dag de prijs aan op 127 procent van de concurrent. Dat liep al snel uit de hand met omhoog spiraliserende prijzen, maar er was nergens een stop ingebouwd, hetgeen tot bovengenoemde absurde prijsstellingen leidde. Na ontdekking werden de prijzen handmatig teruggezet – het boek is uiteraard nooit voor die hoge prijzen verkocht.
-
23 Zie ook A. Deng, ‘An Antitrust Lawyer’s Guide to Machine Learning’, Antitrust 2018, nr. 2, p. 80 (met verwijzing naar hetzelfde voorbeeld).
-
24 HvJ EU 21 januari 2016, zaak C-74/14, Eturas UAB e.a./Lietuvos Respublikos konkurencijos taryba, ECLI:EU:C:2016:42
-
25 HvJ EG 4 juni 2009, zaak C-8/08, T-Mobile, Jur. 2009, p. I-4529.
-
26 Op zich is het verwijderen of versleutelen van gegevens niet heel ingewikkeld, maar in de praktijk laten veel organisaties dit na. Overigens zijn toezichthouders in bepaalde situaties wel gemachtigd de sleutels op te eisen, maar dat is dan wel weer beperkt tot de betreffende jurisdictie – in internationale context kan dit problematisch zijn, zie J.J. Oerlemans, Investigating cybercrime (diss. Leiden), 2017, Meijers-reeks, nr. 275.
-
27 HvJ EU 21 januari 2016, zaak C-74/14, Eturas UAB e.a./Lietuvos Respublikos konkurencijos taryba, ECLI:EU:C: 2016:42
-
28 Abe en Kamba 2000, p. 775-788.
-
29 Zie B. Orbach, ‘Hub-and-Spoke Conspiracies’, The Antitrust Source 2016, 15 (4), p. 1-15. Voor recente uitspraken, zie HvJ EU 22 oktobert 2015, zaak C-194/14P, AC-Truehand AG/Europese Commissie, ECLI:EU:C:2015:717 en United States of America v Apple Inc. et al., 12 Civ. 2862 (DLC).
-
30 Zie bijvoorbeeld: J. Nowag, ‘The UBER-Cartel? UBER between Labour and Competition Law’, Lund Student EU Law Review 2016, vol. 3.
-
31 Z. Chen, A. Mislov en C. Wilson, ‘Peeking Beneath the Hood of Uber’, 2015. Diezelfde stijging doet zich voor in een crisissituatie, tot ergernis van een aantal bestuurders. Zie hierover o.a.: D. Kedmey, ‘This Is How Uber’s ‘Surge Pricing’ Works’, Time, 15 december 2014, http://time.com/3633469/uber-surge-pricing/ en: ‘How surge pricing works’, zie www.uber.com/en-NL/drive/partner-app/how-surge-works/, geraadpleegd op 13 juni 2018.
-
32 L. Risack, ‘Hof van Justitie: UBER is niet louter een bemiddelaar’, Rechtenkrant.be, 13 juni 2018, http://rechtenkrant.be/hof-van-justitie-uber-niet-louter-een-bemiddelaar/, geraadpleegd op 13 juni 2018.
-
33 Zie ook M. Anderson en M. Huffman, ‘The Sharing Economy meets the Sherman Act: Is Uber a Firm, A Cartel, or Something in Between?’, Columbia Business Law Review 2017, p. 859- 933. Vlak voor afronding van de tekst van dit artikel werd bekend gemaakt dat de Luxemburgse Mededingingsautoriteit voor een vergelijkbaar algoritme een besluit heeft genomen dat inhoudt dat de mededingingsbeperkende afspraak aan de voorwaarden van ontheffing (onder het Luxemburgse recht) voldoet. Zie: ‘Le Conseil de la concurrence exempte l’accord mis en place par Webtaxi S.à.r.l. sur le marché de la réservation préalable de taxis.’ Conseil de la concurrence, 8 juni 2018, https://concurrence.public.lu/fr/decisions/ententes/20161/decision-2016-as-05.html.
-
34 Zie K. Yeung, ‘“Hypernudge”: Big Data as a mode of regulation by design’, Information, Communication & Society 2017, 20.
-
35 ‘Opeens is die wielbeschermer zes keer duurder’, NRC, 1 juni 2018, www.nrc.nl/nieuws/2018/06/01/opeens-is-die-wielbeschermer-zes-keer-duurder-a1605152.
-
36 Stucke en Ezrachi 2015.
-
37 Zie: S. Schechner, ‘Why Do Gas Station Prices Constantly Change? Blame the Algorithm’, Small Business Frontiers, 8 mei 2017, http://smallbusinessfrontiers.com/2017/05/10/why-do-gas-station-prices-constantly-change-blame-the-algorithm/, geraadpleegd 13 juni 2018.
-
38 S.B. Hwang en S. Kim, ‘Dynamic Pricing Algorithm for E-Commerce’, in: Sobh en Elleithy 2006, p. 149-155; Mehra 2015.
-
39 OECD, Algorithms and Collusion: Competition Policy in the Digital Age, 2017, www.oecd.org/competition/algorithms-collusion-competition-policy-in-the-digital-age.htm.
-
40 N. Petit, ‘Antitrust and Artificial Intelligence: A Research Agenda’, Journal of European Competition Law & Practice 2017, 8(6), p. 361-362
-
41 Voor een goed overzicht van de verschillende vormen zie: Deng 2018.
-
42 The United States Department of Justice, ‘Price Fixing, Bid Rigging And Market Allocation Schemes’, 25 juni 2015.
-
43 Deng 2018.
-
44 Vestager, Speech 16 maart 2017, ‘Algorithms and competition Bundeskartellamt 18th Conference on Competition’, https://ec.europa.eu/commission/commissioners/2014-2019/vestager/announcements/bundeskartellamt-18th-conference-competition-berlin-16-march-2017_en, geraadpleegd op 13 juni 2018 en: D. Adams, The Hitchhiker’s Guide to the Galaxy, Random House USA Inc 1995.
-
45 De Turingtest voor kunstmatige intelligentie houdt in dat een mens in de interactie niet meer kan onderscheiden of hij nu communiceert met een andere natuurlijke persoon of met een kunstmatige vorm van intelligentie.
-
46 Zie: Robotics open letter EU, ‘Open letter to the European Commission artificial intelligence and robotics’, www.robotics-openletter.eu/, geraadpleegd op 13 juni 2018; maar zie ook al de resolutie van december 2017, die met de fantastische eerste overweging begint: ‘dat van Mary Shelley’s monster van Frankenstein tot de klassieke legende van Pygmalion, van het verhaal van de Praagse Golem tot de robot van Karel Čapek – die de term bedacht – mensen gefantaseerd hebben over de mogelijkheid om intelligente machines te bouwen, veelal met een menselijke gestalte’ op: www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-2017-0051+0+DOC+PDF+V0//NL.
-
47 Zie ook discussie in NRC: Lotfi El Hamidi, ‘Moeten robots een aparte juridische status krijgen? Een twistgesprek’, NRC, 20 april 2018, www.nrc.nl/nieuws/2018/04/20/moeten-robots-een-aparte-juridische-status-krijgen-een-twistgesprek-a1600265, geraadpleegd op 13 juni 2018.
-
48 Deze discussie speelt ook in het aansprakelijkheidsrecht, zie bijvoorbeeld S. Gless, E. Silverman en T. Weigend, ‘If Robots Cause Harm, Who is to Blame’, New Criminal Law Review 2016, nr. 3, p. 412-436.
-
49 Zie: ‘New transaction value threshold in German merger control’, Noerr, 22 juni 2017, www.noerr.com/en/newsroom/News/new-transaction-value-threshold-in-german-merger-control.aspx. geraadpleegd op 13 juni 2018
-
50 G. Mandel, ‘Hoofdstuk 9 Legal Evolution in Response to Technological Change’, in: R. Brownsword, E. Scotford en K. Yeung (red.), The Oxford Handbook of Law, Regulation and Technology, Oxford: Oxford University Press 2017, p. 226.
-
51 Speech 16 maart 2017, Vestager, Bundeskartelamt: ‘I think we need to make it very clear that companies can’t escape responsibility for collusion by hiding behind a computer program.’
-
52 B.H.M. Custers en B.W. Schermer, ‘Responsibly Innovating Data Mining and Profiling Tools: A New Approach to Discrimination Sensitive and Privacy Sensitive Attributes’, in: J. van den Hoven, N. Doorn, T. Swierstra, B.-J. Koops en H. Romijn (red.), Responsible innovation 1: innovative solutions for global issues, Dordrecht: Springer 2014, p. 335-350.
-
53 Zie ter vergelijking: OECD, Tax Compliance by Design, 2014.
-
54 Ook: OECD 2014, p. 22.
-
55 Ook de OECD wijst op het probleem van het ‘leaving no trace’ voor toezicht en handhaving, OECD 2014, p. 32.
-
56 Zie Deng 2018. Zie ook het voorbeeld van discriminatie: data mining en machine learning kan leiden tot discriminatie, maar kan ook bijdragen aan het opsporen van discriminatie, zie: D. Pedreschi, S. Ruggieri en F. Turini, ‘The Discovery of Discrimination’, in: B.H.M. Custers, T. Calders, B. Schermer en T. Zarsky (red.), Discrimination and Privacy in the Information Society (nr. 3), Heidelberg: Springer 2013, p. 3-26.
-
57 Met betrekking tot de positie van consumenten is ook de ontwikkeling omtrent dataportabiliteit interessant. I. Graef, J. Verschakelen en P. Valcke, ‘Putting the Right to Data Portability into a Competition Law Perspective’, The Journal of the Higher School of Economics, Annual Review 2013, p. 53-63.
-
58 A. Gal, ‘It’s a Feature, not a Bug: On Learning Algorithms and what they teach us’, OECD 2017, https://one.oecd.org/document/DAF/COMP/WD(2017)50/en/pdf.
-
59 Zie Autorité de la concurrence, ‘Avis n° 18-A-03 portant sur l’exploitation des données dans le secteur de la publicité sur internet’, 2018 en Bundeskartellamt & Autorité de la concurrence, ‘Competition Law and Data’, 2016. Daarnaast: ACM, ‘Ontwikkelingen digitale revolutie zowel kans als risico’, 2018.
-
60 C. Volschenk, ‘Why every country needs an algorithm regulator’, AIM Group, 17 juli 2017, https://aimgroup.com/2017/07/17/why-every-country-needs-an-algorithm-regulator/, geraadpleegd op 13 juni 2018.