De Belastingdienst gebruikt steeds vaker digitale hulpmiddelen om aangiften te beoordelen. Dat roept soms vragen op. Mag de Belastingdienst een onderneming selecteren voor controle met behulp van een algoritme? En wat betekent dat voor jou als ondernemer? Een recente uitspraak van de rechtbank geeft daar meer duidelijkheid over.
In deze zaak ging het om een bv die administratieve en fiscale diensten verleende aan andere ondernemingen. De eigenaar verzorgde zelf de boekhouding en diende ook de btw-aangiften in. Nadat over het vierde kwartaal van 2022 een verzoek om teruggaaf van btw was gedaan, werd de onderneming geselecteerd voor controle. Dat gebeurde via het risicoselectiemodel ‘OB Negatief’, een systeem van de Belastingdienst dat negatieve btw-aangiften beoordeelt op een verhoogd risico op fouten of onjuistheden.
Van teruggaafverzoek naar boekenonderzoek
Na de selectie volgde een boekenonderzoek over meerdere jaren, namelijk 2018 tot en met 2022. Uit dat onderzoek concludeerde de Belastingdienst dat ten onrechte btw was teruggevraagd op uitgaven met een privékarakter. Uiteindelijk leidde dat tot naheffingsaanslagen van ruim 64.000 euro. Daarnaast werden over meerdere jaren vergrijpboetes van 25 procent opgelegd.
De ondernemer zet vraagtekens bij het algoritme
De ondernemer verzette zich daar stevig tegen. Volgens hem was de hele controle onrechtmatig, omdat de selectie was gebaseerd op een algoritme. Hij stelde onder meer dat sprake was van volledig geautomatiseerde besluitvorming, wat in strijd zou zijn met privacyregels en Europese rechtspraak. Ook vond hij dat het algoritme niet op de juiste manier was verantwoord en dat de uitkomsten van het boekenonderzoek daarom buiten beschouwing moesten blijven.
Wanneer mag de Belastingdienst een algoritme gebruiken?
De rechtbank ging daar niet in mee. Volgens de rechter mag de Belastingdienst dit soort systemen gebruiken als hulpmiddel bij de selectie voor controle. Daarbij speelde mee dat de Belastingdienst jaarlijks enorme aantallen negatieve btw-aangiften ontvangt. Het is in de praktijk niet haalbaar om al die aangiften handmatig te beoordelen. Een risicoselectiemodel kan dan helpen om aangiften met een grotere kans op fouten eruit te halen voor nadere controle.
Belangrijk was wel dat het algoritme niet zelfstandig de uiteindelijke beslissing nam. Het systeem wees alleen aangiften aan voor extra aandacht. Daarna kwam er altijd nog een medewerker van de Belastingdienst aan te pas. Die beoordeelde de zaak verder en nam de beslissing om wel of geen correctie toe te passen. Juist dat menselijke oordeel maakte in deze zaak verschil. Volgens de rechtbank was daarom geen sprake van verboden, volledig geautomatiseerde besluitvorming.
Geen aanwijzingen voor discriminatie
Ook keek de rechter naar de gegevens die in het model werden gebruikt. Het ging om zakelijke gegevens, zoals bedragen uit aangiften, betalingsgegevens en bedrijfsinformatie. Er waren geen aanwijzingen dat de Belastingdienst discriminerende of gevoelige persoonsgegevens gebruikte. De ondernemer had daar ook geen concrete bewijzen voor aangedragen. Alleen de stelling dat een algoritme wordt gebruikt, is dus niet genoeg om de selectie onderuit te halen.
Inhoudelijke bezwaren blijven belangrijk
Daarmee was de zaak nog niet klaar. Want ook als je vindt dat een controle onterecht is gestart, moet je nog steeds inhoudelijk reageren op de correcties die de Belastingdienst voorstelt. En daar ging het in deze procedure mis voor de ondernemer. De Belastingdienst had de correcties uitgebreid onderbouwd in het controlerapport. De ondernemer bleef vooral bij algemene bezwaren en wees niet concreet aan welke posten onjuist waren beoordeeld. Ook nadat hij inzage had gekregen in de gebruikte auditfiles, kwam hij niet met specifieke tegenargumenten.
Correcties en boetes blijven in stand
De rechtbank vond daarom dat de correcties voldoende aannemelijk waren. Ook de boetes bleven in stand. Daarbij woog mee dat het ging om privé-uitgaven die als zakelijke kosten waren verwerkt. Van iemand die zelf administratieve en fiscale diensten verleent, mag volgens de rechtbank worden verwacht dat hij het verschil kent tussen zakelijke en privé-uitgaven. Daarom was volgens de rechter sprake van grove schuld.
Wat kun je hiervan leren?
Deze uitspraak laat goed zien dat algoritmes bij de Belastingdienst niet automatisch onrechtmatig zijn. De inzet ervan hangt af van de manier waarop ze worden gebruikt. Zolang een algoritme alleen dient als hulpmiddel bij de selectie en een medewerker uiteindelijk zelf beslist, is dat in beginsel toegestaan.
Voor ondernemers is minstens zo belangrijk dat een procedure niet alleen draait om de vraag hoe een controle is gestart, maar vooral ook om de inhoud. Wie correcties wil bestrijden, moet duidelijk en concreet kunnen uitleggen waarom die volgens hem niet kloppen.
