Journal Entry Testing (JET-Analysen)

Christoph Heck • 13. März 2025

Entdeckung von Auffälligkeiten durch Datenanalysen


Was sind "JET-Analysen" ?




Suche nach Auffälligkeiten


Zur Feststellung von auffälligen Abweichungen werden gemäß IDW PH 9.330.3, Tz. 72 in der Praxis Analysen durchgeführt, die häufig unter dem Begriff „Journal Entry Testing (JET)“ zusammengefasst werden. Diese Analysen eignen sich sowohl zur Analyse des Kontrollumfelds als auch zur Feststellung von auffälligen Buchungen aus der Abbildung von Transaktionen. 


Bei festgestellten Auffälligkeiten sind weitere Prüfungshandlungen (insb. Belegprüfungen) einzuleiten, um deren Ursachen anhand der zugrundeliegenden Geschäftsvorfälle zu untersuchen. Journal-Entry-Tests liegt die Vorstellung zugrunde, dass die in einem Grund- oder Zeitbuch strukturierten Buchungssätze mittels digitaler Analysen zuverlässige Signale zu Fehlern oder Unregelmäßigkeiten (=Auffälligkeiten) eines computergestützten Buchführungsverfahrens vermitteln. Typische JET-Analysen sind Schichten-, Gegenkonten-, Wochentags-, Belegverarbeitungs-  oder Ziffernanalysen.


Zur Veranschaulichung der Vorgehensweise einer JET-Analyse wird gerne auch die „7-W-Regel“ herangezogen. Demnach sind die folgenden sieben „W-Fragen“ zu beantworten :



  1. Warum wurde gebucht (Verursachung, Rechtsgrundlage)
  2. Was wurde gebucht (Art des Geschäftsvorfalles)?
  3. Wer hat gebucht (User)?
  4. Wann wurde gebucht (zeitgerecht/Zeitpunkt/periodengerecht)?
  5. Wie wurde gebucht (Sammel-/Einzelbuchung, automatisch/manuell)?
  6.  Wohin wurde gebucht (sachlich zutreffende Konten-Zuordnung)?
  7. Welcher Betrag wurde gebucht (Betragshöhe abstimmbar?)?

 


JET-Analysen folgen grundsätzlich den allgemeinen Grundsätzen ordnungsmäßiger Datenanalysen. Demnach sind auch bei JET-Analysen die Hauptschritte

 

  1. Festlegung, welche Fehlerrisiken mittels Datenanalysen identifiziert bzw. in welchen Bereichen Datenanalysen eingesetzt werden sollen (=Analyseplanung)
  2. Definition der erwarteten Analyseergebnisse i.S.v. Vergleichs- und Erwartungswerten oder von Schwellen- und Toleranzwerten (Ergebniserwartung(en))
  3. Aufgabendefinition und Auswahl der Analysemethode (=Projektmodell)
  4. Auswahl der für die Prüfungsdurchführung geeigneten Datenanalysewerkzeuge oder einer Kombination unterschiedlicher Analysewerkzeuge (IDEA/ACL, Excel, ActiveData Python, R, KNIME, ChatGPT, usw.)
  5. Bestimmung der für die Datenanalyse erforderlichen Datenquellen und Ansprechpartner
  6. Anforderung oder Bereitstellung der für die Datenanalyse benötigten Daten (Datenselektion)
  7. Abstimmung der erhaltenen Daten auf Richtigkeit, Vollständigkeit, Abdeckung des erforderlichen Zeitraums etc. (Validierung, Sichtprüfung)
  8. Aufbereitung der Daten für die Datenanalyse (z.B. durch Harmonisierung von Datenfeldlängen oder -formaten oder Erzeugung von Berechnungsfeldern)
  9. Durchführung und Dokumentation der eigentlichen Datenanalyse (Berechnungen)
  10. Interpretation des Ergebnisses der durchgeführten Datenanalyse in Bezug auf die zu treffenden Prüfungsaussag
  11. Zusammenfassung und Berichterstattung
  12. Qualitätssicherung und Dokumentation der Prüfungsdurchführung und der Prüfungsergebnisse in den Arbeitspapieren

 



Der (erhoffte) Nutzen von JET-Analysen


Das Potential der Massendatenanalyse insbesondere auch für eine wirtschaftliche Prüfung zeigt das folgende


Beispiel :
Geprüft werden soll, ob Gehaltszahlungen nur an Beschäftigte mit laufendem Beschäftigungsverhältnis geleistet werden. Die Aufnahme des Geschäftsprozesses <Gehaltszahlungen> hat ergeben, dass alle Beschäftigten in einer Stammdatenliste geführt werden. Jedem Beschäftigten wird vom System bei der erstmaligen Erfassung eine eindeutige, fortlaufende Personalnummer und eine Kreditorennummer zugewiesen. Zum Zeitpunkt des Ausscheidens wird der Datensatz des Ausscheidenden vom Personalsachbearbeiter als "inaktiv" gekennzeichnet, dadurch wird automatisch die Kreditorennummer gelöscht.


Die örtliche Prüfung beabsichtigt nun, u.A. durch den Abgleich aller Gehaltsüberweisungen im Prüfungszeitraum mit der Stammdatenliste zu Beginn und zum Ende des Prüfungszeitraumes Aussagesicherheit über 100 % der Grundgesamtheit zu schaffen oder im Falle von Abweichungen Ansatzpunkte für gezielte Einzelfallprüfungen zu generieren. Der Vorteil der Strategie sei, dass diese Prüfungshandlungen mit den Funktionen der Massendatenanalyse sehr schnell durchzuführen sind.




Einzelfragen beim Einsatz von JET-Analysen


Massendatenanalysen verfolgen nach Zeis, A. (2023, S. 226) drei Grundfunktionen:


•    die Prüfung eines Datenbestandes im Hinblick auf Einhaltung bestimmter Kriterien und Vorgaben,
•    den Nachvollzug mathematischer Operationen und
•    den Abgleich unterschiedlicher Datenbestände.


Massendatenanalysen umfassen demnach im Einzelnen  (Zeis, a.a.O, S. 230 ff.)



  1. Export und Import von Daten aus und in verschiedene Datenformate;
  2. Abgleich zweier Datenbestände bezüglich definierter Felder mit Ausgabe entweder nur der Übereinstimmungen in beiden Dateien oder der Datensätze in Datei 1 ohne Übereinstimmung in zweiter Datei bzw. der Datensätze in Datei 2 ohne Übereinstimmung in erster Datei. Dies erlaubt z.B. die Mehrfachbelegungsanalyse von Stammdatennummern oder eine Lückenanalyse;
  3. Zusammenführen von Datenbeständen, die identisch aufgebaut sind, also z. B. Zeiterfassungen eines Jahres mit denen anderer Jahre, um eine Analyse über mehrere Jahre durchführen zu können;
  4. Verknüpfen von unterschiedlich aufgebauten Datenbeständen mit Hilfe eines gemeinsamen Feldes, z. B. das Kreditorenkonto aus dem Journal mit den Informationen zum Kreditor aus der Kreditorenstammdatenliste;
  5. Extraktion von Daten, die bestimmte Kriterien aufweisen (Beträge, Daten, auch Spannen);
  6. Sortieren und Indizieren z. B. erst nach Buchungsmonat, dann nach Kreditor und schließlich nach Betrag;
  7. Gruppieren nach identischen Merkmalen und Zwischensummen bilden;
  8. Feldstatistik: welche Werte enthält das Feld, Maximum, Minimum, Mittel;
  9. Schichtung: Einteilung von Daten in Schichten und Bandbreiten mittels Ober- und Untergrenzen und Schrittgrößen;
  10. Berechnungen mittels Formeln auch aus mehreren Feldinhalten vornehmen und berechnete Felder mit Datensatzelementen vergleichen;
  11. Mit Hilfe von Pivot-Tabellen können Funktionalitäten wie Extraktion, Sortieren und Gruppieren und Berechnen kombiniert werden; das macht die Darstellung großer Datenvolumina in überschaubarer Form und komplexere Abfragen möglich (Umsätze mit einem Debitor nur im Mai und über der Schwelle von 1.000 Euro);
  12. Die Drill-Down-Funktion ermöglicht den Sprung von der Gruppe zum einzelnen Datensatz.

 


von Christoph Heck 31. März 2025
Aufgabenkritik, Verwaltungsreform und Finanzierungsengpass In 16 Arbeitsgruppen werden zurzeit die wesentlichen Inhalte und Zukunftsthemen der künftigen Koalitionspartner auf Bundesebene verhandelt. Da die Entwurfspapiere "geleakt" wurden, liegt es nahe, sich die aufgelisteten Themen und wichtigsten Maßnahmen näher anzusehen. Aus Sicht kommunaler Verwaltungen liegen die Erwartungen auf der Hand: stabile, auskömmliche Finanzausstattung, Altschuldenentlastung und Digitalisierung stehen ganz oben auf der Wunschliste. Aber welche Wünsche werden wohl erfüllt werden? Wie passen die kommunalen Erfordernisse in die Planungen auf der Bundesebene? Gibt es über- oder durchgreifende Einzelthemen? Folgende Arbeitsgruppen wurden gebildet ( Quelle ): AG 1 Inneres, Recht, Migration AG 2 Wirtschaft, Industrie, Tourismus AG 3 Digitales AG 4 Verkehr und Infrastruktur, Bauen und Wohnen AG 5 Arbeit und Soziales AG 6 Gesundheit und Pflege AG 7 Familie, Frauen, Jugend, Senioren und Demokratie AG 8 Bildung, Forschung und Innovation AG 9 Bürokratierückbau, Staatsmodernisierung, moderne Justiz AG 10 Kommunen, Sport und Ehrenamt AG 11 Ländliche Räume, Landwirtschaft, Ernährung und Umwelt AG 12 Verteidigung, Außen, Entwicklung, Menschenrechte AG 13 Europa AG 14 Kultur und Medien AG 15 Klima und Energie AG 16 Haushalt, Finanzen und Steuern Aus kommunaler Sicht enthalten die AGs 2 bis 6, 8 bis10, 12 sowie 15 und 16 besonders intensiv diskutierte Themen und Vorhaben. Darunter die Top-Themen Infrastrukturausbau, Digitalisierung, Planungsbeschleunigung, Krankenhausreform, Bürokratieabbau und Finanzausstattung. Da (fast) alle Themen wechselseitige Wirkungen entfalten, scheint es nützlich, zunächst einen Gesamtüberlick zu entwerfen. Blendet man eher weniger umstrittene Politikfelder aus, könnte sich folgendes Szenario ergeben (vgl. Abb . 1). Die Zusammenstellung der wichtigsten Einzelthemen in einer Liste (eigene subjektive Auswahl) könnte folgendes Bild ergeben (siehe Abb . 2). Die daraus resultierende Liste der (anspruchsvollen) Reformvorhaben wirkt etwas erschlagend, wechselseitige Abhängigkeiten - etwa bei Digitalisierung, Planungsbeschleunigung und Verwaltungsreformen - liegen auf der Hand. Das Risiko des Scheiterns scheint hoch. Die Gefahr könnte in der Nicht-Finalisierung einzelner Vorhaben liegen, am Ende blieben viele offene Baustellen aber keine besseren Lösungen übrig. Umgekehrt bietet sich sicherlich die Chance auf eine tiefgreifende Modernisierung von Staat und Verwaltungen. Können "Schlüsselthemen" identifiziert werden? Nach den Erfahrungen mit OZG und umstrittenem Konnexitätprinzip liegen wesentliche Erfolgsfaktoren ("Gelingensbedingungen") aus kommunaler Sicht sicherlich in den Themen rund um eine nachweislich hinreichende Aufgabenfinanzierung ("Wer bestellt, zahlt", Praxis-Checks und Kontrollstichproben) und der geplanten Grundgesetzänderung im Bereich des Art. 91c GG. Ohne eine zentrale Rolle der Bundesebene bei der Standardisierung von digitalen Lösungen und der Mitnutzungsmöglichkeit von Ländern und Kommunen, dürfte auch OZG 2.0 unüberwindbaren Umsetzungshemmnissen begegnen. Damit zusammenhängend ist die Beseitigung von rechtlichen Hemmnissen der Planungsbeschleunigung (z.B. Verbandklagerechte usw.) möglicherweise ein weiterer Schlüssel zum Erfolg. Die Übernahme der Prinzipien des Beschleunigungsgesetzes und die Umsetzung der Reformen im Baurecht könnten ein weiterer kritischer Erfolgsfaktor werden. Kombiniert mit einem digitalisierten Justizapparat und einem moderneren Registerrecht könnten spürbare Verbesserungen entstehen. Fragt man also nach Schlüsselfaktoren, ergibt sich: Digitalisierung, Verfahrensbeschleunigungen und Entbürokratisierung (Verschlankung rechtlicher Anforderungen). Und natürlich: eine auskömmliche Finanzausstattung für die Kommunen. Die drei genannten Schlüsselfaktoren treffen auf eine finanziell angespannte kommunale Realität und eher knappe Personalressourcen. Sollte die geforderte Entbürokratisierung zu beschleunigten Verfahren und einer kritischen Überprüfung von staatlichen Aufgaben führen, könnte zusammen mit optimierten Abläufen (Prozessen) und vereinheitlichten Grundbegriffen tatsächlich ein Ziel näherrücken: ein "effizienter Staat".
von Christoph Heck 28. März 2025
Mit neueren datengetriebenen Tools und Techniken kann die traditionelle Fibu- und Kassenprüfung wesentlich beschleunigt und vertieft werden. Beispielsweise durch elektronische Journalauszüge oder digitale Prozessanalysen (siehe Abb. oben) können Auffälligkeiten und Anomalien schneller identifiziert bzw. deren Nichtvorhandensein transparent dargestellt werden. Besonders wirksam werden die datenanalytischen Ansätze, wenn sie als permanente ("dauernde") Prüfungshandlung ausgestaltet sind. Zur Verringerung des erforderlichen Aufwands werden Automationstechniken eingesetzt, die schon mit einfachen Windows-Routinen möglich und individuell ausgestaltbar sind. Diese Technik ist auch für regelmäßige Visakontrollen und Vergabeprüfungen einsetzbar und kann den Arbeitsaufwand wesentlich reduziere. Zugleich bietet die Einrichtung von andauernden (Routine-) Prüfungen die Chance kürzlich entstandene Fehler schnell zu entdecken und zu korrigieren gesetzlich vorgeschriebene Prüfungen automatisch zu erledigen und weitere gesetzliche Prüfungen (z.B. Verwaltungs- oder Jahresabschlussprüfungen) wesentlich zu entlasten oder zu beschleunigen. Für den Einstieg in Continuous Auditing Lösungen empfehlen sich die Verwendung von MS-EXCEL und der Windows-Automation. WINDOWS wird in solchen Konstellationen als Bindeglied zwischen ERP-Systemen (z.B. SAP oder INFOMA usw.) und einem individuellen Analysemodell mit Excel-Automationstechniken (Makros etc.) eingesetzt. Die Möglichkeiten sind erstaunlich. Sobald die Verknüfung von WINDOWS mit einem automatischen Datenabruf in SAP eingerichtet wurde, kann WINDOWS die bereitgestellten Daten automatisch abrufen und nach EXCEL laden bzw. die entsprechenden Excel-Datenabrufe automatisch starten. Diese Abrufdatei erfasst dann wiederum die ERP-Daten automatisch und verarbeitet sie gemäß den eingerichteten Makros, beispielsweise für einen Abgleich von Zahlungsanordnungen des Vortags mit den Zahlstapeln des Ausführungstages. Als Ergebnis erhalten Sie regelmäßig (z.B. wöchentlich) ein Abgleichprotokoll als Prüfungsnachweis. Sollten Unregelmäßigkeiten festgestellt worden sein, können umgehend Klärungen herbeigeführt werden. Sicherlich gibt es auch hier - wie immer - technische Stolperfallen, insbesondere bei den Excel-Makros und der Anbindung von WINDOWS an örtliche ERP-Systeme. Hierfür müssen die Systemberteuer:innen kontaktiert und um Unterstützung gebeten werden. Allerdings ist dies eine Einmal-Arbeit zu Beginn des automatisierten Verfahrens, die sich u.E. lohnt. Sofern vor Ort Tools wie IDEA (von audicon) oder ACL (von Galvanize) eingesetzt werden, können die Automationen auch über diese Tools gesteuert werden. In der Excel-Welt gibt es zudem Add On - Produkte wie oder XLSTAT usw., die zusätzlich eingebunden werden können. CHE unterstützt innovative Prüfungsteams bei der Konzeptionierung und Einführung von (teil-)automatisierten Prüfverfahren mit individuellen Schulungen und Modell-Templates (Blanko-Modelle als Grundlage örtlicher Lösungen). Für nähere Informationen kontkatieren Sie uns gerne hier .
Praisberichte zu ProM-Projekten der letzten Jahre in Kommunalverwaltungen
von Christoph Heck 26. März 2025
Digitale Prozessanalysen mit Process Mining ( Download )
von Christoph Heck 13. März 2025
Data Literacy (persönliche Datenkompetenz) ist die Fähigkeit, Daten auf sinnvolle Weise zu untersuchen, zu verstehen und mit ihnen zu kommunizieren. Daten sind „das Öl des 21. Jahrhunderts“. Sie bergen Schätze, die gefördert und verwertet werden können und müssen. Die Technik zur Förderung von Werten (=Nutzerprofile, Bedarfsprognosen, Verhaltensmuster, Präferenzen usw.) aus Daten wird als „Data Mining“ und bei Geschäftsprozessen als „Process Mining“ bezeichnet. Daneben kursieren die Begriffe „big data “, „data sciences “, „data analytics “ „Business Analytics “, „Business Intelligence (BI) “ und „Datenanalysen “ (gerne auch als „Massendatenanalysen“, einer Kombination aus Big Data und Datenanalysen). Alle diese Entwicklungen wirken auf die kommunale Praxis, z.B. auch auf die örtliche Rechnungsprüfung. Im Zusammenhang mit der kommunalen Finanzwirtschaft sind vor allem rechnungslegungsbezogene Daten von Interesse, einschließlich buchungsbegründenden Daten. Hierbei handelt es sich um Daten zu Geschäftsvorfällen und Buchungssätzen, Kontenstammdaten und Journaleinträge, komplette Haupt- und Nebenbücher, Kreditoren- und Debitorenstammdaten, Geschäftspartnerbuchungen, spezielle Fach- bzw. Vorsystemdaten sowie ergänzende interne Aufstellungen und Auswertungen der zu prüfenden Aufgabenbereiche bzw. der zu prüfenden Kommune als Ganzes. Hinzu kommen in technischer Hinsicht systembezogene Daten zur Steuerung und Überwachung von IT-Systemen, beispielsweise aus der Einführung, Migration oder Anpassung von IT-Anwendungen und/oder einzelnen IT-gestützten Geschäftsprozessen (z.B. Parametrisierungen im Falle von ERP-Hauptbüchern), der IT-Infrastruktur (z.B. System- und Sicherheitsparameter, Logprotokolle über die Änderung von Systemeinstellungen, parametergesteuerte IT-Systemkontrollen wie Berechtigungen und Rollen etc.), der Verwaltung von Benutzerberechtigungen oder dem Belegfluss und der Kontrolle von Schnittstellen. Die Vermittlung von Datenkompetenz umfasst nach derzeit hM verschiedene Themenkreise, die für effiziente Verwaltungen und deren Entscheidungsfindung wesentlich scheinen. Dazu zählen: Datengrundlagen verstehen Die Vertrautheit mit verschiedenen qualitativen und quantitativen Datentypen, Quellen und Strukturen ist entscheidend, um Daten, die relevant und zuverlässig sind, zu erkennen. Datenethik und Datenschutz Dies umfasst das Verständnis ethischer Überlegungen, einschließlich Datenschutzgesetzen, verantwortungsvoller Datenverwendung und der Wahrung der Bürgerrechte. Datenanalyse und -interpretation Örtliche Rechnungsprüfungen sollten Datensätze mit statistischen Methoden analysieren können, um aussagekräftige Schlussfolgerungen für ihre Aufgaben ziehen zu können und die politische Diskussion zu versachlichen. Datenvisualisierung Eine wirksame Präsentation von Daten durch visuelle Techniken wie Tabellen, Diagramme und Grafiken ist für eine gute Kommunikation mit den unterschiedlichen Interessengruppen unverzichtbar. Datenmanagement und -verwaltung Kenntnisse über Datenorganisation, -speicherung, -integrität und -verwaltung gewährleisten Datengenauigkeit und -zugänglichkeit für Entscheidungsprozesse. Umgang mit Voreingenommenheit und Fairness Das Erkennen und Beseitigen von Vorurteilen bei der Datennutzung ist für eine sachdienliche Entscheidungsfindung in der öffentlichen Verwaltung von entscheidender Bedeutung. Praktische Anwendungen Die Auseinandersetzung mit realen Fällen und praktischen Beispielen hilft, die Bedeutung von Datenkompetenz bei der Bewältigung der zahlreichen Aufgaben zu verdeutlichen. Kontinuierliches Lernen und Kompetenzaufbau Fortlaufende Schulungs- und Entwicklungsangebote stellen sicher, dass die Mitarbeitenden der örtlichen Rechnungsprüfungen für die Bewältigung sich entwickelnder IT-Landschaften und -herausforderungen gerüstet bleiben. Die Wissenschaft zur Data Literacy ist/sind die Data Sciences. Dort beschäftigt man sich nicht nur mit Daten und Datenanalysen, sondern beispielsweise auch mit Datenverarbeitungssystemen (z.B. ERP-Software) und der technischen Hardware, die dafür erforderlich ist. Insoweit sind Datenanalysetechniken ein Teilbereich der Data Sciences. Nähere Informationen finden Sie hier
von Christoph Heck 10. März 2025
Gefährdung der stetigen Aufgabenerfüllung einer Kommune durch Verlustvorträge?
von Christoph Heck 27. Februar 2025
Das Land NRW beabsichtigt Kommunen mit besonders hohen Liquiditätskrediten teilweise zu entschulden. Ziel ist es, dass nach der Entschuldung keine Kommune mehr als 1.500€ Kassenkredite pro Einwohner hat. Dafür werden über die nächsten 30 Jahre jeweils 250 Mio Euro Bereitgestellt.
Share by: