Publikationen Hierarchiestufe höher Vorherige Seite

BIBLIOTHEKSDIENST Heft 10, 99

Das DBS-Indikatorenraster

Ein neuer Ansatz für den Bibliotheksvergleich am Beispiel der Öffentlichen Bibliotheken

Ulla Wimmer

 

1. To rank or not to rank - is that the question?

Benchmarking, Ranking und Betriebsvergleich sind Begriffe, die im Moment Konjunktur haben. Benchmarking (d.i. die Methode, sich mit anderen Unternehmen zu vergleichen und es den besten nachzutun) ist ein beliebtes Instrument von Unternehmensberatungen bei der betrieblichen Reorganisation. Alle paar Jahre sorgt ein öffentliches Universitäts-Ranking für Wirbel1). Und dem "interkommunalen Vergleich" wird im Öffentlichen Sektor die Aufgabe zugeschrieben, den nicht vorhandenen Marktwettbewerb zwischen Verwaltungseinrichtungen zu simulieren.

An den Bibliotheken ist das alles nicht spurlos vorüber gegangen. Über die Notwendigkeit eines Berichtswesens in Bibliotheken streitet sich heute kaum noch jemand. Zahlreiche Veröffentlichungen unter anderem der Unesco, der Fachverbände zahlreicher Länder, bis hin zur IFLA, Europäischen Union und zur ISO (International Organization for Standardization) haben zu diesem Thema beigetragen2). 1994 legte das DBI mit seiner Controlling-Arbeitshilfe einen Katalog von Kennzahlen für Öffentlichen Bibliotheken vor3). Maßstäbe für das detaillierte Berichtswesen einer Bibliothek hat das Projekt "Betriebsvergleich an Öffentlichen Bibliotheken" der Bertelsmann Stiftung gesetzt4): in zahlreichen Fachstellen bilden sich zur Zeit Vergleichsringe von Bibliotheken, die nach der Bertelsmann-Methode Betriebsdaten erheben und sie untereinander vergleichen5).

Aufgrund der erarbeiteten Methodik ist gewährleistet, daß das umfangreiche Datenmaterial aus diesen Vergleichsringen auch tatsächlich weitgehend vergleichbar ist. Die Daten sind gleichzeitig so detailliert, daß sie zur internen Steuerung der Bibliothek genutzt werden können. Allerdings scheuen etliche Bibliotheken den hohen Arbeitsaufwand, den ein detailliertes Berichtswesen nun einmal mit sich bringt. Ein detaillierter Bibliotheksvergleich, der über den relativ "intimen" Rahmen eines regionalen Vergleichsringes hinausgehen soll, scheitert momentan an nicht vorhandenem Datenmaterial. Diese Situation wird sich zwar in dem Maß ändern, in dem die Bibliotheken den Fachstellen-Vergleichsringen beitreten – aber mit einer umfangreicheren Datenmenge aus den Vergleichsringen wäre auch dann frühestens mittelfristig zu rechnen.

Außerdem scheiden sich an einem Vergleich von Betriebsdaten nach wie vor die Geister6). Auch wenn die Vergleichbarkeit der Daten einigermaßen gewährleistet ist, lassen örtlich unterschiedliche Rahmenbedingungen dann doch nicht unbedingt eindeutige Ergebnisse hervortreten. Das Ausmaß der Automatisierung, die bauliche Situation, die historische Entwicklung der Bibliotheken sorgen jeweils für einen spezifischen Hintergrund, vor dem die Vergleichsdaten ganz unterschiedlich interpretierbar sind.

Das ist besonders dann relevant, wenn der Betriebsvergleich weniger der internen Steuerung der Bibliothek dienen soll, als ihrer öffentlichkeitswirksamen Außendarstellung. Dabei muß nämlich der Übersichtlichkeit halber auf Detaildaten verzichtet werden; einige wenige Eckdaten sollen einen Überblick über den Leistungsstand der Bibliothek geben. Das Problem besteht hier nur zum Teil aus fehlendem Datenmaterial oder schwieriger Methodik.

Ein auf externes Publikum gerichteter Leistungsvergleich steht für Öffentliche Bibliotheken vielmehr vor einem existentiellen politischen Hintergrund: viele Kolleg/innen fürchten, dass ein Vergleich (ambivalent wie Zahlen nun einmal sind) nie so fundiert und aussagekräftig sein kann, dass er nicht zum Nachteil der Bibliothek gedeutet werden könnte - sei es nun absichtlich oder unabsichtlich. Konkrete Negativerfahrungen nähren diese Ansicht ebenso, wie die (berechtigte?) unterschwellige Befürchtung, daß der Zuschussbetrieb Bibliothek bei den kommunalen Entscheidungsträgern nicht das Grundvertrauen genießt, das für eine konstruktive Leistungsanalyse Voraussetzung ist. Es wird befürchtet, dass aus einem Datenvergleich vorschnelle Schlüsse gezogen werden ("Bibliothek A hat mehr Ausleihen als Bibliothek B und ist also besser"), anstatt den Vergleich zum Anlass zu nehmen, noch einmal genauer hinzusehen ("Aus welchem Grund hat Bibliothek A viel mehr Ausleihen als Bibliothek B?").

Die strategischen Unwägbarkeiten sind vielfältig, besonders, wenn es um einen namentlichen Vergleich geht - und das nicht nur bei den Bibliotheken, die bei einem solchen Vergleich schlecht abschneiden würden: Ist es nun gut, an der Spitze einer "Hitliste" zu stehen – oder ergibt sich daraus allzu leicht der Schluss, die Bibliothek sei so gut, dass sie auch mal ein paar Jahre mit weniger Geld auskommen könnte?

2. Der Baum der Erkenntnis lockt - trotz alledem

All diese Vorbehalte haben zwar dazu geführt, dass es bisher zu keinem öffentlichen Bibliotheksvergleich auf breiter Basis gekommen ist: einerseits, weil für einen detaillierten Betriebsvergleich bisher die Daten fehlen (und nur sehr aufwendig zu erheben sind), andererseits weil ein Vergleich anhand weniger Kerndaten politisch brisant erscheint. Sie haben aber nicht dazu geführt, dass Bibliothekare den (mehr oder weniger heimlich gehegten) Wunsch aufgeben, herauszufinden, wo sie mit ihrer Arbeit im Vergleich zu anderen Bibliotheken stehen. Bibliothekare haben durchaus das Bedürfnis, die Leistungsdaten ihrer Bibliothek in größere Zusammenhänge einzuordnen (und sie äußern es u. a. in zahlreichen Anfragen beim DBI). Das kann ganz unterschiedliche Gründe haben:

Die Suche nach einem unaufwendigen und doch soliden Vergleichsinstrument geht also weiter. In den USA gibt es beispielsweise "Hennen´s Public Library Rating Index"7). Für 9.000 Bibliotheken werden dort anhand von Statistikdaten 15 Indikatoren berechnet. Die Indikatoren werden je nach ihrer Relevanz unterschiedlich gewichtet und zusammengefasst. Daraus ergibt sich für jede Bibliothek eine Gesamtpunktzahl. Es wird dann eine Rangliste der Bibliotheken absteigend nach ihrer Punktzahl erstellt.

Auch die Bertelsmann Stiftung hat ein entsprechendes Instrument konzipiert: in den Bibliotheksindex BIX, der ab dem nächsten Jahr erstellt wird8), können Öffentliche Bibliotheken ihre Daten für 13 Indikatoren einbringen, die dann zu einem Index komprimiert werden. Der BIX soll den kostenpflichtig teilnehmenden Bibliotheken eine attraktive und verständliche Außendarstellung sowie ein Benchmarking ermöglichen.

Im DBI wiederum war folgende Frage der Ausgangspunkt für Überlegungen: Wie kann man für die Bibliotheken ein Vergleichsinstrument schaffen, das ihnen einen weitestmöglichen strategischen Handlungsspielraum lässt und die politischen Gefahren in Grenzen hält? Wie kann das Potential der Deutschen Bibliotheksstatistik (DBS) genutzt werden, um zusätzlichen Erfassungsaufwand zu vermeiden?

3. Das DBS-Indikatorenraster – der "bibliothekarische Zollstock" für Öffentliche Bibliotheken

Eine neue DBI-Dienstleistung liegt jetzt als Ergebnis dieser Überlegungen vor: das DBS-Indikatorenraster. Das Indikatorenraster ist nichts anderes als eine statistische Auswertung aller Daten, die an die Deutsche Bibliotheksstatistik, Teil A, gemeldet wurden. An das Auswertungsverfahren (die Berechnung von Quartilen und Zentilen) dürfte sich mancher noch dunkel aus den Statistikvorlesungen an der Fachhochschule erinnern. Es entspricht einer gängigen statistischen Methode, die zwar in den Sozial- und Wirtschaftswissenschaften häufig verwendet wird, aber bisher im deutschen Bibliothekswesen ungenutzt blieb. Im Ausland wurde diese Methode schon für Bibliotheken eingesetzt, z. B. erzeugt sie ein "Abfallprodukt" des oben erwähnten "Hennen´s Public Library Rating Index".

Es wird dabei in drei Schritten vorgegangen:

  1. Aus den Daten der DBS Indikatoren bilden (21 Indikatoren)
  2. Die Gesamtzahl der Bibliotheken in Größenklassen einteilen (10 Größenklassen)
  3. Pro Größenklasse für jeden Indikator die sog. "Quartile" und "Zentile" berechnen.

Mit dieser Methode entstehen also 10 Indikatorenraster für 10 Bibliotheks-Größenklassen. Jedes Raster enthält 21 Indikatoren, die aus DBS-Angaben errechnet werden. Auf der folgenden Seite sehen Sie ein Beispielraster für die Größenklasse 20.000 bis 50.000 Einwohner. Jede Bibliothek kann nun ihre Daten an dieses Raster anlegen und so feststellen, ob sie zum Mittelfeld, zum unteren Viertel oder zu den obersten 5 Prozent aller Bibliotheken ihrer Größenordnung zählt. Wie das Indikatorenraster genau funktioniert, wird aus der Beschreibung der Methodik in Kapitel 5 deutlich. Im Anhang finden sich zwei Beispiele dafür, wie Bibliotheken mit dem DBS-Indikatorenraster arbeiten können.

4. Was kann das DBS-Indikatorenraster – und was nicht?

Das DBS-Indikatorenraster bietet gleich für mehrere Probleme eine Lösung an:

Das Verfahren baut auf der breitestmöglichen Datenbasis auf, nämlich der Deutschen Bibliotheksstatistik, Teil A, die regelmäßig eine Beteiligungsquote von 96-98% aller Öffentlichen Bibliotheken erzielt. Das Indikatorenraster macht das umfangreiche Datenmaterial der DBS zugänglich und handhabbar.

Die Auswertung kann zügig für das letzte Berichtsjahr erfolgen, sobald die DBS-Daten erfasst worden sind. Sie baut auf das langjährige Know-How der DBS-Expertengruppen und die etablierte Infrastruktur der DBS auf. Bereits Mitte jeden Jahres kann so regelmäßig ein aktuelles Indikatorenraster vorliegen – jedenfalls solange die Bearbeitungskapazität im DBI noch gegeben ist.

In den Bibliotheken ist keinerlei zusätzlicher Erfassungsaufwand notwendig, um das Indikatorenraster zu erstellen. Es reicht, die DBS-Daten sauber und zuverlässig zu ermitteln. Wenn die Bibliothek ihre Daten am DBS-Indikatorenraster messen möchte, muss sie zuvor noch die Indikatoren für sich selbst berechnen. In der Regel hat sie die dafür notwendigen Daten ja schon für die DBS erhoben. Erst aus diesem zusätzlichen Aufwand ergibt sich aber der strategische Vorteil des Verfahrens:

Das DBS-Indikatorenraster weist der Bibliothek eine aktive Rolle in der entscheidenden Endphase des Leistungsvergleiches zu. Aus dem Raster allein sind keine Schlüsse zu ziehen9); es fungiert ganz passiv als eine "Messlatte", an die die Bibliothek ihre eigenen Daten anlegt. Alle Bibliotheken einer Größenklasse tragen zu dem Raster bei, aber keine taucht namentlich darin auf. Die einzelne Bibliothek wird nicht "gerastert", sondern sie "rastert sich selber" – oder sie lässt es bleiben. Die Erfahrung zeigt, dass die Gefahr bei Bibliotheksvergleichen (wie bei jeder Statistik) vor allem in unkommentierten und deshalb falsch interpretierbaren Leistungsdaten liegt. Die Daten der Bibliothek zum DBS-Indikatorenraster in Beziehung zu setzen, ist ein aktiver Akt, den die Bibliothek in der Regel selber vornehmen muss. Sie kann dabei z. B. die Indikatoren nach eigenen Prioritäten gewichten, den einen oder anderen Indikator weglassen oder zusätzliche Daten ergänzen.

Es wurde bewusst darauf verzichtet, mit den Indikatoren weiter zu arbeiten (sie zusammenzufassen, zu gewichten oder, wie in den USA, eine Rangliste von Bibliotheken zu erstellen), obwohl das leicht möglich wäre. Weder schien uns dafür ein eindeutiger Rückhalt in der Bibliothekspraxis (und im DBI) vorhanden zu sein, noch sollte der strategische Vorteil des offenen Verfahrens beeinträchtigt werden.

Die Ergebnisse bei einem Rastervergleich sind nicht weniger ambivalent, als jeder andere Betriebsvergleich auch (vgl. Beispiel Y im Anhang). Die Chance besteht darin, dass es weitgehend in der Verantwortung der Bibliothek liegt, wie sie mit den Ergebnissen umgeht, ob und wie sie sie nach außen darstellt, kommentiert und interpretiert. Der wichtigste Arbeitsschritt bei einem Bibliotheksvergleich – die Interpretation der Daten – ist hier weit weniger leicht zu umgehen, als bei etlichen anderen Verfahren. Die Gefahr einer externen Missdeutung wird damit zwar nicht gebannt, aber doch deutlich eingeschränkt10).

Dabei ist natürlich folgendes zu berücksichtigen:

Das DBS-Indikatorenraster liefert einen Überblick anhand von Eckwerten. Es will und kann an Detaillierungsgrad, Erfassungstiefe und Genauigkeit nicht mit den Daten aus einem elaborierten Berichtswesen konkurrieren. Besonders für die Erhebung von Daten für das interne Bibliotheksmanagement ist ein Berichtswesen also weiterhin unerlässlich.

Die Datenqualität der DBS ist für eine derartige Auswertung durchaus ausreichend. Bei einer nationalen Statistik ergibt sich zwar zwangsläufig – durch unvermeidliche Interpretationsspielräume und eine starke Normierung der Fragestellungen – eine gewisse Heterogenität der gelieferten Daten. Eine gewissenhafte und regelkonforme Datenerhebung hilft aber, Ungenauigkeiten zu vermeiden. Die Auswertung der DBS kann immer nur so gut sein wie die gemeldeten Daten. Die Qualität der Daten aber liegt in der Hand der Bibliotheken.

Nicht zuletzt ist bei der Arbeit mit dem Indikatorenraster eines wichtig (was aber grundsätzlich für alle Betriebsvergleiche gilt): Das Raster gibt das Bestehende, den Status Quo wieder – und an ihm misst sich dann auch die einzelne Bibliothek. Entwicklungsbestrebungen, Ziele und Visionen stehen auf einem völlig anderen Blatt. Wenn z. B. drei Viertel aller Bibliotheken noch nicht die Ausstattung von 2 ME/Einwohner erreichen, dann liegt eine Bibliothek mit 1,8 ME/EW im Vergleich zwar deutlich über dem Mittelwert - einen angemessenen Bestand hat sie deshalb aber noch lange nicht. Das Raster spiegelt die Welt, wie sie ist – nicht, wie sie sein sollte. Wo vorhanden, sollten die Ergebnisse des Rastervergleiches deshalb immer noch zu Zahlen und Zielen in Beziehung gesetzt werden, die außerhalb des Rasters stehen (z. B. (die raren) Standard-Empfehlungen, Vergleichswerte aus dem Ausland, der lokale Bibliotheksentwicklungsplan oder Statistiken zur Entwicklung des Internet.).

5. Die Methodik des DBS-Indikatorenrasters

Schritt 1: Indikatoren bilden

Es werden aus den Daten der DBS Teil A "Öffentliche Bibliotheken" – Grundfragebogen und Zusatzfragebögen – eine Reihe von Indikatoren gebildet. Das heißt: die absoluten Zahlen der Fragebögen werden zu einander in Beziehung gesetzt (Quotienten gebildet).

Die hier ausgewählten 21 Indikatoren sollten einen möglichst guten Überblick über die Arbeit der Bibliothek liefern, und zwar unter vier Gesichtspunkten:

Angebote

Medien pro Einwohner
Medien pro Entleiher
Erneuerungsquote
Veranstaltungen
Öffnungsstunden pro Jahr
Fläche in qm pro 1000 Einwohner
Internet-Arbeitsplätze

Nutzung der Angebote

Anteil der Entleiher an den Einwohnern
Besuche pro Einwohner
Besucher pro Öffnungsstunde
Umsatz
Ausleihen pro Einwohner
Informationen und Auskünfte pro Ew

Personal

Besetzte Personalstellen pro 1000 Ew
Öffnungsstunden pro besetzter Stelle
Ausleihen pro besetzter Stelle
Fortbildungszeit pro besetzter Stelle

Finanzen

Ausgaben pro Einwohner
Erwerbungsausgaben pro Entleiher
Anteil der Personalausgaben an den Gesamtausgaben
Anteil selbst erwirtschafteter Mittel a. d. Gesamtmitteln

Die Auswahl der Indikatoren geschah dabei unter verschiedenen Gesichtspunkten:

  • es können natürlich nur Indikatoren gebildet werden, deren Basiszahlen in der DBS abgefragt wurden
  • der Datenlage in den Bibliotheken soll Rechnung getragen werden. Z. B. können nach wie vor nur gut 50% der Bibliotheken Besucherzahlen angeben, deshalb beziehen sich einige Indikatoren noch auf Entleiherzahlen
  • andererseits sollen einige Indikatoren neue und womöglich qualitative Aspekte ins Spiel bringen, auch wenn bisher nur vergleichsweise wenige Bibliotheken dazu Angaben machen (Informationen und Auskünfte pro Einwohner, Fortbildungszeit pro Stelle, Internetplätze)
  • die Kontinuität zu bisher gängigen Indikatoren soll gegeben bleiben (z. B. Ausleihen/EW)

Schritt 2: Größenklassen bilden

Die Gesamtzahl der Öffentlichen Bibliotheken wird anhand der Einwohnerzahl in acht Größenklassen eingeteilt. Die hier gebildeten Größenklassen sind folgende:

 

   

Zusätzlich

über 500.000 EW

   

200.000 bis unter 500.000 EW

 

DBV-Sektion 1: über 400.000 EW

100.000 bis unter 200.000 EW

 

DBV-Sektion 2: 100.000 - 400.000 EW

50.000 bis unter 100.000 EW

 

(entspricht DBV-Sektion 3A)

20.000 bis unter 50.000 EW

   

10.000 bis unter 20.000 EW

   

5.000 bis unter 10.000 EW

   

1.000 bis unter 5.000 EW

   

Diese Größenklassen werden ebenfalls bei der Gesamtauswertung der DBS benutzt. Eigene Größenklassen für die DBV-Sektionen 1 und 2 wurden ergänzt. Die Sektion 3B ist zu groß für eine eigene Größenklasse.

Schritt 3: Quartile und Zentile berechnen

Separat für jede Größenklasse werden die Daten nun ausgewertet. Für jeden der 21 Indikatoren werden die sog. Quartile sowie die 5er und 95er Zentile berechnet. Das geschieht auf folgendem Weg:

1. Alle vorliegenden Werte werden der Größe nach in einer Reihe geordnet.

Beispiel11): Eine Größenklasse besteht aus 23 Bibliotheken. Untersucht wird der Indikator "Umsatz" (Ausleihen/Gesamtbestand). Die 23 Bibliotheken erzielen folgende Umsätze zwischen 0 und 9:

9; 8; 7,5; 7; 6; 5; 4,5; 4; 3,7; 3,2; 3,2; 2; 1,9; 1,8; 1,7; 1,5; 1,2; 1,1; 0,9; 0,7; 0,7; 0,1; 0

2. Es werden die Werte bestimmt, die die Reihe genau vierteln. Diese Werte heißen die Quartile. Beispiel:

Der Wert, der die Reihe halbiert (bei 50%, im Beispiel die 2), ist der Mittelwert oder auch Median. Genau 50% der Bibliotheken liegen darunter, genau 50% liegen darüber. (Das arithmetische Mittel - der Durchschnitt - läge hier bei 3,2.)

Der Wert bei 25% (im Beispiel die 1,1) markiert das untere Viertel. Ein Viertel aller Bibliotheken liegt unter diesem Wert, drei Viertel liegen darüber.

Der Wert bei 75% (im Beispiel die 5) markiert das obere Viertel. Ein Viertel aller Bibliotheken hat bessere Werte, drei Viertel liegen darunter.

3. Damit klarer erkennbar wird, was insgesamt die Höchst- bzw. Mindestwerte sind, werden nun noch die obersten und untersten 5% berechnet. Diese Werte heißen die 5% bzw. die 95%-Zentile.

Beispiel:

Der 5%-Wert sagt aus: 5% aller Bibliotheken liegen unter diesem Wert, haben also einen Umsatz von weniger als 0,1.

Der 95%-Wert sagt aus: 5% aller Bibliotheken liegen über diesem Wert, haben also einen Umsatz von über 8.

4. Die so berechneten Werte sind also Grenzwerte und teilen die Bibliotheken in insgesamt 6 Bereiche auf (wobei eine Bibliothek auch genau auf dem Grenzwert liegen kann).

Eine Bibliothek kann jetzt also anhand dieses Rasters bestimmen, wo sie sich in Relation zu allen anderen Bibliotheken ihrer Größenklasse befindet.

Beispiele:

  • Eine Bibliothek mit einem Umsatz von 3,7 läge hier in Bereich C, d. h. über dem Mittelwert, aber nicht im oberen Viertel aller Bibliotheken.
  • Eine Bibliothek mit einem Umsatz von 0,7 läge hier in Bereich E, also im unteren Viertel aller Bibliotheken.
  • Eine Bibliothek mit einem Umsatz von 9 läge hier in Bereich A, zählte also zu den 5% aller Bibliothek mit dem höchsten Umsatz.

Auf diese Weise wurden im DBI für jede Größenklasse die Werte für jeden Indikator berechnet. Insgesamt ergibt sich daraus das DBS-Indikatorenraster, wie in Kapitel 3 beispielhaft für die Größenklasse 20.000 bis 50.000 Einwohner dargestellt. Eine Bibliothek kann nun ihr "Profil" ermitteln, indem sie ihre eigenen Daten an dieses Raster anlegt. Im Anhang finden sich dafür zwei Beispiele mit einem kurzen Interpretationsansatz.

6. Das DBS-Indikatorenraster – ein Instrument für den "sanften" (aber gründlichen) Bibliotheksvergleich

Das DBS-Indikatorenraster ergibt sich aus der gemeinsam und kooperativ erbrachten Vorleistung von Bibliotheken und DBI und ist allen Interessenten frei zugänglich. Mit dem Indikatorenraster stellt das DBI den Öffentlichen Bibliotheken ein Instrument zur Verfügung, das – getreu dem Motto "it may not be perfect, but it works" – einen pragmatischen und praktischen Beitrag zum Thema Bibliotheksvergleich leistet. Im Gegensatz zu Berichtswesen und Vergleichsringen sind die Daten gröber und ungenauer; dafür ist die Datenbasis breiter und das Raster kann jährlich aktuell im DBI12) erstellt werden, ohne dass in den Bibliotheken zusätzlicher Erfassungsaufwand anfällt.

Der größte Vorteil des DBS-Indikatorenrasters besteht aber darin, dass es nur die eine Hälfte des Vergleichs publiziert - sozusagen das "Schloss". Die andere Hälfte – den "Schlüssel" - hält die Bibliothek selbst in der Hand: sie muss ihre eigenen Daten vor Ort ergänzen. Auf diese Weise nimmt die Bibliothek in der Endphase des Vergleichs eine aktive Rolle ein, indem sie über die Verwendung und Interpretation der Ergebnisse entscheidet. Der direkte Vergleich zwischen namentlich genannten Bibliotheken entfällt, statt dessen wird die Einzelbibliothek an der Gesamtzahl aller Bibliotheken ihrer Größenklasse gemessen.

Die Diskussion um das DBS-Indikatorenraster ist hiermit eröffnet: Erweist es sich als hilfreich in der Praxis? Wenn ja: für welche Aspekte der Bibliotheksarbeit könnte es besonders nützen? Sind Indikatoren und Größenklassen praktikabel? Überzeugt die Idee des "halben" Vergleichs und können die Gestaltungsspielräume sinnvoll genutzt werden?

Das DBI ist gespannt auf Ihre Testergebnisse, Fehlermeldungen, Anregungen, Lob, Kritik und Verbesserungsvorschläge.

Eine Darstellung des DBS-Indikatorenrasters mit allen zehn Rastern zum Ausdrucken findet sich im Internet unter:

<http://www.dbi-berlin.de/dbi_ber/bib_ma/bib_ma00.htm>

Die DBS-Indikatorenraster für alle zehn Größenklassen können alternativ beim DBI bestellt werden, und zwar

  • als E-Mail-Attachment (gezipte Excel-Dateien)
  • oder gegen Zusendung eines frankierten Rückumschlags:

Deutsches Bibliotheksinstitut / Referat Bibliotheksmanagement, Ulla Wimmer
Kurt-Schumacher-Platz 12-16, 13405 Berlin
Tel.: (030) 4 10 34 -4 63 oder –4 62, Fax: (0 30) 4 10 34 -1 00
E-Mail: wimmer@dbi-berlin.de

 

Anhang : Anwendungsbeispiele

Bibliothek X

Die Bibliothek X errechnet mit Hilfe ihrer DBS-Daten für sich die Indikatoren des Indikatorenrasters:

 

Indikator

Berechnungsweg mit der DBS
(soweit nichts anderes angegeben: Grundfragebogen 1998)

Ergebnis

Medien pro Einwohner
Medien pro Entleiher
Erneuerungsquote
Veranstaltungen
Öffnungsstunden pro Jahr
Fläche in qm pro 1000 Einwohner
Internetarbeitsplätze

Frage12 / EW
F12 / F6
F22 x 100 / F12
F4
F3
F2 / EW x 1000
Zusatzbogen Z023(98), F14

1,3
7,2
13%
84
1637
38,24
keine

Anteil der Entleiher an den Einwohnern
Besuche pro Einwohner
Besucher pro Öffnungsstunde
Umsatz
Ausleihen pro Einwohner
Informationen und Auskünfte pro Einwohner (1997)

F6 x 100 / EW
F8 / EW
F8 / F3
F18 / F12
F18 / EW
Zusatzbogen Z022 (97),
F50 / EW

17,7%
3,3
69,2
6
7,7
nicht
erhoben

Besetzte Personalstellen pro 1000 Einwohner
Öffnungsstunden pro besetzter Stelle
Ausleihen pro besetzter Stelle
Fortbildungszeit pro besetzter Stelle (1996)

F32 / EW x 1000
F3 / F32
F18 / F32
Zusatzb. Z021 (96), F53 / F22

0,28
173,4
27.569
0,08%

Ausgaben pro Einwohner
Erwerbungsausgaben pro Entleiher
Anteil der Personalausgaben a. d. Gesamtausgaben
Anteil selbst erwirtschafteter Mittel a. d. Gesamtmitteln (1996)

F24 / EW
F27 / F6
F25 x 100 / F24
Zusatzbogen Z021 (96),
F7 x 100 / F1

28,57
30,97
68%
5,7%

Dann markiert sie im Indikatorenraster, in welche Gruppe sie mit ihren Daten jeweils fällt:

Interpretationsansatz:

Stadtbibliothek X zeichnet sich durch eine hohe Nutzung aus, die durchweg im obersten Viertel der Vergleichsbibliotheken liegt. Besonders fällt der Umsatz ins Auge, der zu den höchsten 5% zählt. Ein Blick auf die Angebote zeigt, dass der hohe Umsatz zum Teil daraus resultiert, dass der Medienbestand schon in Bezug auf die Einwohnerzahl unterdurchschnittlich ist, und erst recht mager ausfällt, wenn man ihn auf die Nutzer bezieht. Der hohe Erwerbungsetat ist deshalb absolut angebracht, um den Bestand entsprechend der hohen Nutzung auszubauen

Die Personalkapazität – ebenfalls im oberen Viertel – wird wahrscheinlich zu einem großen Teil durch die Nutzung beansprucht, außerdem wird ein erheblicher Teil in den Bestandsausbau wandern. Die im Verhältnis zum Personal relativ geringe Zahl an Öffnungsstunden könnte sich z. B. aufgrund der baulichen Situation der Bibliothek ergeben (es ist ja auch eine vergleichsweise große Fläche zu betreuen). Hier wäre es günstig, die Lage mit der 30%-Formel gegenzuchecken: Wenn um die 30% der Personalkapazität in die Öffnungsstunden wandern (D. h.: Zahl der besetzten Beratungs- und Verbuchungsplätze x Zahl der Öffnungsstunden = ca. 30% der verfügbaren Personalstunden der Bibliothek), liegt die Bibliothek ungefähr im Normalbereich. Schade, dass diese Bibliothek noch nicht die Zahl der Auskünfte und Informationen erhoben hat – daraus ließe sich in diesem Zusammenhang vielleicht eine intensive Kundenbetreuung nachweisen.

Die Bibliothek befindet sich offensichtlich in einem Auf-/Ausbaustadium; deshalb ist ihr Etat vergleichsweise hoch (im oberen Viertel). Die hohe Nutzung gibt dem aber recht; und dass der Anteil der Personalkosten an den Gesamtausgaben unter dem Mittelwert liegt, zeigt, dass die Investitionen zu einem großen Teil an die Nutzer weitergegeben werden.

Bibliothek Y

Die Bibliothek Y errechnet mit Hilfe ihrer DBS-Daten für sich die Indikatoren des Indikatorenrasters (vgl. Hinweise bei Bibliothek X). Dann markiert sie im Indikatorenraster, in welche Gruppe sie mit ihren Daten jeweils fällt:

Interpretationsansatz:

Die Personalkapazität der Bibliothek Y liegt in den obersten 5% dieser Größenklasse. Die Bibliothek nutzt diesen Vorteil, um ihren Nutzern ein sehr gutes Angebot an Veranstaltungen und Öffnungsstunden zu bieten. (Es wäre nützlich, das Indikatorenraster hier noch um die Zahl der Veranstaltungsteilnehmer zu ergänzen!) Die Bibliothek hat einen Schwerpunkt in dem schwer messbaren Kultur-, Veranstaltungs- und Dienstleistungsbereich. Bei den quantitativ leicht darzustellenden Ausleihdaten steht sie deshalb nicht immer so gut dar. Ggf. sollte sie ihre Selbstdarstellung verstärkt auf verbalem Weg machen und einen besonderen Schwerpunkt auf gute Öffentlichkeitsarbeit legen.

Am Beispiel des Indikators "Besucher pro Öffnungsstunde" erschließt sich hier die Ambivalenz vieler Kennzahlen: was die Besucherzahlen angeht, liegt die Bibliothek Y nämlich genau auf dem Mittelwert – der unterdurchschnittliche Wert bei den Besuchern pro Öffnungsstunde ergibt sich also nicht aus zu wenig Besuchern, sondern aus den großzügigen Öffnungszeiten der Bibliothek. Ob aber eine Verbesserung der Nutzerzahlen noch möglich ist (wünschenswert ist sie ja immer), ergibt sich u. a. aus der Sozialstruktur der Gemeinde oder ihrer Lage zu einer benachbarten Großstadt (mit attraktiver Bibliothek).

Die Medienausstattung der Bibliothek liegt im oberen Viertel, während der Umsatz eher unterdurchschnittlich ist. Dafür könnte es z. B. folgende Erklärungsmöglichkeiten geben:

  • Bibliothek Y sollte mehr Bestandspflege treiben und makulieren (die Erneuerungsquote ist ja zufriedenstellend) oder
  • Bibliothek Y hat einen großen Magazin- oder Altbestand, der nicht makuliert werden soll. Dann kann sie dem Umsatz des Gesamtbestandes noch den Umsatz des Ausleihbestandes gegenüberstellen.

Auch hier zeigt sich wieder, daß die quantitativen Ausstattungsindikatoren nur ein Anhaltspunkt sind: Alter und Qualität des Bestandes entscheiden letztlich darüber, ob er ein gutes Angebot darstellt, oder nicht.

 

1) vgl.: Uni-Ranking 99 : zum Studieren in den Osten. - Hamburg: UniSpiegel, Juni 1999 oder http://www.spiegel.de/unispiegel/

2) vgl. dazu u. a.:
Performance Measurement and Quality Management in Public Libraries : IFLA Satellite Meeting, Berlin, 25-28 August 1997 ; Proceedings. - Berlin: Deutsches Bibliotheksinstitut, 1998 (dbi-materialien ; 168)
ISO 11620: Information and Documentation - Library performance indicators. - Genf: International Organization for Standardization, 1998
CAMILE (Concerted Action on Management Information for Libraries in Europe): Matrices of Performance Indicators by John Sumsion, January 1998. http://www.staff.dmu.ac.uk/~camile/papers.html

3) Controlling für Öffentliche Bibliotheken : Wegweiser zu einer effizienten Steuerung. - Berlin: Deutsches Bibliotheksinstitut, 1994 (Arbeitshilfen)

4) Betriebsvergleich an Öffentlichen Bibliotheken / hrsg. von Bettina Windau. - Gütersloh: Verlag Bertelsmann Stiftung, 1997
Band 1: Empfehlungen und Arbeitsmaterialien für ein output-orientiertes Berichtswesen
Band 2: Meßergebnisse, Richtwerte, Handlungsempfehlungen

5) vgl. zum Beispiel: Betriebsvergleich an Öffentlichen Bibliotheken im Regierungsbezirk Düsseldorf : Abschlußbericht. - Essen: Staatl. Büchereistelle für den Reg.bez. Düsseldorf, 1998

6) Vgl. dazu den sehr aufschlußreichen Aufsatz von Lange Jürgen: Vom Elend der Wettbewerbssurrogate : Grenzen des interkommunalen Leistungsvergleichs Öffentlicher Bibliotheken. - In: Buch und Bibliothek 49(1997), H. 2, S. 151-156

7) vgl. Hennen´s American Public Library Rating Index. - http://www.haplr-index.com/

8) vgl. Klug, Petra: BIX - Der Bibliotheksindex. - in: Buch und Bibliothek 51 (99), H. 9; S. 522 oder http://www.stiftung.bertelsmann.de/projekte/bereiche/bix.htm

9) Außer Schlüsse über die Situation und Entwicklung des Öffentlichen Bibliothekswesens insgesamt und über die Lage der einzelnen Größenklassen.

10) Natürlich ist das Indikatorenraster - wie die gesamten DBS-Daten auch - der Öffentlichkeit frei zugänglich, und mit einem gewissen, wenn auch nicht unerheblichen, Arbeitsaufwand kann auch ein/e Außenstehende/r die Daten einer Bibliothek an das Raster anlegen. Aber das ist auch notwendig, denn die Ergebnisse des Vergleichs werden für die Öffentlichkeit gerade dadurch valide, daß sie von unabhängiger Seite nachgeprüft werden können.

11) Das Beispiel soll möglichst anschaulich die statistische Methodik verdeutlichen. Es ist inhaltlich nicht aussagekräftig!

12) oder in der Einrichtung, die die DBS in Zukunft übernimmt


Stand: 10.11.99
Seitenanfang