IFLA

As of 22 April 2009 this website is 'frozen' in time — see the current IFLA websites

This old website and all of its content will stay on as archive – http://archive.ifla.org

IFLANET home - International Federation of Library Associations and InstitutionsAnnual ConferenceSearchContacts
*    
To Bangkok Conference programme

65th IFLA Council and General
Conference

Bangkok, Thailand,
August 20 - August 28, 1999


Code Number: 004-120-G
Division Number: VI
Professional Group: Statistics
Joint Meeting with: -
Meeting Number: 120
Simultaneous Interpretation:   No

Sinnvolle Datenerhebung in Informationszusammenhängen

G. E. Gorman
School of Communications and Information Management
Victoria University of Wellington
Wellington 6001, New Zealand
E-mail: gary.gorman@vuw.ac.nz


Abstract

Bibliotheken und Informationsagenturen verlassen sich zur Beschreibung ihrer Dienstleistungen, Evaluierung ihrer Aktivitäten und Messung ihrer Leistung in erheblichem Maße auf „Statistiken". Bei der Datenerhebung, auf der die statistische Analyse beruht, gibt es immer Annahmen und unkontrollierte Variablen, die die Reinheit und Objektivität der Daten negativ beeinflussen und dadurch die Analyse und Interpretation der Daten kontaminieren. Dieses Referat hebt einige dieser Variablen hervor und versucht dadurch, Informationsmanager auf die Gefahren der Datensammlung aufmerksam zu machen und sie dazu zu ermutigen, Wege der Datenkontrolle zu entwickeln, die eine effektivere Nutzung der Statistiken erlaubt.


Paper

Statistiken im Blickfeld

Eine wichtige Aktivität des Bibliotheksmanagements am Ende des 20. Jahrhunderts ist die Datenerhebung und Produktion von Statistiken. Für die meisten Bibliotheksmanager gilt dabei „desto mehr, desto besser" - mehr Daten führen zu sinnvollerer Information, was wiederum in fundierteren Entscheidungen und somit zulänglicher gemanagten Dienstleistungen resultiert. Die zugrundeliegende Annahme ist, daß Daten über Bibliotheksaktivitäten in nützliche Information umgesetzt werden können, und daß die Information zu Managementwissen wird.

Es ist somit verständlich, daß die Datenerfassung von vielen als die grundlegendste Aktivität im Managementprozeß betrachtet wird. Aber es ist weniger verständlich, daß Manager im allgemeinen dazu tendieren, den Prozeß der Datenerhebung ? -interpretation ? -anwendung als etwas anzusehen, das akzeptiert werden muß ohne hinterfragt zu werden, und daß viele dieses Modell wieder und wieder anwenden ohne zu fragen, ob es nicht einen besseren Weg gibt, die Daten zu sammeln und zu nutzen. Für einen Sozialwissenschaftler, dessen Hauptinteresse Forschungsmethodologien sind und dessen Hauptbeschäftigung die Vermittlung von Kenntnissen über Forschung an Studenten im Fach Bibliotheks- und Informationswissenschaft (LUS) ist, stellt dies einen besorgniserregenden Zustand dar, der so schon seit mehreren Jahrzehnten besteht.

Der wichtigste Zweck dieses Referats ist die Anregung, daß Informationsspezialisten mit Nutzen nicht nur Methoden der quantitativen, sondern auch der qualitativen Datenerhebung und -analyse anwenden könnten, um so eine größere Verläßlichkeit und tiefere Bedeutung ihrer Untersuchungen zu erzielen. Ein sekundärer Zweck ist die Hervorhebung einiger Gefahren, die aus der bedingungslosen Akzeptanz des Prozesses der Datenerhebung und -interpretation resultieren.

Quantitative Variablen sagen etwas darüber aus, ‚wieviel' oder ‚wieviele' von einer bestimmten Eigenschaft oder einem bestimmten Attribut in einem Objekt, Ereignis, Person oder Phänomen anzutreffen sind. Ein Beispiel ist die Zahl der Computer, die für die Nutzung durch Studenten auf dem Campus zur Verfügung stehen. Qualitative Variablen klassifizieren ein Objekt, ein Ereignis, eine Person oder ein Phänomen in Kategorien unter Berücksichtigung der Attribute, durch die sie sich unterscheiden. So kann beispielsweise die Publikationssprache einer bestimmten Englisch, Französisch, Hebräisch oder Spanisch sein.

Indem sie weiter sehen als das ‚wieviel' oder ‚wieviele' und die Eigenschaften der gezählten Personen, Dinge oder Aktivitäten erfassen, erzielen Bibliothekare notwendigerweise ein nützlicheres Verständnis ihrer eigenen Organisationen und ihrer Arbeit.

Dies ist kein neues Anliegen und auch die in diesem Referat angebotenen Lösungsansätze sind nicht einmalig; aber unabhängig von dem, was in der Vergangenheit gesagt wurde, bleibt uns das Problem erhalten und es scheint der Mühe wert zu sein, die Realitäten noch einmal aufzuzählen. Eine meiner Kolleginnen an der Victoria Universität, Rowena Cullen, hat in Zusammenhang mit ihrer Forschung über Leistungsmessung den Wert des alleinigen Verlassens auf quantitative Daten bezweifelt. Die Arbeiten von Pratt und Altman sowie der Abteilung für Bibliotheks- und Informationsstatistik (LISU) diskutierend, hinterfragt sie somit die Verläßlichkeit von Bibliotheksstatistiken als einzigem und verläßlichem Maßstab von Bibliotheksaktivität, und insbesondere, ob solche Daten eine große Korrelation zwischen In- und Output ermöglichen. „Insbesondere grundsätzliche Fragen der Zufriedenheit der Benutzer mit ihrer Bibliothek/ihren Informationsdiensten werden nur von einem geringen Prozentsatz der hier berücksichtigten Studien kurz berührt, obwohl die Autoren an mehreren Stellen ausführen, daß eine weitergehende Analyse möglich und in der Tat wünschenswert ist".

Cullen fährt in ihrem Papier fort aufzuzeigen, daß eine Bibliothek ein soziales Konstrukt ist und die Leistungsmessung daher ebenfalls ein soziales Konstrukt ist. Dies bedeutet dann, daß wir nach einer Matrix Ausschau halten müssen, die Werte, Brennpunkt und Zweck umfaßt - drei Achsen, die zum Verständnis der Bibliothek als sozialem Konstrukt notwendig sind. In meiner Sicht ist dieses soziale Konstrukt ein Mittel zur Betrachtung von Bibliotheken und Informationsorganisationen, und wenn wir uns auf dem Gebiet sozialer Konstrukte befinden, bekommen nicht-quantitative Methoden der Datenerhebung und -analyse zusätzliche Bedeutung. Dies gilt insbesondere für drei Gebiete: Bibliotheksnutzer, Bestände und Dienstleistungen (oder Anfragen); jedes von diesen wird nacheinander diskutiert.

Können Nutzer sinnvoll gezählt werden?

Datenerhebung beruht auf der Annahme, daß es möglich ist, eine angemessene Darstellung der untersuchten Ob-jekte/Bevölkerung zu erzielen. In einer Bibliothek muß eine solche Annahme hinterfragt werden, wenn sie auf die Nutzerpopulation einer bestimmten Bibliotheksdienstleistung angewandt wird. Nehmen wir zum Beispiel an, daß uns die Zahl von Personen interessiert, die eine Bibliothek benutzen. Wie zählen oder messen wir dies? Ein einfacher Weg ist, daß wir einfach alle zählen, die das Gebäude betreten oder verlassen und dies entweder mechanisch oder manuell. Und viele Bibliotheken tun genau dies - wieviele Jahresberichte prahlen stolz damit, daß „im Jahre 199X die Bibliothek von XXXX Nutzern aufgesucht wurde"? Aber was sagt uns dies? Handelte es sich um gelegentliche Nutzer, ernsthafte Wissenschaftler, die anspruchsvolle Rechercheleistungen intensiv nutzten, Stu-denten, die Materialien von einer Lektüreliste suchten, ältere Menschen, die die Bibliothek als soziales Zentrum nutzten, Eltern, die Angebote für ihre Kinder ausnutzten? In anderen Worten: Menschen zu zählen sagt uns sehr wenig, da dadurch die unterschiedlichen Nutzerkategorien nicht spezifiziert werden und somit auch nicht die speziellen Anfor-derungen, die sie möglicherweise an die Dienstleistungen stellen. Dies ist ein hervorragendes Beispiel für die Unzulänglichkeit von Daten als Grundlage für sinnvolle Statistiken oder Information jeglichen Werts, da ihnen eine derart grobe Wahrnehmung der Nutzerpopulation zugrundeliegt. Die grundlegende Annahme ist fehlerhaft, die Da-ten sind fehlerhaft und so muß auch deren Interpretation gleichermaßen fehlerhaft sein.

Was wir wirklich benötigen ist ein Profil der tatsächlichen Bibliotheksnutzer - wer sie sind, was sie erwarten, wenn sie die Bibliothek betreten, wie sie Ausstattung und Dienstleistungen nutzen, was sie von der Ausstattung und den Dienstleistungen denken, wieso sie sich möglicherweise entscheiden, die Bibliothek auf elektronischem Wege zu nutzen oder aber vor Ort usw. Keine dieser sinnvollen Daten erhält man, indem man die Nutzer einfach zählt. Weiterhin wird uns keine Art der Zählung, auch nicht die anspruchsvollste und detaillierteste Nutzerübersicht irgendetwas über die potentiellen Nutzer oder die Nichtnutzer sagen, auch wenn gerade diese Art der Information diejenige ist, die Manager wirklich wollen - sie wollen wissen oder zumindest müssen wissen, wie der potentielle Markt für ihre Dienstleistungen gestaltet ist, damit sie einen Managementplan entwickeln können, der ihnen den Zu-gang zu dieser Reserve ermöglicht. Sogar in einem Land mit einem so starken Bewußtsein für die Bedeutung von Bibliotheken wie Australien, in dem mehr als 60 % der Bevölkerung öffentliche Bibliotheken nutzen (was im-mer „nutzen" auch bedeuten mag), gibt es einen großen Anteil von Nichtnutzern, bei denen wir Interesse für unsere Dienstleistungen wecken müssen. Auch der fähigste Forscher wird ihnen sagen, daß die Erfassung dieser nützlicheren und deshalb auch anspruchsvolleren Nutzer- und Nichtnutzerdaten mit Schwierigkeiten behaftet und ein zeit- und kostenaufwendiges Unterfangen ist. Aber es gibt dafür bisher keinen Ersatz.

Welchen Wert hat die Zählung der Bestände?

Wenn mein Hinterfragen der bloßen Zählung von Nutzern im Gegensatz zur Zählung bestimmter Gruppen von Nutzern und der Determinierung ihrer Einschätzung bestimmter Dienstleistungen berechtigt ist, ist es dann möglich, den Blick fort von Menschen fort und hin zu Objekten zu richten - hier spezifisch den Beständen (wie auch immer definiert)?

In Bibliotheken ist es eine fast biblische Wahrheit, und dies insbesondere seit den „guten alten Tagen", als die Clapp-Jordan-Formel ihre Vormachtstellung gewann, daß die Zählung der Größe einer Büchersammlung uns Daten liefert, die in quantitativer wie qualitativer Hinsicht aussagekräftig sind. Wiederum sagt fast jeder Jahres-bericht aus, daß „die Größe der Sammlung nunmehr X Bände an Büchern, Y laufende Periodika, Z elektronische Ressourcen erreicht hat". Aber was ist die Beziehung zwischen der Größe oder Quantität einer Sammlung und ihrer Qualität? Diese Frage frustriert die Statistiker immer wieder und zwar deshalb, weil sie den Wert der stati-stischen Unternehmung hinterfragt. Aber - ebenso wie bei den Nutzern - müssen wir als Informationsspezialisten insbesondere an Werten und Bedeutungen interessiert sein, unabhängig davon, ob wir Nutzer oder Bestände betrachten.

Setzen wir voraus, daß eine Beziehung zwischen Quantität und Qualität besteht, und ich setze dies keinesfalls voraus, dann ist es notwendig, den Wert von Bestandsdaten im Hinblick auf die Beziehung zwischen Größe und dem Grad der Dienstleistungen zu hinterfragen. Um dies zu kompensieren, zählen viele Bibliothekare die Auslei-hen oder Nutzungen von Büchern, Nachschlagewerken, Zeitschriften, CD-ROMs usw. Jede Zählung von Aus-leihen oder Nutzungen kann jedoch durch eine ungewöhnliche und nicht alltägliche Nutzung durch einen an einem ein-maligen Projekt arbeitenden Wissenschaftler in eine Schieflage geraten, durch einen Entleiher mit einem vor-übergehenden Faible für ein bestimmtes Thema usw. In einem Zeitalter wirtschaftlicher Schwerpunktsetzungen und von kostenpflichtigen Zusatzdienstleistungen kann auch gefragt werden, inwieweit Ausleihen oder Nutzungen von Bibliotheksmaterialien überhaupt ein wertvoller Indikator für überhaupt irgendetwas sind.

Es ist natürlich möglich, den Wert von Daten über Ausleihen und Nutzungen zu erhöhen, indem man eine Art Qualitätsindikatoren einführt. Dies bedeutet in der Regel irgendein „Rankingsystem", gewöhnlich eines, das Bestände in der örtlichen Sammlung an einem externen Maßstab mißt. In Neuseeland kann dies bedeuten, daß die Stadtbibliothek Wellington denjenigen Beständen einen höheren Wert beimißt, die auch in der New York Public Library vorhanden sind. Oder eine Universitätsbibliothek kann Publikationen prestigeträchtiger akademi-scher Verlage und UN-Agenturen höher einschätzen als populäre Romane oder Regierungsveröffentlichungen des eigenen Landes. Ist es aber die Aufgabe einer Bibliothek oder eines Informationsdienstes, auf die Bedürf-nisse einer spezifischen örtlichen Gemeinschaft zu reagieren, oder soll sie sich damit beschäftigen, sich selbst an nationalen oder internationalen Kriterien zu messen? Dies bedeutet, daß für die Stadtbibliothek Wellington Materialien, die nur sie besitzt, im Hinblick auf ihre örtlichen Nutzerinteressen wichtiger sein kön-nen und vielleicht sogar sein müssen als solche, die auch in der New York Public Library vorhanden sind.

In anderen Worten: Bestände zählen, sei es von Büchern oder einem anderen Medium, ist keine notwendige Maßnahme; Ausleih- oder Nutzungsvorgänge zu zählen ist kein Maßstab für den Grad oder die Qualität der Nutzung, lediglich dafür, daß diese Medien aus den Regalen genommen oder elektronisch auf sie zugegriffen wurde, vielleicht weil nichts „Besseres" erhältlich war. Aber geht dies an der eigentlichen Frage vorbei? Für zu viele Bibliothekare ist der Grad der Nachfrage nach Dienstleistungen keine bedeutende Angelegenheit, während es die Größe der Bestände oder die Zahl der Nutzungen ist.

Sind Anfragen ein Ersatz für Zählungen von Nutzern oder Beständen?

Die Zählung von Nutzern oder Beständen gibt uns einige Daten, wenn auch von beschränktem Wert, aber man muß wiederholen, daß zu viele Bibliotheksdienste sich hinter diesen rohen Zahlen verstecken und sich statt auf eine aussagekräftigere Datenanalyse auf sie verlassen. Eine Alternative, die von einigen Einrichtungen genutzt wird, ist die Zählung von Nutzeranfragen (gerichtet an Mitarbeiter, elektronische Systeme oder in Form anderer Frage-Antwort-Modi). Einige hervorragende Beispiele hierfür sind zu finden in „Libraries in the Workplace" (Bibliotheken am Arbeits-platz), einem der exzellenten Berichte, die von David Spiller und LISU-Mitarbeitern erstellt wurden: Wieviele Recherchen (durch die Endnutzer selbst oder Vermittlung) wurden ihrer Schätzung nach von ihrem Bibliotheks-/Informationszentrum vorgenommen? Wieviele Anfragen wurden ihrer Schätzung nach von ihrem Bibliotheks-/Informationszentrum beantwortet?

Wenn man nach der Zahl von Anfragen fragt, neigen Bibliotheken dazu, die Zahl von Anfragen in einer be-stimmten Zeit festzuhalten oder wahrgenommene Nutzerinteraktionen mit maschinellen Informationsressourcen zu beobachten. Wie aber immer bei der Datenerhebung ist es auch hier leicht möglich, daß die Daten durch den Erfasser - in der Regel einen Bibliotheksmitarbeiter, der sich möglicherweise durch das Verfahren bedroht fühlt und die Zahlen streckt, um die Auskunft beschäftigter erscheinen zu lassen als sie in Wirklichkeit ist - verzerrt oder entstellt werden. Zum Beispiel kann ein Mitarbeiter die Zahlen absichtlich ändern und eine höhere Zahl von Anfragen festhalten als wirklich gemacht wurden; oder, eher typisch, eine einfache Frage nach der Richtung kann als eine Anfrage betrachtet werden, auch wenn die Mitarbeiter in Wirklichkeit nur konkrete Informationsanfragen zählen sollen.

Wie bei den Fragen nach dem Umsatz der Bestände möchten wir auch hier etwas über das Niveau der Anfragen wissen. Sind alle Anfragen gleich? Nein. Erfordern einige mehr Zeit und größere Anstrengung? Natürlich. Warum also keine Frage stellen, die Daten erheben über die Zeit und die Summe an detailliertem Wissen, das zur Beantwor-tung einer Frage erforderlich ist.

Bedenken sie, um wieviel reicher die Daten wären, wenn die folgende Frage gestellt würde: Welcher Prozentsatz der insgesamt von der Bibliothek/dem Informationszentrum beantworteten Anfragen erfor-derte ihrer Einschätzung nach die folgende Zeit: dann geben sie Zeitrahmen an, von 1 Minute bis 10 Minuten usw.? Oder wie wäre es, nach Information über die Art der Anfrage zu fragen: hing sie zusammen mit der Frei-zeitgestaltung, hatte sie rein informativen Charakter, war sie forschungsorientiert? Würden Fragen wie diese uns bessere Einblicke in die Natur, Tiefe und Qualität der angebotenen Dienstleistungen geben?

Indem Anfragesysteme zunehmend automatisiert werden, ist es relativ einfach, Aufzeichungsmechanismen in elektronische Systeme zu integrieren, die die Gewinnung von Daten über die Länge der Anfragen, den Umfang der recherchierten Daten usw. ermöglichen. In Zusammenhang mit automatisierten Systemen stellt sich auch die Frage nach der Zählung von Interaktionen zwischen Nutzer und Maschine. In diesem Bereich ist es schwieriger, die Daten zu verfälschen oder zumindest einfacher, Anfragen nichtinformativen Inhalts aus der Zählung auszuschließen.

Das andere Extrem bildet die Sammlung von Daten über angenommene Nutzerinteraktionen, die notorisch un-zuverläßlich sind, weil sie notwendigerweise auf einer distanzierten, unauffälligen Beobachtung beruhen. Diese Methode der Datenerhebung ist in besonderem Maße einer Färbung ausgesetzt und dies speziell in einer Bibliotheksumgebung, in der billige Arbeitskräfte (z.B. Studenten als Beobachter) eingesetzt werden. Dies kann zu einer „selektiven Aufzeichnung von Beobachtungsdaten führen. Bestimmte Objekte oder Beziehungen werden von Beobachtern mit unterschiedlichen Interessen, Vorlieben oder Hintergründen eher aufgezeichnet." In anderen Worten: Beob-achtungsfähigkeiten sind notwendig und insofern diese fehlerhaft sind, werde auch die Daten fehlerhaft sein. Allan Kellehears hervorragende Arbeit über Beobachtung enthält eine Zahl von Vorbehalten gegenüber dieser Technik der Datensammlung, die allesamt wie folgt zusammengefaßt werden können: der Beobachter muß Fer-tigkeiten im Beobachten besitzen und darf niemals der beobachteten Interaktion oder dem beobachteten Verhal-ten Motive zuschreiben. In einem Informationszusammenhang ist die natürliche Tendenz zu vermuten, daß eine Interaktion in irgendeiner Weise aufgabenbezogen (ein Nutzer, der eine Information zu einem bestimmten Zweck sucht) ist und dies bedeutet, daß man ein Motiv zuschreibt, das gar nicht existieren mag.

Das Problem mit den Entscheidungsträgern ...

Ein Problem mit Akademikern, die für ergiebigere Techniken der Datenerhebung plädieren, ist natürlich, daß wir - wie alle Praktiker wissen - in einem Elfenbeinturm leben, der von „der realen Welt" weit entfernt ist. In der Tat. Und es muß erkannt werden, daß in „der realen Welt" die Entscheidungsträger, für die so viel Da-tenerhebung und -analyse betrieben wird, einfach nicht viele Details wollen, nicht über Daten nachdenken wol-len, sondern einfach eine einfache Tabelle wünschen, die zeigt, daß die Einrichtung X besser ist als die Einrichtung Y („besser" bedeutet ein größeres Budget, mehr Auskunftstätigkeiten, größerer Bestand usw.). Dies bedeutet, daß wir erkennen müssen, daß die Datenerhebung zu einem erheblichen Maß von denjenigen bestimmt sind, denen gegenüber die Praktiker rechenschaftspflichtig sind, und diejenigen, denen gegenüber wir rechenschaftspflichtig sind, haben häufig „Erbsenzählermentalitäten".

Ob es sich bei den Entscheidungsträgern um Angehörige der Verwaltung, Manager, Politiker oder Finanzfach-leute handelt, es ist wichtig zu erkennen, daß sie die Macht haben zu diktieren, welche Daten wir erheben, wie die Daten genutzt werden und wie sie präsentiert werden. Jede Bibliothek oder Informationseinrichtung ist ir-gendjemand anderem gegenüber dadurch rechenschaftspflichtig, daß sie auf ihn für die Finanzierung, also ihren ureigensten Seinszweck, angewiesen sind. Dieser „irgendjemand anderer" muß die Informationsbedürfnisse der Bibliotheken verstehen. Wenn es externen Entscheidungsträgern erlaubt wird, die Bedürfnisse der Datenerhe-bung und ihrer -präsentation zu diktieren, dann ist es völlig realistisch von ihnen zu erwarten, daß sie diese eher ihren eigenen als den Interessen der Bibliothek entsprechend strukturieren --und wieso sollten sie auch nicht?

Die zunehmende Ausgeklügeltheit automatischer Bibliothekssysteme und die größere Leichtigkeit, mit der nu-merische Daten - über Nutzer, über Bestände, über Bestände, über Nutzungsvorgänge - gesammelt werden kön-nen, bedeutet, daß wir mehr als je zuvor an der einfachen Quantifizierung als Evaluierungsmaßnahme hängen. In dem Maße, wie dies passiert, glauben die Entscheidungsträger immer fester, daß Daten erhoben wer-den können, indem man hier eine Taste drückt, da einen Befehl eingibt. Folglich wird es immer unwahrscheinli-cher, daß wir aus der Zwangsjacke des „Zahlenmampfens" ausbrechen können, da unsere Kontrolleure dies weiterhin als den effektivsten Weg zur Evaluierung unserer Dienstleistungen ansehen. Auch - und das muß man zugeben - fehlt es der Software, die uns bei der Analyse qualitativer Daten (die nicht einfach zu analysieren sind) helfen soll, einfach an Nutzerfreundlichkeit und der für die Datenanalyse notwendigen Leichtigkeit der Interpretation. Trotz der positiven Einschätzungen von Software zur Analyse qualitativer Daten durch Evaluierer wie Miles und Huberman bleibt man doch der Mehrzahl der kommerziell erhältlichen Pakete gegenüber skep-tisch. Computersoftware benutzt schließlich technische Verarbeitungsmethoden für qualitative Daten, die intrin-sisch besser geeignet sind für andere, zeitaufwendigere Methoden.

Man muß einen entscheidenden Unterschied machen zwischen der Effizienz (den niedrigsten Kosten für etwas pro Einheit) und der Effektivität (erfolgreiche Erfüllung einer Aufgabe). Unsere Entscheidungsträger werden nahezu ausnahmslos von Effizienzerwägungen angetrieben und die Technologie, die die Datenerhebung und -analyse bereichert, verbessert sicherlich die Effizienz - aber auch nur die Effizienz. Wir Informationsspezialisten sind im Gegensatz dazu Teil einer Dienstleistungsindustrie, in der die erfolgreiche Erfüllung unserer Aufgabe - Effektivität - an erster Stelle stehen sollte.

Was kann getan werden?

In der vorausgegangenen Diskussion gibt es eine Reihe von Schlußfolgerungen darüber, was wir tun können, um die Situation von einer zahlenorientierten und effizienzgetriebenen Datenerhebung und -analyse in Richtung auf für die Zusammenhänge sensiblere, sinnmachendere Erhebungs- und Analysetechniken zu bewegen. Sie werden sämtlich nicht als Alternativen zu, sondern als Bereicherungen für die statistischen Standardmaßstäbe angeboten, die im Informationssektor universell benutzt werden.

  • Betrachten sie ernsthaft die genuinen Mängel der quantitativen Datenerhebungs- und Analysemethoden und versuchen sie, qualitative Methoden zu integrieren, die ein besseres Verständnis der Bibliotheksnutzer, Bestände und Dienstleistungen ermöglichen.
  • Legen sie das Augenmerk weniger auf die Nutzer als Gesamtheit und mehr auf spezifische Nutzerkategorien und Profile ihrer Wünsche und Bedürfnisse.
  • Legen sie weniger Gewicht auf die numerischen Aspekte der Sammlung und mehr angemessene Indikatoren der Sammlungsqualität.
  • Legen sie weniger Augenmerk auf einfache Nutzeranfragen und mehr auf das Wesen und Niveau dieser Anfra-gen.
  • Verwenden sie Methoden der Erhebung qualitativer Daten im vollen Bewußtsein der Probleme, die mit der Erzielung einer wertfreien Nutzung dieser Methoden verbunden sind.
  • Fördern sie unter den Entscheidungsträgern ein Bewußtsein dafür, daß Effizienz und Effektivität keine gleich-berechtigten Konzepte sind und Effektivität im Informationssektor ein höheres Gut als Effizienz ist.
  • Arbeiten sie mit Softwareentwicklern bei der Entwicklung von Software zur qualitativen Datenerhebung zu-sammen, die hinsichtlich Nutzerfreundlichkeit und Analysefähigkeiten akzeptabel ist.

Schlußfolgerung

Ein kürzlich erschienener Aufsatz von Dole und Hurych diskutiert „neue Maßeinheiten" für die Evaluierung von Bibliotheken, insbesondere im Hinblick auf elektronische Ressourcen. Die Autoren bieten einen hervorragenden Überblick über konventionelle Maßstäbe und geben auch klare Einblicke in gegenwärtige Entwicklungen. Es ist ermutigend, daß über nutzungsbasierte Maßeinheiten nachgedacht wird, jedoch deprimierend, daß diese nur eine sehr kleine Komponente der konventionellen kosten-, zeit- und nutzungsorientierten Maßeinheiten bilden. Falls dies die Zukunft der Datenerhebung in Bibliotheken ist, bin ich nicht überzeugt, daß wir eine erheblichere Ver-besserung der aus meiner Sicht keinesfalls befriedigenden Situation erleben werden.

Vielversprechender ist die von der in den USA befindlichen „Coalition for Networked Information" (Koalition für Netzwerkinformation) (http://www.cni.org) und inbesondere Charles McClure angeregte Arbeit. In „Asses-sing the Academic Networked Environment: Strategies and Options" (Die akademische Netzwerkumgebung bewerten: Strategien und Optionen) präsentieren er und Cynthia Lopata ein Handbuch für die Evaluierung von Netzwerken, das in seinem Zugang zum größtenteils qualitativ orientiert ist und ein starkes Argument für die Nutzung qualitativer Methoden bei der Einschätzung akademischer Netzwerke darstellt. Dies scheint jedoch nicht mit allgemeiner Anerkennung aufgenommen worden zu sein und hat sicherlich auch keinen großen Einfluß auf die Gemeinschaft der „Datenerheber" gehabt.

In der abschließenden Analyse argumentieren wir für ein stärkeres Bewußtsein unter Bibliotheksfachleuten da-für, daß aussagekräftige Daten kontextbezogen sind und Bedeutung auf Interpretation beruht, daß sie von Varia-blen abgeleitet werden, die komplex und schwierig zu messen sind, und Verstehen ein induktiver Prozeß ist. Dies unterscheidet sich von, steht aber nicht notwendigerweise in Konflikt mit dem traditionell quantitativen Zugang des Statistikers, der annimmt, daß es möglich ist, Variablen in einer relativ einfachen Weise zu identifi-zieren und zu messen, sowie, daß Normen und Übereinstimmung durch Deduktion aus den Daten erzielt werden können. Beide haben ihren Platz in der Informationsarbeit, aber lassen sie uns bitte nicht das eine zu Lasten des anderen betonen - oder vielmehr fortfahren, das eine (quantitative) zu Lasten des anderen (qualitativen) überzu-betonen.

Erinnern sie sich an die klassische Arbeit von Webb u.a. über unauffällige Maßnahmen, in deren Kapitel 8 die leidenschaftliche Bitte an die Forscher enthalten ist, „alle zugänglichen Angriffswaffen" zu benutzen? Mehr als dreißig Jahre später ist es höchste Zeit, daß Informationsprofis diesen Aufruf beherzigen und jenseits ihrer Zah-len Ausschau halten nach Quellen mit potentiell tieferer Bedeutung.

Literaturhinweise

1. Hafner, A.W. (1998). Descriptive Statistical Techniques for Librarians. 2nd ed. Chicago: American Library Association.

2. Pratt, A., and Altmann, E. (1997). ‚Live by the Numbers, Die by the Numbers.' Library Journal April 15: 48-49.

3. England, L., and Sumsion, J. (1995). Perspectives of Public Library Use: A Compendium of Survey Information. Loughborough: Library and Information Statistics Unit.

4. Cullen, R. (1998). „Does Performance Measurement Improve Organisational Effectiveness? A Post-modern Analysis." In: Proceedings of the 2nd Northumbria International Conference on Performance Measurement in Libraries and Information Services Held at Longhirst Hall, Northumberland, England, 7-11 September, 1997, 3-20. Newcastle upon Tyne: Information North.

5. Clapp, V.W., and Jordan, R.T. (1965). ‚Quantitative Criteria for Adequacy of Academic Library Collections.' College and Research Libraries 26: 371-380.

6. Spiller, D.; Creaser, C.; and Murphy, A. (1998). Libraries in the Workplace. LISU Occasional Papers, 20. Loughborough: Loughborough University of Technology, Library and Information Statistics Unit.

7. Kellehear, A. (1993). The Unobtrusive Researcher: A Guide to Methods. St Leonards, NSW: Allen and Unwin.

8. Miles, M.B., and Huberman, A.M. (1994). Qualitative Data Analysis: An Expanded Sourcebook. 2nd ed. Thousand Oaks, CA: Sage Publications.

9. Dole, W.V., and Hurych, J.M. (1999). ‚New Measuremnts for the Next Millennium: Evaluating Libraries in the Electronic Age.' paper prepared for CoLIS3: The Third International Conference on Conception of Library and Information Science, Dubrovnik, Croatia, 23-27 May.

10. McClure, C.R., and Lopata, C. (1996). Assessing the Academic Networked Environment: Strategies and Options. Februar 1996.

11. Gorman, G.E., and Clayton, P.R. (1997). Qualitative Research for the Information Professional: A Practical Handbook. London: Library Association Publishing.

12. Webb, E., et al. (1966). Unobtrusive Measures: Non-Reactive Research in the Social Sciences. Chicago: Rand-McNally.

*    

Latest Revision: July 29, 1999 Copyright © 1995-2000
International Federation of Library Associations and Institutions
www.ifla.org