Hrsg. Rainer Kuhlen , Dirk Lewandowski , Wolfgang Semar und Christa Womser-Hacker
Grundlagen der Informationswissenschaft

Die 7. Ausgabe der "Grundlagen der praktischen Information und Dokumentation" (Erstausgabe 1972) heißt jetzt: "Grundlagen der Informationswissenschaft". Der Bezug zur Praxis und zur Ausbildung bleibt erhalten, aber der neue Titel trägt dem Rechnung, dass die wissenschaftliche theoretische Absicherung für alle Bereiche von Wissen und Information, nicht nur in der Fachinformation, sondern auch in den Informationsdiensten des Internet immer wichtiger wird. 

Für die Grundlagen sind 73 Artikel in 6 Hauptkapiteln vorgesehen. Viele Themen werden zum ersten Mal behandelt, z.B. Information und Emotion, Informationelle Selbstbestimmung, Informationspathologien. Alle Beiträge sind neu verfasst.

ISBN 978-3-11-153211-0 7. Auflage 17.06.2024 39,95 € Portofrei Bestellen (Buch | Softcover) 7., völlig neu gefasste Ausgabe
ISBN 978-3-11-076895-4 7. Auflage 05.12.2022 vergriffen
ISBN 978-3-11-076904-3 7. Auflage 2024 Kostenlos Download (PDF) von www.degruyterbrill.com
ISBN 978-3-11-076904-3 7. Auflage 2024 Kostenlos Download (EPUB) von www.degruyterbrill.com

Präsentation

Briefing-Dokument: Grundlagen der Informationswissenschaft

Zusammenfassung

Dieses Dokument fasst die zentralen Themen und Konzepte des Werks „Grundlagen der Informationswissenschaft“ (7. Auflage) zusammen. Das Werk positioniert die Informationswissenschaft als eine interdisziplinäre Disziplin, die sich der wissenschaftlichen Absicherung aller Prozesse widmet, die mit Information zu tun haben. Kernanliegen ist die Abkehr von einer rein praktischen Ausrichtung hin zu einer theoretisch fundierten Wissenschaft, die einen intensiven Austausch mit Fachgebieten wie Informatik, Künstlicher Intelligenz, Computerlinguistik und Sozialwissenschaften pflegt.

Wichtige Kernaussagen:

  • Definition von Information: Das Werk favorisiert einen pragmatischen, handlungs- und nutzerorientierten Informationsbegriff („Wissen in Aktion“), der sich von rein semantischen, wahrheitsbasierten Definitionen abgrenzt. Information entsteht, wenn Wissen in einem bestimmten Kontext handlungsrelevant wird.
  • Zentrale Themenbereiche: Die Informationswissenschaft gliedert sich in Kerngebiete wie Wissensorganisation (Indexierung, Klassifikation, Ontologien), Information Retrieval (Modelle, Suchmaschinen, Evaluation), Informationsverhalten (Modelle des Suchverhaltens, Informationsbedarf) und die Analyse von Informationsmärkten (Open Access, digitale Plattformen).
  • System- vs. Nutzerorientierung: Ein zentrales Spannungsfeld ist die Integration von systemorientierten Ansätzen (z. B. Retrieval-Algorithmen) und nutzerorientierten Perspektiven (z. B. Mensch-Computer-Interaktion, kognitive und emotionale Aspekte der Informationssuche).
  • Transformation der Informationsmärkte: Eine tiefgreifende Analyse widmet sich dem Wandel von proprietären, kommerziellen Informationsmärkten hin zu offenen Modellen wie Open Access, Open Science und Open Data. Dabei werden die ökonomischen, rechtlichen und politischen Rahmenbedingungen detailliert beleuchtet.
  • Regulierung und Ethik: Das Werk schließt mit einer kritischen Auseinandersetzung der regulatorischen und ethischen Dimensionen von Information. Themen wie Informationsethik, Urheberrecht, Datenschutz (DS-GVO) und der Umgang mit Informationspathologien (Desinformation, Plagiate) bilden einen wesentlichen Rahmen für die Disziplin.

I. Grundlagen und Rahmenbedingungen der Informationswissenschaft

Dieser Teil legt das Fundament der Disziplin, indem er zentrale Begriffe definiert, die historische Entwicklung nachzeichnet, theoretische und methodische Ansätze vorstellt und die institutionellen Akteure sowie deren Aufgaben beschreibt.

1. Definition und Theorie der Information

  • Pragmatischer Primat: Im Gegensatz zu hierarchischen Modellen (Daten → Information → Wissen) wird eine funktionale Unterscheidung basierend auf der Semiotik vorgeschlagen: formal-syntaktische, semantisch-bedeutungstragende und pragmatisch-handlungsstimulierende Ebenen. Der pragmatische Primat wird als die attraktivste Perspektive für die Informationswissenschaft gesehen.
  • Kritik an semantischen Definitionen: Ansätze wie die von Luciano Floridi, der semantische Information als „well-formed, meaningful and veridical data“ definiert, werden diskutiert, aber die Abhängigkeit vom Wahrheitswert als problematisch für die Praxis erachtet. Auch Desinformation kann handlungsrelevant und somit im pragmatischen Sinne zu „Information“ werden.
  • R4-Modell der Information: Ein konzeptionelles Modell beschreibt Information im Zusammenspiel von vier zentralen Faktoren:
    • Relevanz: Die Nützlichkeit von Information in einer spezifischen Handlungssituation, bestimmt aus Nutzersicht.
    • Reduktion: Die Transformation komplexer Wissensobjekte in handhabbare Informationsobjekte durch Verfahren wie Indexierung oder Abstracting.
    • Resonanz: Die kognitive und emotionale Wirkung von Information auf den Empfänger.
    • Reaktion: Die aus der Information resultierende Handlung oder Entscheidung.

 

2. Institutionelle Entwicklung in Deutschland

  • Frühe Phase und die DGD: Die Deutsche Gesellschaft für Dokumentation (DGD), gegründet in den 1940er Jahren, spielte eine Schlüsselrolle bei der Etablierung der wissenschaftlichen Auseinandersetzung mit Informationsverarbeitung. Sie diente als Austauschplattform für Praktiker und Wissenschaftler.
  • Das IuD-Programm (1974–1977): Dieses Programm der Bundesregierung war entscheidend für die Institutionalisierung. Es sah die Gründung von Fachinformationszentren (FIZ), die Etablierung der Informationswissenschaft als Hochschulfach und die Gründung der Gesellschaft für Information und Dokumentation (GID) vor.
  • Etablierung an Hochschulen: Ab 1980 wurden erste Lehrstühle in Konstanz und Saarbrücken eingerichtet. Später folgten weitere an Universitäten (Berlin, Düsseldorf, Hildesheim, Regensburg) und Hochschulen für angewandte Wissenschaften (Darmstadt, Hamburg, Hannover, Köln, Potsdam, Stuttgart).
  • Fachinformationszentren (FIZ): Das IuD-Programm sah 16 Fachinformationssysteme (FIS) vor, die von zentralen FIZ koordiniert werden sollten. Beispiele sind:
    • FIZ Karlsruhe: Leibniz-Institut für Informationsinfrastruktur.
    • GESIS: Leibniz-Institut für Sozialwissenschaften.
    • DIPF: Leibniz-Institut für Bildungsforschung und Bildungsinformation.
    • Andere FIZ wurden nie gegründet (z. B. für Ernährung) oder später aufgelöst (z. B. FIZ Chemie).

3. Theorien und Methoden

  • Theorie in der Informationswissenschaft: Die Disziplin ist durch einen intensiven Theorieimport aus anderen Fächern (Sozialwissenschaften, Informatik, Philosophie) und eine zunehmende (meta-)theoretische Selbstreflexion gekennzeichnet. Es existiert keine einzelne, einheitliche Theorie.
  • Metatheorien und Paradigmen: Die Forschung stützt sich auf verschiedene Metatheorien oder „Frameworks“ wie den historischen, konstruktivistischen oder bibliometrischen Ansatz. Ein zentraler Dualismus besteht zwischen Realismus und Konstruktivismus.
  • Methodenspektrum: Die Forschung nutzt eine große Methodenvielfalt, wobei empirische Studien den größten Anteil ausmachen. Gängige Methoden der empirischen Sozialforschung sind dominant:
    • Datenerhebung: Befragung (Interviews, Fokusgruppen), Beobachtung, Inhaltsanalyse.
    • Untersuchungsdesigns: Experimentelle und quasi-experimentelle Studien zur Untersuchung von Kausalzusammenhängen.
    • Verteilung: Laut Järvelin & Vakkari (2021) sind nur etwa 20 % der Arbeiten konzeptioneller, theoretischer oder methodologischer Natur.

4. Ausbildung und Berufsfelder

  • Akademische Qualifizierung: Im Rahmen des Bologna-Prozesses haben sich gestufte Studiengänge etabliert. Der Hochschulqualifikationsrahmen (HQR) definiert die Kompetenzen für Bachelor, Master und Promotion.
    • Bachelor: Erster berufsqualifizierender Abschluss, angeboten an zwölf staatlichen Hochschulen in Deutschland.
    • Master: Konsekutive und weiterbildende Masterstudiengänge ermöglichen eine Spezialisierung, z. B. in Digital Leadership (HAW Hamburg) oder Medizinisches Informationsmanagement (HS Hannover).
  • Berufsfeld „Information Professionals“: Das Berufsfeld ist heterogen und erfordert ein breites Kompetenzprofil, das Fach-, Methoden-, Sozial- und Personalkompetenzen umfasst. Dazu gehören Teamfähigkeit, Kommunikationsfähigkeit, Flexibilität und Eigeninitiative.

5. Gedächtnisinstitutionen und Dienste

  • Bibliotheken: Ihre Rolle wandelt sich vom reinen Aufbewahrungsort für Bücher hin zu einem Ort der Begegnung, Bildung und digitalen Forschung. Moderne Discovery-Systeme lösen zunehmend traditionelle OPACs ab, da sie einen integrierten Zugriff auf lokale Bestände, Artikeldatenbanken und digitale Ressourcen ermöglichen.
  • Archive: Ihre Kernaufgabe ist die Sicherung der Auswertungsoffenheit von Überlieferungen durch Bewertung, Erhaltung, Erschließung und Zugänglichmachung. Das Provenienzprinzip (Ordnung nach Herkunft) ist zentral, um Entstehungszusammenhänge zu wahren. Die Digitalisierung führt zur Maxime „non est in rete, non est in mundo“ (was nicht im Netz ist, ist nicht in der Welt).
  • Museen: Laut ICOM-Definition sind sie gemeinnützige Einrichtungen, die materielle Zeugnisse zu Studien-, Bildungs- und Unterhaltungszwecken beschaffen, bewahren, erforschen und ausstellen.
  • Mediatheken: Ursprünglich physische Sammlungen audiovisueller Medien, heute primär Online-Portale, die den zeit- und ortsunabhängigen Abruf von Inhalten ermöglichen (Pull-Dienst anstelle des linearen Push-Dienstes des Rundfunks).
  • Digitale Langzeitarchivierung (dLZA): Ein zentraler Bereich zur Sicherung digitaler Objekte.
    • OAIS-Referenzmodell: Definiert funktionale Einheiten (Ingest, Archival Storage, Access etc.) und Informationspakete (SIP, AIP, DIP).
    • Erhaltungsmaßnahmen: Umfassen Formatmigration und Emulation, um die langfristige Lesbarkeit zu gewährleisten.
    • Zertifizierung: Standards wie das CoreTrustSeal und das nestor-Siegel (basierend auf DIN 31644) dienen als Qualitätsnachweis für vertrauenswürdige Repositorien.

6. Normung und Standardisierung

  • Bedeutung: Standardisierung ist entscheidend für Interoperabilität und Effizienz im Informationsbereich. Wichtige Organisationen sind das Deutsche Institut für Normung (DIN) und die International Organization for Standardization (ISO).
  • Identifikatoren: Eineindeutige Nummern sind essenziell. Beispiele:
    • ISBN: International Standard Book Number (DIN ISO 2108)
    • ISSN: International Standard Serial Number (ISO 3297)
    • DOI: Digital Object Identifier (ISO 26324)
    • ORCID iD: Kennung für Forschende (ISO 27729-kompatibel)
  • Metadaten- und Austauschformate:
    • ISO 15836: Dublin Core (DC) Metadaten-Elementesatz.
    • ISO 2709: Format für den Austausch bibliografischer Daten.
  • Inhaltserschließung: Normen wie ISO 25964 regeln die Erstellung von Thesauri.

II. Wissensorganisation und -repräsentation

Dieser Abschnitt behandelt die Methoden und Systeme, mit denen unstrukturierte Informationsobjekte für den maschinellen Zugriff aufbereitet und inhaltlich beschrieben werden.

1. Grundlegende Konzepte

  • Metadaten: Dienen als zusätzliche Beschreibungsmerkmale, um die Precision-Recall-Problematik bei der Suche zu verbessern. Man unterscheidet formale (Autor, Datum) und inhaltliche Metadaten (Schlagwörter).
  • Kontrolliertes Vokabular: Stellt sicher, dass bei der Vergabe von Metadaten und bei der Formulierung von Suchanfragen die gleichen Termini verwendet werden (terminologische Kontrolle), um die Auffindbarkeit zu erhöhen.
  • Begriffssysteme:
    • Thesauri: Sammlung von Begriffen mit vordefinierten semantischen Beziehungen (Äquivalenz, Hierarchie, Assoziation).
    • Klassifikationen: Hierarchische Ordnungssysteme (z. B. Dewey-Dezimalklassifikation, DDC), die Wissen in Klassen und Unterklassen einteilen.
    • Ontologien: Formalisierte, explizite Spezifikation einer Begrifflichkeit mit einer mathematisch-logischen Semantik, die über die Ausdrucksmächtigkeit von Thesauri hinausgeht.

2. Methoden der Inhaltserschließung

  • Intellektuelles Indexieren: Ein analytischer Prozess, bei dem ein menschlicher Experte den Inhalt einer dokumentarischen Bezugseinheit (DBE) mit den Mitteln einer Dokumentationssprache (Deskriptoren, Schlagwörter) ausdrückt.
  • Automatisches Indexieren: Nutzt informationslinguistische und statistische Verfahren.
    • Linguistische Verfahren: Normalisierung von Wortvarianten auf eine Grundform (Lemmatisierung) oder einen Wortstamm (Stemming).
    • Statistische Verfahren: Basieren auf der Frequenz von Wörtern. Die TF-IDF-Gewichtung ist ein zentrales Maß, das die Häufigkeit eines Terms in einem Dokument (Term Frequency) mit seiner inversen Häufigkeit in der gesamten Kollektion (Inverse Document Frequency) kombiniert.
  • Abstracting (Textzusammenfassung):
    • Typen: Indikative (thematischer Kern), informative (wesentliche Fakten) und kritische (bewertende) Abstracts.
    • Automatische Verfahren: Entwickelten sich von oberflächenbezogenen Frequenzzählungen über wissensbasierte Ansätze hin zu Methoden des maschinellen Lernens und Deep Learning (Encoder-Decoder-Modelle). Die ROUGE-Metrik ist der dominierende Standard zur Evaluation.

3. Standards und Technologien

  • Formale Erschließung: Nutzt ein hochgradig standardisiertes Set an Regeln.
    • FRBR-Modell / LRM: Das konzeptionelle Modell Functional Requirements for Bibliographic Records (und sein Nachfolger Library Reference Model) strukturiert bibliografische Entitäten in Werk, Expression, Manifestation und Exemplar.
    • RDA (Resource Description and Access): Modernes, auf dem LRM basierendes Regelwerk, das seit 2015 im deutschsprachigen Raum RAK abgelöst hat.
    • MARC 21: Dominantes Austauschformat für bibliografische Daten.
  • Metadaten im Web:
    • XML (Extensible Markup Language): Eine Meta-Auszeichnungssprache zur Definition strukturierter Dokumente. Ein XML-Dokument ist wohlgeformt, wenn es die Syntaxregeln einhält, und gültig, wenn es zusätzlich den Vorgaben eines Schemas (DTD oder XML-Schema) entspricht.
    • Dublin Core (DC): Ein weit verbreiteter, einfacher Metadatenstandard mit 15 Kernelementen zur Beschreibung von Web-Ressourcen.
  • Ontologien und Linked Open Data:
    • RDF (Resource Description Framework): Ein W3C-Standard zur Darstellung von Wissen in Form von Tripeln (Subjekt-Prädikat-Objekt).
    • RDFS und OWL: Ontologiesprachen zur Definition von Vokabularen und komplexen logischen Beziehungen.
    • SPARQL: Die Standard-Abfragesprache für RDF-Datenbanken (Triplestores).
    • Linked Open Data (LOD): Prinzipien zur Veröffentlichung und Vernetzung von strukturierten Daten im Web. DBpedia, das strukturierte Daten aus Wikipedia extrahiert, ist ein prominentes Beispiel.

4. Spezifische Anwendungsfelder

  • Bibliometrie: Quantitative Analyse wissenschaftlicher Publikationen.
    • Indikatoren: Journal Impact Factor (JIF), h-Index, normalisierte Zitationsraten und Perzentile.
    • Kritik: Der Missbrauch von Indikatoren (z. B. JIF zur Leistungsbewertung einzelner Forschender) wird kritisiert. Die DORA-Erklärung fordert eine Abkehr von journalbasierten Metriken.
  • Visual Analytics: Kombiniert automatisierte Datenanalyse mit interaktiven Visualisierungen, um den menschlichen Erkenntnisgewinn zu unterstützen, besonders bei großen und komplexen Datensätzen („Sense-making Loop“).
  • Forschungsdatenmanagement (RDM): Umfasst den Umgang mit Daten, die im wissenschaftlichen Prozess entstehen. Die FAIR-Prinzipien (Findable, Accessible, Interoperable, Reusable) sind der Leitfaden für gutes RDM. Initiativen wie die Nationale Forschungsdateninfrastruktur (NFDI) fördern den Aufbau entsprechender Strukturen.
  • Folksonomies & Social Tagging: Nutzergenerierte, unstrukturierte Verschlagwortung in sozialen Systemen (z. B. Tags auf einer Plattform). Man unterscheidet Broad Folksonomies (viele Nutzer taggen viele Ressourcen) und Narrow Folksonomies (wenige Nutzer taggen ihre eigenen Ressourcen).

III. Information Retrieval (IR)

Dieser Teil befasst sich mit der Wissenschaft und Technik des Suchens und Findens von Informationen in großen Datenbeständen.

1. Modelle und Perspektiven

  • Informationswissenschaftliche Perspektive: Im Gegensatz zu einer rein systemorientierten Sichtweise der Informatik betont die Informationswissenschaft die Interaktion zwischen System und Nutzer. Die Entwicklung von Systemen soll sich an menschlichen Bedarfen orientieren.
  • Klassische Modelle:
    • Boolesches Retrieval: Anfragen werden mit den Operatoren AND, OR, NOT formuliert. Dokumente werden exakt zugeordnet, es gibt kein Ranking.
    • Vektorraummodell: Dokumente und Anfragen werden als Vektoren in einem hochdimensionalen Raum repräsentiert. Die Relevanz wird über die Ähnlichkeit (z. B. Kosinus-Ähnlichkeit) der Vektoren berechnet.
    • Probabilistische Modelle: Versuchen, die Wahrscheinlichkeit zu schätzen, dass ein Dokument für eine gegebene Anfrage relevant ist.
      • BIR (Binary Independence Retrieval): Ein grundlegendes Modell, das von binärer Indexierung und der Unabhängigkeit von Termen ausgeht.
      • BM25 (Okapi Best Matching 25): Eine heuristische Erweiterung von BIR, die Termfrequenzen (TF) und Dokumentlängen berücksichtigt. BM25 ist heute ein weit verbreiteter und starker Baseline-Algorithmus.
  • Neuronale Ansätze (Neural IR):
    • Sprachmodelle und Word Embeddings: Methoden wie Word2Vec lernen dichte Vektorrepräsentationen (Embeddings) für Wörter, die semantische Ähnlichkeiten erfassen.
    • Kontextualisierte Sprachmodelle: Modelle wie BERT (Bidirectional Encoder Representations from Transformers) erfassen die Bedeutung von Wörtern in ihrem spezifischen syntaktischen und semantischen Kontext. Sie werden im IR oft in Multi-Stage-Architekturen für ein hochpräzises Re-Ranking einer initialen Kandidatenliste eingesetzt.

2. Suchmaschinen

  • Architektur: Eine Web-Suchmaschine besteht im Kern aus vier Komponenten:
    1. Crawler: Sammelt automatisiert Dokumente aus dem Web.
    2. Indexer: Analysiert die gesammelten Dokumente und baut einen durchsuchbaren Index auf.
    3. Searcher: Verarbeitet Nutzeranfragen, durchsucht den Index und wendet Ranking-Algorithmen an.
    4. Datenbasis (Local Store): Speichert die gecrawlten Webseiten.
  • Ranking: Der Prozess der Sortierung der Treffer nach angenommener Relevanz. Rankingfaktoren sind hochkomplex und umfassen hunderte von Signalen, darunter On-Page-Faktoren (Inhalt, Struktur), Off-Page-Faktoren (z. B. Linkpopularität wie PageRank) und Nutzer-Signale (Klickverhalten).
  • Beeinflussung der Ergebnisse:
    • Suchmaschinenoptimierung (SEO): Maßnahmen, um die Position einer Webseite in den organischen Suchergebnissen zu verbessern.
    • Suchmaschinenwerbung (SEA): Platzierung bezahlter Anzeigen auf den Ergebnisseiten.

3. Interaktives und spezifisches Retrieval

  • Interaktives IR (IIR): Fokussiert auf die Interaktion zwischen Nutzer und System. Es untersucht Funktionen wie:
    • Anfrage-Unterstützung: Automatische Vervollständigung (Query Completion) und Vorschläge für verwandte Suchen (Query Suggestion).
    • Ergebnispräsentation: Darstellung von Snippets und direkten Antworten (Featured Snippets).
    • Conversational Search: Dialogbasierte Interaktion, oft über Sprachassistenten.
  • Cross-Language IR (CLIR): Ermöglicht die Suche in Dokumenten, deren Sprache sich von der Anfragesprache unterscheidet. Dies erfordert Übersetzungsstrategien (Anfrageübersetzung, Dokumentübersetzung oder Nutzung einer Zwischensprache/Pivot-Sprache).
  • Bild- und Video-Retrieval:
    • Content-Based Image Retrieval (CBIR): Analyse visueller Merkmale wie Farbe, Textur und Form.
    • Moderne Ansätze: Nutzen Convolutional Neural Networks (CNNs), um hochdimensionale Merkmalsvektoren (Embeddings) aus Bildern zu extrahieren. Systeme wie VisualBERT ermöglichen eine gemeinsame semantische Repräsentation von Bild und Text.
  • Audio- und Musik-Retrieval:
    • Musik-Retrieval: Umfasst Anfragemethoden wie Query by Humming (QbH).
    • Sprach-Retrieval: Basiert auf automatischer Spracherkennung (Speech-to-Text), um gesprochene Inhalte durchsuchbar zu machen.

4. Evaluation

  • Das Cranfield-Paradigma: Bildet die Grundlage für die laborbasierte Offline-Evaluation von IR-Systemen. Es verwendet eine standardisierte Testkollektion bestehend aus Dokumenten, Anfragen (Topics) und Relevanzurteilen.
  • Evaluationsmaße:
    • Precision: Anteil der relevanten Dokumente unter den gefundenen.
    • Recall: Anteil der gefundenen relevanten Dokumente an allen relevanten Dokumenten.
    • Mean Average Precision (MAP): Ein Maß, das sowohl Precision als auch das Ranking berücksichtigt.
    • Normalized Discounted Cumulated Gain (NDCG): Berücksichtigt graduelle Relevanzurteile.
  • Evaluierungsinitiativen: Foren wie TREC (Text REtrieval Conference), CLEF (Cross-Language Evaluation Forum) und NTCIR organisieren wettbewerbsbasierte Evaluationen, um den Fortschritt im IR voranzutreiben.

IV. Informationsverhalten und Mensch-Maschine-Interaktion

Dieser Teil konzentriert sich auf die menschliche Seite der Informationsnutzung, von den kognitiven und emotionalen Prozessen bis hin zur Gestaltung gebrauchstauglicher Systeme.

1. Modelle des Informationsverhaltens

  • Information Behaviour (IB) vs. Information Seeking Behaviour (ISB): IB ist der Oberbegriff für jegliches menschliches Verhalten in Bezug auf Information, einschließlich passiver Aufnahme und aktiver Vermeidung. ISB bezeichnet den zielgerichteten Prozess zur Befriedigung eines erkannten Informationsbedarfs.
  • Klassische Modelle:
    • Kuhlthaus Information Search Process (ISP): Beschreibt den Suchprozess als eine Abfolge von sechs Phasen (Initiation, Selection, Exploration, Formulation, Collection, Presentation), die jeweils von charakteristischen Gedanken, Gefühlen (z. B. Unsicherheit, Optimismus) und Handlungen begleitet werden.
    • Bates' Berrypicking-Modell: Beschreibt die Informationssuche als einen iterativen und evolvierenden Prozess, bei dem die Anfrage sich durch gefundene Informationen ständig ändert und „Informations-Stücke“ aufgesammelt werden.
    • Taylors Stufen des Information Need: Unterscheidet vier Ebenen des Informationsbedarfs: vom unbewussten visceral need über den conscious need und den formalized need bis hin zum compromised need (der an das System angepassten Anfrage).

2. Mensch-Computer-Interaktion (MCI/HCI)

  • User-Centered Design (UCD): Ein iterativer Gestaltungsprozess, der die Nutzer, ihre Aufgaben und ihren Kontext in den Mittelpunkt stellt. Er umfasst die Phasen Analyse, Konzeption, Prototyping und Evaluation.
  • Zentrale Qualitätskriterien:
    • Usability (Gebrauchstauglichkeit): Das Ausmaß, in dem ein Produkt von bestimmten Nutzern verwendet werden kann, um bestimmte Ziele in einem bestimmten Nutzungskontext effektiv, effizient und zufriedenstellend zu erreichen (DIN EN ISO 9241-11).
    • User Experience (UX): Umfasst sämtliche Wahrnehmungen und Reaktionen einer Person, die sich vor, während und nach der Nutzung eines Produkts oder Dienstes ergeben. Dies schließt Emotionen, Vorlieben und ästhetische Eindrücke mit ein.
  • Computervermittelte Kommunikation (CvK): Interpersonelle Kommunikation mithilfe von Computertechnologien. Theorien wie die Social Presence Theory oder das Filter-Modell erklären, wie Medienmerkmale (z. B. reduzierte nonverbale Cues) die Kommunikation beeinflussen.

3. Informationskompetenz (Information Literacy)

  • Definition: Die Fähigkeit, Informationsbedarfe zu erkennen, Informationen zu finden, zu bewerten und effektiv zu nutzen.
  • Modelle: Das ACRL Framework for Information Literacy definiert sechs Schwellenkonzepte (z. B. "Authority is Constructed and Contextual"), die für ein tiefes Verständnis von Informationsprozessen zentral sind.
  • Bewertungsmethoden: Umfassen Selbstauskünfte, Wissenstests und verhaltensbasierte Messungen (z. B. Analyse des Klickverhaltens). Lateral Reading – das Überprüfen einer Quelle durch Konsultation anderer, vertrauenswürdiger Quellen – wird als effektive Strategie zur Bewertung von Informationen identifiziert.

V. Informationsmärkte und -dienste

Dieser Abschnitt analysiert die ökonomischen, sozialen und technologischen Rahmenbedingungen, unter denen Information produziert, verteilt und genutzt wird.

1. Informationsmärkte und Geschäftsmodelle

  • Proprietäre vs. offene Informationsmärkte: Der traditionelle wissenschaftliche Informationsmarkt wird von kommerziellen Verlagen dominiert, die durch exklusive Nutzungsrechte und Subskriptionsmodelle agieren. Diesem steht der offene Markt gegenüber, der auf freien Zugang und Nachnutzung setzt.
  • Digitale Plattformen: Fungieren als Intermediäre, die Anbieter und Nachfrager vernetzen. Ihr Erfolg basiert auf Netzwerkeffekten (der Nutzen steigt mit der Anzahl der Teilnehmer).
  • Verlagsmodelle: Die Kernfunktionen eines Verlags sind Lektorat (filtering), Herstellung (framing) und Marketing/Vertrieb (amplification). Geschäftsmodelle werden durch Produktarchitektur, Erlösmodell und Wertschöpfungsarchitektur definiert.
  • Online-Marketing: Nutzt digitale Kanäle zur Zielgruppenansprache. Wichtige Kanäle sind:
    • Display Advertising
    • Suchmaschinenmarketing (SEO & SEA)
    • Social-Media-Marketing
    • E-Mail-Marketing

2. Die „Open“-Bewegung

  • Open Access (OA): Das Prinzip des freien Zugangs zu wissenschaftlichen Publikationen.
    • Grüner Weg (Green OA): Zweitveröffentlichung eines bereits publizierten Werks in einem Repositorium.
    • Goldener Weg (Gold OA): Erstveröffentlichung in einer reinen OA-Zeitschrift, oft finanziert durch Publikationsgebühren (APCs).
    • Transformationsverträge: Vereinbarungen wie die deutschen DEAL-Verträge, die Lesezugriffe (Read) mit OA-Publikationsmöglichkeiten (Publish) kombinieren. Plan S ist eine internationale Initiative zur Beschleunigung von OA.
  • Open Science: Ein umfassendes Konzept, das darauf abzielt, den gesamten wissenschaftlichen Prozess transparent, nachvollziehbar und zugänglich zu machen. Es umfasst neben OA auch Open Data, Open Source, Open Methodology und Citizen Science.
  • Open Data: Frei zugängliche und nachnutzbare Daten, insbesondere aus dem öffentlichen Sektor (Open Government Data). Die Veröffentlichung folgt Prinzipien wie den FAIR-Datenprinzipien.
  • Open Educational Resources (OER): Frei zugängliche und nachnutzbare Bildungs- und Lehrmaterialien. Das 5R-Framework (Retain, Reuse, Revise, Remix, Redistribute) definiert die Freiheiten der Nutzung.

3. Social Web

  • Definitionen:
    • Web 2.0: Beschreibt eine veränderte Nutzung des Webs, die durch Nutzerpartizipation, soziale Interaktion und User-Generated Content (UGC) gekennzeichnet ist.
    • Social Media: Plattformen, die auf den Prinzipien des Web 2.0 basieren und soziale Interaktion ermöglichen (z. B. Wikis, Blogs, soziale Netzwerke).
  • Kommunikative Praktiken: Social Media unterstützen insbesondere Identitätsmanagement, Beziehungsmanagement und Informationsmanagement.

VI. Regulierungsformen von Wissen und Information

Der letzte Teil des Werks widmet sich den ethischen, rechtlichen und technologischen Rahmenbedingungen, die den Umgang mit Information und Wissen steuern.

1. Informationsethik

  • Definition: Eine angewandte Ethik, die sich mit allen moralisch relevanten Fragen im Zusammenhang mit dem Informationszyklus befasst.
  • Zentrale Werte und Themen:
    • Meinungs- und Informationsfreiheit: Das Recht, sich aus allgemein zugänglichen Quellen ungehindert zu unterrichten und Meinungen frei zu äußern.
    • Privatsphäre und informationelle Selbstbestimmung: Das Recht des Einzelnen, grundsätzlich selbst über die Preisgabe und Verwendung seiner personenbezogenen Daten zu bestimmen.
    • Informationsgerechtigkeit: Bekämpfung der digitalen Spaltung (Digital Divide) und Sicherstellung eines fairen Zugangs zu Information.
    • Urheberrecht vs. Allgemeininteresse: Abwägung zwischen dem Schutz geistigen Eigentums und dem Bedürfnis nach freiem Wissenszugang.

2. Rechtliche Rahmenbedingungen

  • Urheberrecht (UrhG): Schützt persönliche geistige Schöpfungen (Werke). Es gewährt dem Urheber Urheberpersönlichkeitsrechte (z. B. Recht auf Namensnennung) und Verwertungsrechte (z. B. Vervielfältigungs-, Verbreitungsrecht). Die Schrankenregelungen (§§ 44a ff. UrhG) erlauben bestimmte Nutzungen im Interesse der Allgemeinheit (z. B. Zitate, Nutzung für Unterricht und Forschung).
  • Datenschutz: In der EU durch die Datenschutz-Grundverordnung (DS-GVO) einheitlich geregelt. Sie basiert auf Grundsätzen wie Rechtmäßigkeit, Zweckbindung, Datenminimierung und Transparenz. Das Recht auf informationelle Selbstbestimmung wurde in Deutschland durch das Volkszählungsurteil des Bundesverfassungsgerichts 1983 als Grundrecht etabliert.
  • Informationsfreiheit: Das Recht auf Zugang zu amtlichen Informationen, geregelt durch Informationsfreiheitsgesetze (IFG) auf Bundes- und Landesebene.

3. Technologische Grundlagen

  • Hardware-Entwicklung: Die Leistung von Computern wird durch das Mooresche Gesetz beschrieben. Quantencomputer stellen einen potenziellen Paradigmenwechsel dar, da sie durch die Nutzung von Qubits exponentielle Leistungssteigerungen versprechen.
  • Internet-Protokolle:
    • TCP/IP: Das grundlegende Protokollpaket für die Datenübertragung im Internet.
    • DNS (Domain Name System): Übersetzt für Menschen lesbare Domain-Namen in maschinenlesbare IP-Adressen.
    • HTTP (Hypertext Transfer Protocol): Das Anwendungsprotokoll zur Übertragung von Web-Inhalten.
  • Webtechnologien:
    • HTML: Die Standard-Auszeichnungssprache zur Erstellung von Webseiten.
    • XML: Eine flexible Metasprache zur Definition eigener Auszeichnungssprachen.
    • OAI-PMH: Ein Protokoll zum Sammeln (Harvesting) von Metadaten aus Repositorien.

4. Informationspathologien

  • Desinformation vs. Fehlinformation: Desinformation (Disinformation) ist die absichtliche Verbreitung falscher Informationen mit dem Ziel zu täuschen. Fehlinformation (Misinformation) ist die unabsichtliche Weitergabe falscher Informationen.
  • Plagiate: Die unrechtmäßige Übernahme fremden geistigen Eigentums.
    • Erkennungsmethoden: Man unterscheidet extrinsische (Vergleich mit einer Referenzkollektion) und intrinsische Verfahren (Analyse von Stilbrüchen innerhalb eines Dokuments). Extrinsische Verfahren nutzen oft N-Gramm-Vergleiche und Websuchmaschinen zur Kandidatensuche.
  • Bekämpfung von Desinformation: Ansätze umfassen Faktenchecks, die Förderung von Medien- und Informationskompetenz sowie präventive Strategien (Prebunking), die Menschen vor der Konfrontation mit Falschinformationen über gängige Manipulationstechniken aufklären.

Information zu Autoren / Herausgebern

Dirk Lewandowski (* 1973) ist ein deutscher Informationswissenschaftler.

Wikipedia (DE): Dirk Lewandowski

Rainer Kuhlen, Konstanz; Wolfgang Semar, FH Graubünden, Schweiz; Christa Womser-Hacker, Hildesheim.

Fachgebiete: Bibliotheks- und Informationswissenschaft, Buchwissenschaft , Informationswissenschaft

Erstellt: 28.11.2025 - 08:12  |  Geändert: 18.12.2025 - 22:23