Author: jhoechtlduk

Research fellow of Danube University Krems, Lower Austria, Centre for eGovernment

ODI Summit 2015

Das Open Data Institute (ODI) hat auch 2015 wieder zum ODI Summit eingeladen – und das Zentrum für E-Governance als Teil des ODI Node Vienna war dabei.

IMG_20151103_092932

Die Eröffnung wurde von Sir Tim Berners Lee und Sir Nigel Shadbolt, geistige Gründerväter des Open Data Institutes vorgenommen. In ihrer Eröffnungsrede wiesen sie auf die Bedeutung offener Daten für Innovation hin und betonten, dass offenen Daten auch ein Machtinstrument sind, welches entsprechend eingesetzt werden kann und sollte. Im Fahrwasser von Open Data gewinnt eine weitere Diskussion zunehmend an Bedeutung: Das Spektrum von geschlossenen Daten bis hin zu offenen Daten als Input für Big Data Analysen. Vom ODI wurde in diesem Zusammenhang das Open Data Spektrum erstellt, eine Übersicht der Anwendungsbereiche von Daten und eine Übersicht für Entscheidungsträger und Wirtschaftstreibende um diesen die Angst davor zu nehmen, das Daten nicht automatisch immer “offen” bedeuten muss.

data-spectrum-slides_20161118

Eine wichtige Erkenntnis des Summits war auch, dass die Öffentlichkeit zwar rohe Daten möchte – daneben verlangt sie aber vor allem auch Antworten auf brennende Fragen, ein Aufruf an Wirtschaft und DatenwissenschatlerInnen Lösungen zu produzieren, die einen Mehrwert stiften. Eine häufig auftretende Anforderung von Anwendungen offener Daten ist es, Daten mit anderen Bereichen zu verschneiden. Daten er öffentlichen Verwaltung werden dabei selten mit eindeutigen Kennzeichnern veröffentlicht, was deren Verschneidung schwierig macht. ThomsonReuters hat mit dem permID (permanent Identifier) ein Projekt gestartet, bei dem öffentliche Daten mit stabilen Identifiern (URI‘s) ausgestattet werden. Für ApplikationsentwicklerInnen soll es damit in der Zukunft einfacher sein, Daten verschiedener Bereiche mit einander zu verknüpfen.

ODI Node Vienna am Summit

Der ODI Node Vienna, eine gemeinsame Initiative der Donau-Universtiät Krems, der WU Wien, der TU Wien und der Semantic Web Company, ist seit Juni 2015 Mitglied des ODI Node Netzwerks. Geimeinsam mit Vertretern anderer Nodes wurde besprochen, welche Projekte für das nächste Jahr geplant sind, wie der Informationsaustausch zwischen den Nodes optimiert werden kann und vor allem welcher Mehrwert von den Nodes den StakeholderInnen in den jeweiligen Niederlassungen geboten werden kann. Viel Beachtung  unter den anderen Nodes fand ein von der FFG gefördertes und von den Node-Partnern Donau-Universtiät Krems, WU Wien und Semantic Web Company eingebrachtes Projekt zur Steigerung der Datenqualität. ADEQUATe wird in den nächsten 28 Monaten Prozesse identifizieren, Werkzeuge kreieren und Standards umsetzen, um die Qualität von Daten und Metadaten auf offenen Datenportalen zu steigern. Die Ergebnisse werden zuerst für die Portale data.gv.at und opendataportal.at bereitstehen, in der Folge aber veröffentlicht werden und somit nutzenstiftend für alle Datenportalbetreiber sein.

Wir sind (auch) ODI-Node

Das Open Data Institute (ODI) wurde 2012 von Sir Tim Berners Lee (Erfinder des WWW) und Sir Nigel Shadbolt unter tatkräftiger Unterstützung des damaligen UK Premierministers Gordon Brown gegründet. Zielsetzung des ODI ist es die Vorteile offener Daten in spezifische Bereiche von Gesellschaft und Industrie zu etablieren. Um die Vorteile offener Daten nutzen zu können müssen die Daten in einer Form und einem Umfang bereitgestellt werden, um für NutzerInnen (Privatpersonen und Wirtschaftstreibende) jenen Mehrwert zu bieten damit diese aussagekräftige Visualisierungen und wirtschaftlich tragbare Implementierungen entwickeln können. Dazu ist eine Reihe von Fähigkeiten notwendig, wie beispielsweise Programmierkenntnisse, Analysefertigkeiten oder Statistikkenntnisse. Das ODI bietet dazu eine Reihe von Trainingsaktivitäten an, um Datenbereitstellern bei der  Veröffentlichung von Daten zu unterstützen und Datenverwendern in Trainingseinheiten jenes Wissen zu vermitteln um aus den Daten Mehrwert zu generieren.

ODI goes International

Rechtliche und organisatorische Rahmenbedingen der Veröffentlichung  offener Daten sind maßgeblich abhängig vom jeweiligen Land, ebenso wie Bildungsstand oder die Startup-Kultur. Das ODI hat daher 2014 begonnen ihre Aktivitäten international zu verstärken und zur Gründung von Nodes aufgerufen. Seit Juni 2015 hat Österreich mit dem ODI Node Vienna auch in Österreich einen Ableger, wir haben berichtet.

ODI Node Vienna

Der ODI Node Vienna wird gebildet von den Institutionen WU Wien, TU Wien, Semantic Web Company und der Donau-Universität Krems. Aktivitäten sind die österreichspezifische Vermittlung der von ODI London erstellten Strategieelemente, die Weitergabe von Erfahrungswerten anderer Nodes sowie eigene Erkenntnisse in das Netzwerk mit einzubringen. Ein erster Beitrag ergibt sich aus dem von der FFG-geförderten Projekt ADEQUATe, das sich mit der Verbesserung der Qualität offener Daten durch in Prozesse eingebundene Werkzeuge, die wiederum Standards (z.B. CSV on the Web) durchsetzen, beschäftigt.

Der ODI Node Vienna wiederum versucht verschiedene Aktivitäten zu bündeln, so werden die vom opendataportal.at ins Leben gerufenen Community-Treffen mit den Friday Lunch-Lectures zusammengelegt. Monatlich wird im Rahmen dieser Friday Lunch Lectures wissenswertes aus der Welt von Open Data kostenfrei an Interessierte vermittelt. Zielsetzung ist neben der Vermittlung von Open Data relevanten Inhalten auch der Erfahrungsaustausch und das Netzwerken.

10978461916_b9511bff64_z-300x200

Die nächste Friday Lunch Lecture findet am 27. November von 13-14 Uhr an der TU Wien, Seminarraum 183/2, Favoritenstraße 9-11, Stiege 1, 4. Stock zum Thema “Wie publiziere ich CSV-Dateien richtig im Netz” statt. Weitere Informationen und Anmeldung hier.

Datenqualität als EU-Diskussionsthema

Vom 16. – 17. 3. fand in Timisoara das dritte SharePSI treffen zum Thema Open Data Priorities and Engagement statt. Mehrere Themen des Workshops waren dem Thema Qualität offener Daten gewidmet.

12613244714_e8aeaae99c_m

(c) https://www.flickr.com/photos/dreamsjung/

Ausgehend von den Qualitätsdimensionen offener Daten wurde breiter Raum der Richtung der Qualitätsmessung gewidmet. Qualität sollte primär eine Metrik sein, die von den Nutzern selbst bestimmt wird und drückt sich beispielsweise durch eine niedrige Anzahl von Fehlerberichten gegenüber dem Datenbereitsteller im Verhältnis zur Verwendung aus. Neben diesem ausschließlich durch die NutzerIn bestimmten Qualitätsbegriff existieren einige Versuche Datenqualität greifbar zu machen.

Das Open Data Institute (ODI) veröffentlichte 2014 das Open Data Certificate, das eine Reihe von Qualitätsindikatoren beschreibt. Zu diesen zählen die Bereitstellung der Daten in einer offenen Lizenz oder die Tatsache, dass die Daten keine personenbezogenen Informationen enthalten. Zusätzlich wird noch die Beständigkeit der Daten ausgewiesen und wie rasch Datensätze nach Erhebung tatsächlich veröffentlicht werden. Besonders interessant ist die Tatsache, dass die Einbindung der Öffentlichkeit ebenfalls als Qualitätskriterium herangezogen wird, so beispielsweise ob Fehler nachvollziehbar und öffentlich einsehbar gemeldet werden können oder ob es ein Forum zur Diskussion über den Datensatz gibt.

Ein weiterer Aspekt von Qualität ist die Relevanz, die ausdrückt, wie oft ein Datensatz verwendet wird und welche Art von Lösungen daraus entstehen. Als schwierig zu erhebenden Qualitätsbegriff stellt sich die Vollständigkeit dar, da die Vollständigkeit von Daten  vom jeweiligen Anwendungsfall abhängig ist. Die Diskussion identifizierte weiters, dass der Qualitätsbegriff sowie der Nutzen von im Verlauf der Zeit Änderungen unterworfen ist. Abschließend wurde festgehalten, dass Linked Data bzw. das 5-Sterne-Modell von Tim Berners-Lee zwar einen guten Anhaltspunkt im Bezug zu Qualität geben kann, aber nicht ausreichend ist, um Datenqualität umfassend zu beschreiben. Linked Data sind Datensätze, die mit URIs verbunden werden. Die Verarbeitbarkeit von offenen Daten hängt aber maßgeblich von der Granularität der beschriebenen Entitäten innerhalb der Daten selbst ab und wird nicht nur durch die Tatsache bestimmt, dass einzelne Datensätze miteinander verbunden werden.

Als Ergebnis des Workshops zu Datenqualität wurden im Bezug zu Datenqualität Prioritär diese drei Themenbereiche identifiziert:

  1. Verfügbarkeit
    Ist der Datensatz im Zeitverlauf verfügbar?
    Sind Lizenzinformationen zum Datensatz verfügbar?
    Gibt der Datenbereitsteller Angaben zur Absicht der langfristigen Verfügbarkeit der Daten?
    Ist die BenutzerIn gezwungen eine Form der Authentifizierung durchzuführen oder gibt es sonstige Zugriffsbeschränkungen wie Captchas?
    Erlaubt der Datensatz eine freie Weiterverwendung?
  2. Maschinelle Verarbeitbarkeit
    Das 5-Sterne-Modell von Tim Berners-Lee zwar einen guten Anhaltspunkt im Bezug zu Qualität geben kann, aber nicht ausreichend ist, um Datenqualität umfassend zu beschreiben.
  3. Exaktheit (accuracy), Konsistenz (consistency) und Relevanz (relevance)

Das Zentrum für E-Governance beschäftigt sich im Rahmen der Cooperation OGD Östereich intensiv mit dem Thema Datenqualität von offenen Datenportalen und wird dazu im Rahmen des kommenden 4. Treffens des SharePSI-Projektes in Krems (co-located mit der CeDEM15) einen Workshop abhalten.

SharePSI Meeting Krems

Share PSI 2.0 ist ein EU- gefördertes Netzwerk unter Leitung von W3C mit dem Ziel, die Nutzung freigegebener öffentlicher Daten zu fördern und die Interoperabilität zu verbessern. Das Netzwerk besteht aus 45 europäischen Partnern, unter anderem sind aus Österreich die Donauuniversität Krems und das Bundeskanzleramt in das Projekt involviert. Im Rahmen von Workshops werden relevante Themenbereiche beleuchtet und Empfehlungen gegeben.

logo

The Share-PSI 2.0 workshops schedule:
Venue Date Broad Topic
Samos, hosted by University of the Aegean and collocated with the Samos Summit 30 June -1 July2014 Uses of open data within government for innovation and efficiency
Lisbon, hosted by the Portuguese Government 3 – 4 December2014 Encouraging data usage by commercial developers

Workshop to include a half day session with the European Thematic Network on Legal Aspects of Public Sector Information,LAPSI

Timisoara, Romania, hosted by the West University 16 – 17 March 2015 Identifying Data Sets for Publication Open Data Priorities and Engagement
Krems, Austria, hosted by the Danube University and collocated with CeDEM 2015, Registration now open 20 – 21 May 2015 A self sustaining business model for open data
Berlin, hosted by Fraunhofer Fokus November 2015 Maximising interoperability: core vocabularies, location-aware data and more

Im Mai 2015 wird die Donau-Universität Krems den  Workshop „A self sustaining  business model for open data“ hosten.

Ziel des Workshops in Krems ist es, verschiedene kommerzielle Re-User mit ihrem Business-Modell vorzustellen und deren Bedarf im Rahmen der PSI Verwendung den datenhaltenden öffentlichen Stellen näher zu bringen.

Die Registrierung für den Workshop in Krems ist jetzt möglich!

Qualität von offenen Datenportalen [WISSEN]

Ein WISSEN-Artikel von Johann Höchtl (Wissenschaftlicher Mitarbeiter)

Offene Daten wurden und werden zunehmend zu einer wichtigen Ressource. Einerseits für die Verwaltung, die selbst Datenbereitsteller ist und sich damit transparent und offen darstellen möchte, darunter fallen Daten der Budgeterstellung, Ergebnisse von Gemeinderatswahlen, Förderberichte oder Gehalts- und Entlohnungsansätze von Verwaltungsbediensteten.

 

quality.3
Abb. 1: Infografik zu den Zielen des Mission Statements der Sub-Arbeitsgruppe Qualitätssicherung von Open Data Portalen

 

Diese Art von Daten sollen es den Bürgerinnen und Bürgern ermöglichen, sich über die Arbeit der Verwaltung ein Bild zu machen, deren Tun zu kontrollieren und in Beteiligungsverfahren durch zusätzliche Informationen einen qualitativ höherwertigen Beitrag leisten zu können. Ein weiterer Anwendungsbereich offener Daten ist als Quelle für Wirtschaftstreibende, die die Daten als Ausgangsbasis für neue oder verbesserte Dienstleistungen nutzen können. Diesem Anwendungsfeld wird großes Potential ausgesprochen, die von 2010-2014 zuständige Kommissarin zur Umsetzung der Digitalen Agenda Neelie Kroes spricht in diesem Zusammenhang von Daten als das Öl des 21. Jahrhunderts.

Um dieses Potential zu schöpfen müssen noch wesentlich mehr Daten in hoher Qualität veröffentlicht und diese durch die DatennutzerInnen mit intelligenten Auswertungsmethoden analysiert werden. Die Cooperation OGD Österreich hat dazu eine Sub-Arbeitsgruppe gebildet, die sich mit Qualitätsdimensionen offener Daten auseinandersetzt. Dazu gehört der Qualitätsaspekt der Beschreibung von Daten (Metadaten) als auch die Daten selbst (siehe Abb. 1). So steigt die Nutzbarkeit von Daten wesentlich, wenn Beispielsweise die Felder von CSV Dateien ausführlich beschrieben sind, die Dateien selbst eine einheitliche Struktur aufweisen und Datenfelder wie Datums- oder Ortsangaben in einer einheitlichen und maschinenverarbeitbaren Form angegeben werden. Zukünftig ist es denkbar durch semantische Technologien und mit Einbeziehung des Wissens der DatennutzerInnen auf einem Open Data Communityportal noch mehr an nützlichen Hintergrundinformationen den Daten zu hinterlegen um diese auch für Nicht-TechnikerInnen einfacher zu erschließen (siehe Abb. 2).

 

flow
Abb. 2: Die Grafik bietet einen Überblick zum Open Data Big picture, den Stakeholdern, Informationsflüssen und Angriffspunkten für Qualitätsmaßnahmen. (Quelle: data.gv.at)

 

(more…)