13.1 Zum Begriff Big Data und Datafizierung
Unter dem Schlagwort Big Data werden fortgeschrittene informatische Entwicklungen subsumiert. Digitalisierungsstrategien sollen zu einer Transformation des Gesundheitswesens führen, mit der eine Erweiterung des Gesundheitsverständnisses einhergeht. Die gesamte Lebensweise soll in den Gesundheitsdiskurs einbezogen werden. Disponiert wird er von der Idee einer umfassenden Datafizierung aller Lebenssphären. Daten sollen auf einer symbolischen Sphäre versammelt, miteinander vernetzt werden und eine logistische Steuerung erfahren. Das gesamte Gesundheitswesen, von der medizinischen Praxis und Forschung, über die Pflege und Prävention bis zur Biopolitik ist von dieser Transformation betroffen. Eine datenbasierte Medizin rückt nicht nur Krankheit und Verletzung, sondern auch den mehr oder weniger gesunden Normalzustand in den Fokus, der erhalten und verbessert werden soll. Mit der Idee einer Präventionsmedizin geht nicht nur eine Überwachung unseres körperlichen Zustandes, sondern auch unserer Lebensweise einher.
Die Rede von Big Data bleibt jedoch nicht nur bildungssprachlich, sondern auch in der Wissenschaft vage. Big Data ist ein Schlagwort, das andere informationstechnische Schlagworte abgelöst hat und wohl selbst demnächst durch ein anderes, etwa „smart data“, ersetzt wird. Bei technischen Neuerungen kommt es zu perspektivischen Verschiebungen, die nicht immer den Neuheitsanspruch einlösen, den sie erheben. Wir können von technischen Konzepten, die auch ökonomisch und politisch getriebenen sind, nicht die Haltbarkeit philosophischer Konzepte erwarten, müssen uns aber bemühen, Vagheiten einzuschränken, um zu einem wissenschaftlich sinnvollen Gebrauch zu gelangen.
Die V-Charakteristika volume, velocity, variety, validity, value etc. sollen auf den Punkt bringen, was Big Data gegenüber anderen informatischen Entwicklungen auszeichnet. Sie suggerieren einen spezifischen Charakter, der größtenteils aber auch auf relationale Datenbanken zutrifft. Big Data bezeichnet ein Dominantwerden automatisierter Verarbeitung großer Datenmengen. Es ist aber Skepsis angebracht, Charakteristika an Alliterationen anstatt der Sache auszurichten.
Big Data kann als Integrationsbegriff verstanden werden, insofern er es ermöglicht, Fragestellungen fortgeschrittener informatischer Konfigurationen unter dem Aspekt der Analyse großer Datenmengen zu diskutieren. Dabei soll der metaphorische Begriffsgebrauch seine integrative Leistung erhöhen. Als Reflexionsbegriff wird mit Big Data ein Verhältnis bestimmt, das wir zu einem Objektbereich einnehmen, wobei wir nicht objekt-, sondern relationsreferierend sind, also auf Beziehungen zum Objekt referieren.
Big Data steht für die Zunahme digitaler Daten, die mittels Sensoren oder durch die Auswertung von Texten, Tönen und Bildern in vernetzten Medien erhoben werden. Ständig entstehen digitale Datenspuren und werden Metadaten über unser Nutzungsverhalten generiert. Die so entstehende Datenmasse ist unstrukturiert, heterogen und komplex. Es handelt sich jedoch weniger um einen Datenberg als um eine ständig wachsende Zahl ubiquitär gespeicherter Daten und einen wachsenden Datenstrom. Eine neue Dimension erreicht die Verarbeitungsgeschwindigkeit, wenn es zu Echtzeitanalysen fließender Datenströme kommt. Die Herausforderung von Big Data besteht weniger in der Sammlung und Archivierung großer Datenmengen als vielmehr in deren Analyse, Verarbeitung und Verwertung in Echtzeit.
Big Data steht auch für den Totalanspruch gegenwärtiger Digitalisierungs- und Vernetzungsbegehren, die sich nicht zuletzt in zunehmender Überwachung, Intransparenz, Automatisierung sowie Delegation von Entscheidungsprozessen an Systemtechnologien äußern. Ein sinnvoller wissenschaftlicher Gebrauch des Begriffs fokussiert die Mustererkennung in dynamischen, sich wandelnden heterogenen Datenflüssen sowie die Steuerung von Prozessen in Echtzeit. Wichtig sind dabei Verfahren des maschinellen Lernens, das sich durch Selbstorganisation und Autoadaptivität auszeichnet. Es soll auf unbekannte Datenmassen adaptiv reagieren, was eine Variation und Generierung von Verarbeitungsregeln einschließt.
Wenn von Big Data gesprochen wird, sollten Technologien zum Einsatz kommen, durch die Mustererkennung, Informationskorrelationen und Strukturvorschläge möglich werden, die menschliche Akteure auch mit hohem Zeitaufwand kaum finden können. Mustererkennung ist in medizinischen Kontexten von großer Bedeutung. Es geht v. a. um die Erfassung von Typologien, die auf Krankheitsbilder schließen lassen. Auch wenn traditionelle Verfahren der Datenanalyse weiterhin genutzt werden, so genügen diese nicht den Leistungsanforderungen von Big Data.
Big Data ist untrennbar mit der Datafizierungsidee verknüpft. Die ganze Welt, von physikalischen über soziale bis zu psychischen Phänomenen, soll in Daten erfasst und in eine kalkulierbare Sphäre binärer Codierungen gebannt werden. Während Digitalisierung die berechenbare Struktur alles Seienden betrifft, ist Datafizierung das intentionale Korrelat zur Digitalisierung, das auf die Welt jenseits der Sphäre binärer Codierungen verweist. Daten gehören aber als quasi atomarer Grundbestand für die kalkulierende Erfassung, Kontrolle und Steuerung der digitalen Sphäre an. Ziel der Datafizierung ist die totale Berechenbarkeit aller Welt- und Lebensprozesse, inklusive der Vorhersage künftiger Ereignisse. Dabei sollen qualitative in berechenbare quantitative Bestimmungen überführt werden. Die Datafizierungsidee hat eine Vorgeschichte, die mit der Mathematisierung der Naturverhältnisse ihren Anfang nahm und in Laplace‘ Idee einer totalen Berechenbarkeit der Welt einen ersten Höhepunkt erlebte. In Leibniz „chracteristica universalis“ wird mit der Präsentation von Gegenständen und Sachverhalten durch Zeichen eine pragmatische Absicht verfolgt. Durch die Übertragung sollen diese berechenbar und handhabbarer werden [1]. Mit der Idee einer besseren Sachbeherrschung ist ein metaphysischer Anspruch verbunden, der bis heute Geltung beansprucht, nämlich, dass auch das historische und biologische Leben restlos erfasst und berechnet werden kann. Die Datafizierungsidee geht mit der Totalerfassung alles ontologisch Bestimmbaren einher, was Rafael Capurro in der Formel „esse est computari“ zu fassen versucht [2].
Was der Gedanke einer umfassenden Datafizierung jedoch ausblendet ist die Widerständigkeit der Dinge und Sachverhalte, die sich nicht unserem berechnenden Zugriff fügen. Wo Daten erhoben und artikuliert werden, werden andere Daten desartikuliert. Alle Erkenntnis beruht auf Artikulationen und Desartikulationen. Neue Erkenntnisse werden nicht notwendigerweise durch ein mehr an Daten gewonnen, sondern aufgrund einer Neueinschätzung, Neurelationierung bzw. Neuhierarchisierung der Elemente eines Sachverhaltes. Daten stehen nicht für die Sache selbst, sondern für das, was von ihr unter bestimmten Intentionen gegeben ist. Jedem Messvorgang geht eine Entscheidung über das zu Messende voraus.
13.2 Grenzen der Datafizierung
Es geht nun um eine kritische Auseinandersetzung mit der Nutzung großer Datenmengen in der Medizin, was nicht bedeutet, dass der Sinn dieser Nutzung infrage gestellt wird, sondern dass sie eine kritisch-unterscheidende Begleitung erfährt, um einen Beitrag zu leisten, Ansprüche zu begrenzen und die Systementwicklung auszudifferenzieren. Auch wenn es Gründe gibt in der digitalen Transformation von Medizin und Gesundheitswesen mehr als eine Erweiterung und Verbesserung bestehender Werkzeuge zu sehen, darf nicht übersehen werden, dass es sich bei modernen informatischen Systemtechnologien auch um Werkzeuge handelt, die dem Zweck dienen, medizinische Versorgung effizienter zu betreiben und finanzierbar zu halten. Systemanwendungen bleiben an Zwecke gebunden. Bei jedem Versuch sie zu realisieren, stellt sich aber die Frage, ob das genutzte Werkzeug den Zweck erfüllt oder nicht.
Die Hoffnung, die chronisch unscharfe Auslegung von Befunden durch kalkulierende und objektivierende Verfahren überwinden zu können, erfährt derzeit einen Höhenflug. Dabei ist aber zu bedenken:
- –
Es gibt keine vollständige Verdatung eines Sachverhaltes. Überall, wo etwas durch eine Messung artikuliert wird, wird anderes desartikuliert. Was messrelevant ist, wird zuvor entschieden bzw. vom System entsprechend seiner Einrichtung generiert.
- –
Der Mikro- wie der Makrokosmos ist unendlich ausdifferenzierbar. Jedes System kann aber nur mit endlich vielen Daten arbeiten.
- –
Grundsätzlich ist die Möglichkeit einer Fehlübertragung von Messdaten gegeben. Es können Sensoren gestört sein oder Fehlzuordnungen vorgenommen werden. Selbst wenn das Problem der Datenfehlübertragung technisch abgemildert werden kann, kann es niemals ausgeschlossen werden. Mit automatisierten Aktionen über Aktoren, die auf Analysate reagieren, sind Gefahren verbunden, da die reflexiv gebremste menschliche Realisierungsinstanz fehlt.
Daten, die einer Analyse zugrunde liegen, erfahren eine Selektion. Jedes Ergebnisangebot ist ein Konzentrat, das aufgrund von Datenpräferenzen zustande kommt. Auch wenn die Möglichkeit besteht, die Zahl der Messungen von Vitalwerten enorm zu erhöhen, können nicht alle intrakorporalen Prozesse erfasst werden. Im Übrigen stellt sich die Frage, inwieweit die Hardware des Messinstruments bzw. -implantats die Werte, die es erfassen soll, beeinflusst.
Die eigenständige Generierung von Regeln beim maschinellen Lernen hängt von der Erfassung des Problems ab, das gelöst werden soll. Die Problemerfassung kann jedoch falsch sein. Sybille Anderl erinnert an eine Präsentation, die Thomas Wiegand vom Fraunhofer Heinrich Hertz-Institut 2017 bei einer Berliner Big Data-Tagung bot: „Ein selbstlernendes System sollte vorhersagen, ob eine erkrankte Person als Risikopatient bei einer Lungenentzündung sofort behandelt werden muss. Nach der Trainingsphase, die auf der Grundlage von über 14.000 echten Patientendatensätzen erfolgte, kam das System zu dem Ergebnis, dass Personen mit Asthma, Brustschmerzen und Herzproblemen nicht als Risikopatienten einzuordnen sind – ein Resultat, das offenbar jeder Intuition zuwiderläuft. Der Grund für die Fehleinschätzung war, dass diese Menschen mit Vorerkrankung von vornherein regelmäßig zum Arzt gehen und daher im Vergleich zu einem gesunden Menschen einem geringeren Risiko unterliegen, an einer Lungenentzündung zu sterben. Sofern diese Tatsache aber dazu führen würde, dass die entsprechenden Patienten im Krankenhaus bevorzugt abgewiesen würden, wäre dies offenbar fatal. Bei allen beeindruckenden Erfolgen lernender Algorithmen (…), scheint also zu gelten: Blindes Vertrauen kann gefährlich sein, auch intelligente Algorithmen sollten wir kritisch im Auge behalten.“ [3]
Ungeprüfte Anwendungen können in der Medizin nicht nur zu Fehleinsichten führen, sondern fatale Folgen zeitigen, wenn in automatisierten Verfahren über Aktoren auf Analysate reagiert wird. Analysate basieren einerseits auf perspektivischen Zugriffen über Sensoren, andererseits auf Algorithmen, die nach bestimmten Präferenzen entwickelt wurden. Die Zwecke, die damit erreicht werden sollen, sind Ausdruck außerinformatischer Intentionen.
Zwischen Datum und Wirklichkeit bleibt eine Lücke, die weder durch vermehrte Messungen noch durch informatische Verfahren, sondern nur in praktischen Verhältnissen zu schließen ist. Nur die Situationserfassung und Intuition des Arztes können in Notfallsituationen die richtige Handlungspräferenz setzen. In einer datenbasierten Medizin wird die Fähigkeit des Arztes zur Systemkritik von entscheidender Bedeutung sein. Es geht dabei um den Erhalt der eigenen Steuerungs- und Kontrollkompetenz.
Die Analyse großer Datenmengen in der Medizin kündigt einen Wandel unserer Vorstellung von Gesundheit und damit auch unseres Selbstverständnisses an. Der Glaube an die Berechen- und Gestaltbarkeit des Lebens sowie die Überwindung der Schicksalhaftigkeit unserer physischen Existenz erhält durch Big Data einen Schub. Unser Wissen über physiologische Entwicklungen und körperliche Leistungs- und Widerstandsfähigkeit soll präziser werden. Analysate sollen helfen gesünder zu leben, aber auch allgemeinen Interessen dienen, wie der Erhaltung der ökonomischen und sozialen Leistungsfähigkeit der Bevölkerung. Krankheit, Behinderung und Alterung sollen verhindert, verkürzt oder aufgeschoben, der Gegensatz von Gesundheit und Krankheit aufgehoben werden. Gesundheit wird als optimierbares Potenzial begriffen, als Möglichkeit seine private und gesellschaftliche Rolle optimal auszuüben. Präventionsmedizin impliziert die Bereitschaft, Gesundheit observieren zu lassen und die Möglichkeit, Krankheit als Schuld zuzurechnen.
13.3 Exemplarische Anwendungen von Big Data
Nennen wir exemplarisch drei Beispiele, in denen Big Data-Technologien zum Einsatz kommen: In der Anästhesie sollen durch die Ü...