Wie die Datenanalyse wissenschaftliche Schlussfolgerungen beeinflusst
Was passiert, wenn 70 Forscherteams unabhängig voneinander denselben Datensatz analysieren, um dieselben Hypothesen zu testen? Nahezu 200 Wissenschaftlerinnen und Wissenschaftler aus aller Welt haben untersucht, wie die Art der Datenanalyse das Endresultat beeinflusst. Die Ergebnisse der Studie wurden heute in der renommierten Fachzeitschrift Nature veröffentlicht.
Durch die Corona-Pandemie hat in den letzten Monaten ein großer Teil der Bevölkerung den wissenschaftlichen Erkenntnisprozess in Echtzeit mitverfolgen können. Anders als nur das Endergebnis einer Forschungsarbeit zu sehen, kann derzeit die breite Öffentlichkeit Schritt für Schritt miterleben, wie neue Daten analysiert werden, wie Ergebnisse revidiert und neu eingeschätzt werden. Das hat unter anderem zur Folge, dass verschiedene Experten unterschiedliche Prognosen liefern, über die Ausbreitung des Virus, den Verlauf der Krankheit, Auswirkungen auf die Wirtschaft – und damit auch voneinander abweichende und zum Teil sogar einander widersprechende Empfehlungen, wie man der Gefahr am besten begegnet.
»Der wissenschaftliche Prozess umfasst viele Schritte: Eine Theorie wird entwickelt, Hypothesen erstellt, schließlich Daten gesammelt und ausgewertet«, erklärt Prof. Simon Eickhoff vom Jülicher Institut für Neurowissenschaften und Medizin. »Jeder dieser Schritte kann die endgültigen Schlussfolgerungen potenziell beeinflussen, aber in welchem Umfang? Werden zum Beispiel verschiedene Forscher auf der Grundlage derselben Daten und Hypothesen zu unterschiedlichen Schlussfolgerungen kommen?«
Nahezu 200 Forschende aus Neurowissenschaften, Psychologie, Statistik und Wirtschaft haben sich zusammengeschlossen, um Antworten auf diese Fragen zu finden. In einer großangelegten Studie haben sie untersucht, wie sich die Art der Datenanalyse auf die Ergebnisse auswirkt. Verwendet wurden Daten der bildgebenden Hirnforschung, speziell der funktionellen Magnetresonanztomographie (fMRI).
Prof. Simon Eickhoff
Quelle: Forschungszentrum Jülich / Sascha Kreklau
Die komplexen fMRI-Datensätze stammten von 108 Teilnehmern einer Studie zur finanziellen Entscheidungsfindung der Universität Tel Aviv. Die Datensätze wurden an 70 Analyseteams aus der ganzen Welt verteilt, darunter drei Teams aus Simon Eickhoffs Institut. Jedes Team analysierte unabhängig dieselben Daten: Dabei verwendeten sie jeweils ihre Standard-Analysemethoden, um neun vordefinierte Hypothesen zu testen. »Bei jeder dieser Hypothesen wurde gefragt, wie sich bestimmte Aspekte der Entscheidungsfindung auf die Hirnaktivität auswirken«, erläutert Eickhoff. »Beispielsweise: Ändert sich die Aktivität in einer bestimmten Gehirnregion der Probanden, wenn es darum geht, wieviel Geld sie bei einer Entscheidung gewinnen oder verlieren könnten? Ja oder Nein?«
Die Analyseteams hatten drei Monate Zeit, um die Daten auszuwerten. Danach lieferten sie ihre Ja-Nein-Resultate für die verschiedenen Hypothesen – zusammen mit detaillierten Informationen über die genaue Art und Weise, wie sie die Datensätze Schritt für Schritt analysiert haben, inklusive ihrer Zwischenergebnisse.
Die Ergebnisse der Analysegruppen variierten erheblich. Bei über der Hälfte der neun Hypothesen gab es erhebliche Meinungsverschiedenheiten: Zum Teil gelangten bis zu 40 Prozent der Teams zu einem abweichenden Resultat. »Die Zwischenergebnisse waren zum Teil sehr ähnlich«, erklärt Eickhoff. »Spätere Analyseschritte führen dann jedoch zum Teil zu einer unterschiedlichen Gewichtung. Da die Endresultate die Breite der Daten auf eine einfache Ja-Nein-Antwort reduzierten, hatte das zur Folge, dass selbst sehr ähnliche Zwischenergebnisse zu anderen Endresultaten führten.« Eine Metaanalyse, bei der Zwischenergebnisse von verschiedenen Teams kombiniert und gemeinsam ausgewertet wurden, führte wiederum zu ähnlichen Resultaten.
Nicht nur für die Neurowissenschaften interessant
Die Studie belegt zum ersten Mal, dass die Art der Analyse komplexer Neuroimaging-Datensätze einen starken Einfluss auf das Ergebnis haben kann – trotz identischer Ausgangsdaten und festgelegter Fragestellungen. »Der Grund dafür ist, dass Forscher bei so komplexen Datensätzen auf dem Weg zum Ergebnis viele einzelne Entscheidungen treffen müssen, wie die vorliegenden Daten verarbeitet, geordnet, modelliert, analysiert werden«, so Eickhoff. »Dass Metaanalysen zu konvergenteren Ergebnissen führen, ist besonders interessant. Die gemeinsame Analyse von Zwischenergebnissen einzelner Forschergruppen könnte in Zukunft die Hirnforschung voranbringen.«
Tatsächlich ist die Studie nicht nur für die Neurowissenschaften interessant. »Dieses spezielle Problem der Analyse betrifft alle Bereiche, in denen mit hochkomplexen Daten gearbeitet wird, die am Ende auf ein nacktes Ja-Nein-Resultat reduziert werden müssen«, erklärt Eickhoff. »Die in der Studie aufgezeigte Variabilität der Ergebnisse ist ein inhärenter Bestandteil des komplexen Prozesses wissenschaftlicher Arbeit. In einer immer stärker datenbasierten und spezialisierten Wissenschaft sind daher Kooperation und Transparenz essenziell.«
Die Tatsache, dass fast 200 Experten bereit waren, zum Teil Hunderte Stunden in eine kritische Selbstbewertung zu investieren, zeigt, wie stark die Wissenschaftler in diesem Bereich engagiert sind. »Wie die Covid-19-Pandemie derzeit deutlich macht, gibt es keinen Ersatz für die selbstkorrigierende wissenschaftliche Methode, um der globalen menschlichen Gesellschaft die Bewältigung der vor uns liegenden Herausforderungen zu ermöglichen – selbst unter Berücksichtigung der Unsicherheit, die dem wissenschaftlichen Prozess eigen ist.«
Sowohl Daten als auch verwendete Computercodes der Studie sind offen zugänglich. Alle Analysen sind komplett reproduzierbar.
Originalpaper: »Variability in the analysis of a single neuroimaging dataset by many teams«, Nature, 20 May 2020, DOI: 10.1038/s41586-020-2314-9.
Weitere Informationen:
»Neuroimaging Analysis, Replication and Prediction Study« (NARPS)
Institut für Neurowissenschaften und Medizin, Gehirn und Verhalten (INM-7)
3125 Artikel zu „Daten Analyse“
NEWS | DIGITALISIERUNG | KOMMUNIKATION
Datenanonymisierung: Mobilitätsanalysen im Kampf gegen Corona
Auf Basis anonymisierter und aggregierter Mobilfunkdaten, die keinerlei Rückschlüsse auf konkrete Personen zulassen, liefert Telefónica Deutschland gemeinsam mit Partnern wertvolle Mobilitätsanalysen. In der aktuellen Ausnahmesituation wegen Corona hat die Diskussion um Mobilitätsanalysen auf Basis von Mobilfunkdaten wieder Fahrt aufgenommen. Es geht um die Frage, ob und wie diese Analysen beim Eindämmen des Coronavirus helfen…
NEWS | BUSINESS INTELLIGENCE | DIGITALISIERUNG | TRENDS GESCHÄFTSPROZESSE | TRENDS 2019
Herkömmliche Daten- und Analysestrategien können die Anforderungen des Digital Business nicht erfüllen
Laut dem Research- und Beratungsunternehmen Gartner erwähnen heute weniger als 50 Prozent der dokumentierten Unternehmensstrategien Daten und Analysen als Schlüsselkomponenten, um Unternehmenswerte zu schaffen. Denn traditionelle Daten- und Analysestrategien erkennen die Anforderungen des Digital Business oft nicht. Moderne Daten und Analysen dienen einem breiteren Unternehmenszweck und sind stärker als je zuvor an die Arbeitsweisen…
NEWS | TRENDS KOMMUNIKATION | TRENDS MOBILE | DIGITALISIERUNG | EFFIZIENZ | TRENDS 2019 | INTERNET DER DINGE | KOMMUNIKATION | SERVICES
Früherkennung dank Datenanalyse: Mehrheit ist aufgeschlossen
Sechs von zehn Deutschen würden Vitalparameter zur Früherkennung von Krankheiten analysieren lassen. Jüngere am aufgeschlossensten. Früherkennung dank Digitalisierung: Intelligente Datenanalysen und maschinelles Lernen sollen in der Medizin schon bald helfen, Krankheiten schnell zu diagnostizieren und besser therapieren zu können. Auch die frühzeitige Erkennung von Gesundheitsrisiken wie etwaigen Stürzen in der Wohnung kann dadurch ermöglicht werden.…
NEWS | BUSINESS INTELLIGENCE | STRATEGIEN | AUSGABE 3-4-2019
Big Data im Alltag – Wie die Analyse großer Datenmengen unser aller Leben beeinflusst
Internetrecherche, Online-Shopping, Online-Verträge, Navi- und Gesundheits-Apps benötigen immense Mengen an Daten, um valide Ergebnisse zu liefern. Nahezu jeder Bereich des täglichen Lebens kann in Zukunft durch Big Data beeinflusst werden.
TRENDS WIRTSCHAFT | NEWS | BUSINESS | DIGITALE TRANSFORMATION | EFFIZIENZ | TRENDS SERVICES | TRENDS 2018 | KÜNSTLICHE INTELLIGENZ
Start-ups: Ohne KI und Datenanalyse kein wirtschaftlicher Erfolg
Gründer sehen herausragende Bedeutung der Technologietrends für die deutsche Wirtschaft. 4 von 10 deutschen Start-ups setzen bereits künstliche Intelligenz ein. Die Start-ups sind sich einig: Ohne künstliche Intelligenz und Datenanalysen ist der wirtschaftliche Erfolg deutscher Unternehmen bedroht. Jeweils 96 Prozent der deutschen Start-ups geben an, dass sowohl künstliche Intelligenz als auch Big Data eine große…
NEWS | BUSINESS | BUSINESS INTELLIGENCE | BUSINESS PROCESS MANAGEMENT | CLOUD COMPUTING | DIGITALISIERUNG | KOMMUNIKATION | KÜNSTLICHE INTELLIGENZ | SERVICES | STRATEGIEN
Mit Datenanalysen die Fußball-WM gewinnen: Warum Deutschland doch im Endspiel steht
Ob Orakel aus der Tierwelt oder Big-Data-Analysen: Vor großen Fußballturnieren gibt es interessante Ansätze, um einen möglichen Gewinner vorherzusagen, wenngleich die datenbasierten Methoden bislang immer bessere Ergebnisse lieferten. Im Fußball werden aber auch Training und Taktik immer stärker von Datenanalysen geprägt. Unternehmen sollten sich die innovativen Methoden aus der Sportwelt genauer ansehen, da hier das…
NEWS | BUSINESS INTELLIGENCE | DIGITALISIERUNG | EFFIZIENZ | KOMMUNIKATION | SERVICES | STRATEGIEN | AUSGABE 3-4-2018
Mit kognitiver Suche und Analyse vom daten- zum informationsgetriebenen Unternehmen
Die Datenmengen, die sich in Unternehmen anhäufen, werden immer größer und unübersichtlicher. Umso mehr kommt es deshalb auf die Methoden an, mit denen aus den Daten umsetzungsfähige Erkenntnisse und Antworten gezogen werden. Der Prozess hin zu einer effektiven Informationsarbeit indes ist noch alles andere als optimal.
NEWS | BUSINESS PROCESS MANAGEMENT | CLOUD COMPUTING | INTERNET DER DINGE | RECHENZENTRUM
Herausforderung Datenanalyse: Unternehmen in Deutschland laut Studie noch nicht IoT-bereit
Die Zahlen lassen kaum Zweifel: Mit 30 Prozent nutzt bereits ein knappes Drittel der Unternehmen in Deutschland IoT-Daten, 54 Prozent wollen dies innerhalb der nächsten drei Jahre tun. Fast drei Viertel (72 Prozent) planen, ihre IoT-relevanten Ausgaben zu erhöhen. Aktuell befinden sich 70 Prozent der Betriebe eher in einer Frühphase der IoT-Transformation, wobei größere Unternehmen…
NEWS | TRENDS SECURITY | BUSINESS | TRENDS CLOUD COMPUTING | TRENDS KOMMUNIKATION | TRENDS MOBILE | DIGITALISIERUNG | TRENDS GESCHÄFTSPROZESSE | GESCHÄFTSPROZESSE | INFRASTRUKTUR | TRENDS 2018 | INTERNET DER DINGE | IT-SECURITY | KOMMUNIKATION | SERVICES | STRATEGIEN
Verstärkter Einsatz von Cloud Solutions, IoT und Datenanalyse – das sind die Trends im Identitäts-Management für 2018
Was sind die wichtigsten Trends im Jahr 2018 im Bereich Identity-Technologie? Es geht um den verstärkten Einsatz von Zugriffen via Cloud und mobilen Systemen. Auch das Internet der Dinge und Datenanalysen gewinnen an Bedeutung. Digitale Zertifikate werden zu einer Kernkomponente für ein vertrauenswürdiges IoT. Das Konzept des Physical Identity & Access Management (PIAM) stellt…
NEWS | BUSINESS INTELLIGENCE | DIGITALISIERUNG | INTERNET DER DINGE | LÖSUNGEN | SERVICES | STRATEGIEN
Drohnen als Datenquelle für Big-Data-Analysen
»Drohne« ist eine etwas unglückliche und ungeschickte Bezeichnung für ein unbemanntes Flugobjekt oder Unmanned Aerial Vehicle – kurz UAV – zumindest unter Kenntnis der biologischen Zusammenhänge bei staatenbildenden Insektenvölkern. Dort haben Drohnen eine ganz andere Funktion als UAVs. Doch wie so oft hat sich der Begriff etabliert und wir müssen damit leben. Seit einigen Jahren…
NEWS | BUSINESS PROCESS MANAGEMENT | GESCHÄFTSPROZESSE | LÖSUNGEN | AUSGABE 3-4-2017
Effizienter Ansatz für Datenmanagement und Datenanalyse – Datenmanagement in der Schuhindustrie
Der Schuhhandel ist eine schnelllebige und komplexe Branche. Klar im Vorteil sind dabei Händler, die ihre Daten intelligent zu nutzen wissen und ihre Geschäftsprozesse danach ausrichten.
NEWS | BUSINESS | BUSINESS INTELLIGENCE | BUSINESS PROCESS MANAGEMENT | DIGITALISIERUNG | DIGITALE TRANSFORMATION | EFFIZIENZ | GESCHÄFTSPROZESSE | TRENDS 2017 | KOMMUNIKATION | LÖSUNGEN | ONLINE-ARTIKEL | SERVICES | STRATEGIEN | TIPPS
Tiefenanalyse der digitalen DNA: datengetriebene Agilität als Erfolgsfaktor
Eine neue Studie [1] will gleichsam das digitale Gen identifiziert haben, das digital exzellente Unternehmen und öffentliche Verwaltungen erfolgreicher macht als traditionell operierende Organisationen: datengetriebene Agilität. Mit diesem Begriff umschreiben die Studienautoren die Fähigkeit, auf volatile Rahmenbedingungen hochflexibel zu reagieren und zugleich kundenindividuelle Dienstleistungen quasi in Echtzeit zu erbringen. Und zwar auf der Grundlage eines…
NEWS | BUSINESS INTELLIGENCE | BUSINESS PROCESS MANAGEMENT | DIGITALISIERUNG | ONLINE-ARTIKEL | SERVICES | STRATEGIEN
Verknüpfung von BI und Big Data hebt Datenanalysen auf neues Niveau
Business-Intelligence-Systeme sind in vielen Unternehmen produktiv im Einsatz. Zusätzliche Auswertungsmöglichkeiten bieten Big-Data-Anwendungen. Der kombinierte Einsatz in Unternehmen ist noch die Ausnahme, das ungenutzte Potenzial aber immens, meint der IT-Dienstleister Consol Software GmbH. Mit Business-Intelligence (BI)-Lösungen, die eine systematische Auswertung von Daten unterstützen, können Unternehmen wichtige Erkenntnisse für die Optimierung ihrer Geschäftsprozesse gewinnen. Die Datenanalysen helfen…
LÖSUNGEN | AUSGABE 7-8-2016
Gutefrage.net – Bessere Usability durch Datenanalysen in Tableau
Gutefrage.net analysiert eine Vielzahl von Kennzahlen mit Tableau. Dadurch kann die Ratgeber-Community ihre Plattform besser auf die Anforderungen der User zuschneiden und die Akzeptanz neuer Funktionen testen. Dass die Fachbereiche weitgehend selbstständig mit der Datenanalyse-Software arbeiten, entlastet zudem die IT-Abteilung.
LÖSUNGEN | AUSGABE 7-8-2016
Open-Source-Big-Data-Lösungen – Analyse von Automotive-Messdaten beschleunigen
In der Autoentwicklung fallen bei Testfahrten sehr große Datenmengen an. Ihre Analyse stellt die Entwickler vor große Herausforderungen, die aber mit modernen Big-Data-Systemen und innovativen IT-Lösungen bewältigt werden können.
BUSINESS | BUSINESS INTELLIGENCE | STRATEGIEN | AUSGABE 1-2-2016
Business-Software und BI für den Mittelstand – Wettbewerbsfähig dank effizienter Datenanalyse
Im Mittelstand schreitet die Digitalisierung zögerlich voran. Auffällig ist, dass die Mehrheit der KMUs bis 50 Mitarbeiter in Deutschland für bestimmte Fachgebiete immer noch keine Business-Software einsetzt.
NEWS | BUSINESS INTELLIGENCE | BUSINESS PROCESS MANAGEMENT | TRENDS KOMMUNIKATION | DIGITALISIERUNG | TRENDS GESCHÄFTSPROZESSE | GESCHÄFTSPROZESSE
Industrie 4.0: Die Fertigungsindustrie ist führend bei Datenanalyse
Nur wenige Wirtschaftszweige, wie die verarbeitende Industrie, nutzen ihre Informationen zum Geschäftsvorteil. Die Fertigungsindustrie ist eine der wenigen Branchen, die zeigt, dass es messbare geschäftliche Vorteile gibt, wenn Mitarbeitern Zugriff auf wertvolle Geschäftsinformationen gewährt wird, so dass sie diese gewinnbringend nutzen können. Zu diesem Ergebnis kommt eine Studie [1] die unter europäischen und nordamerikanischen Unternehmen…
NEWS | BUSINESS INTELLIGENCE | TRENDS 2016
Wettbewerbsvorteile durch Big Data: Datenanalyse-Trends 2016
Informationen werden immer mehr die Währung der heutigen Geschäftswelt. Ohne gezielte Analysen sind die vielen Terabyte an Daten, die von Webseiten, Applikationen, Servern, Netzwerken und mobilen Endgeräten generiert werden, jedoch wertlos. Der Datenanalysemarkt entwickelt deshalb ständig neue Techniken für die Auswertung und Visualisierung von »Big Data«. Auch 2016 wird sich in diesem Bereich wieder viel…
NEWS | BUSINESS | BUSINESS INTELLIGENCE | TRENDS SERVICES | TRENDS 2015
Datenanalyse-Fähigkeiten bewerten: Deutsche Unternehmen sind in der Datenanalyse nur Durchschnitt
Ein neuer Vergleichsindex, der Informationswert-Index [1], mit dessen Hilfe Unternehmen bewerten können, wie gut sie ihre Informationen gewinnbringend einsetzen ist eine Fortschreibung des seit 2012 jährlich präsentierten Index zum Informationsrisiko, bei dem es um den Schutz von Informationen ging. Bei der diesjährigen Befragung zum Informationswert-Index wurden 1.800 Manager aus Europa und Nordamerika konsultiert. Deutsche Unternehmen…
TRENDS WIRTSCHAFT | NEWS | TRENDS SECURITY | TRENDS SERVICES | TRENDS 2015 | IT-SECURITY | ONLINE-ARTIKEL
Internetnutzer betrachten Datenschutz in einer Kosten-Nutzen-Analyse
Umfrage: Benutzerfreundlichkeit darf nicht unter überzogenen Datenschutzregeln leiden. Digitalwirtschaft fordert Nachbesserungen bei der EU-Datenschutzverordnung. Zwei Drittel (67 Prozent) der Internetnutzer in Deutschland verzichten bewusst auf bestimmte Online-Dienste, wenn sie dort persönliche Daten wie Name, E-Mail-Adresse oder Geburtsdatum angeben müssen. Grund ist die Sorge, dass ihre Daten missbraucht werden könnten. 87 Prozent derjenigen, die zum Beispiel…