Big Theory of Big Data: Theoretical Foundations of Data Aggregation Methods

Project: Research

Project Details

Description

Information can be difficult to process, conceptualise, and leverage into better decisions. Big data applications in particular require mechanisms reducing its "bigness" in a theoretically well founded way, much like Google's PageRank algorithm summarises the World Wide Web into a simple ranking of websites relevant to an internet search. Analogously, in this project, we will develop methods to evaluate the reliability of an information source, elicit information from large groups of individuals robustly, and characterise information diffusion patterns. We will derive these methods from basic information aggregation criteria/axioms specifying the key features of the data we care about. This analysis enables a theoretically founded transformation of complex, high dimensional data into easily interpretable indices

Layman's description

Evnen til at skelne, om information er sand og relevant, er central for skabelsen af ny viden, innovation og samfundets generelle virke. Udbredelsen af fake news, nyheder der kan verificeres som falske, og misinformation, i form af bl.a. pseudovidenskab, udgør således en grundlæggende udfordring, der kan forhindre, at folk træffer beslutninger på et informeret grundlag. Den enorme eskaleringen i tilgængelig af data og informationskilder, som itrevolutionen har medført, ligger et stort pres på de traditionelle redaktionelle kanaler, der har til hovedopgave at være grundige og kritiske, når de vurderer nye oplysninger. Dette har motiveret opråb omkring nødvendigheden af at redesigne informations-økosystemet for det 21. århundrede (Lazer et al., Science, 2018). Vores projekt vil bidrage til denne dagsorden ved at bruge økonomisk teori til at udvikle algoritmer, der kan identificere pålidelige informationskilder og beskrive, hvordan forskellige oplysninger udbredes i samfundet.
StatusActive
Effective start/end date01/07/201930/06/2023