On traduit usuellement cet anglissisme par « données massives » ou « grande quantité de données ». Les champs d’applications du traitement des big data sont immenses, notamment pour l’analyse d’opinions politiques ou de tendances industrielles, la génomique, l’épidémiologie ou la lutte contre la criminalité ou la sécurité. Le phénomène Big data est considéré comme l’un des grands défis informatiques de la décennie 2010-2020.

La production de données par les utilisateurs, et notamment le partage d’informations ubiquitaires (capteurs et senseurs mobiles, caméras, microphones, appareils photos, lecteurs RFID, réseaux de capteurs sans fil, etc.) augmentent considérablement le nombre de données pouvant être traitées, mais aussi les perspectives d’interprétation de ces données, et conduisent de nombreux chercheurs et industriels à réfléchir à une refondation profonde des architectures des réseaux, de la logique des bases de données, de l’algorithmique et même des règles d’interprétation de ces données.