Nello scorso decennio sono nate soluzioni per affrontare l'elaborazione di grandi quantità di dati con strumenti nuovi che sfruttassero la possibilità di scalare orizzontalmente, Hadoop in primis. Oggi a questa necessità si aggiunge quella di elaborare flussi ininterrotti di dati in tempo reale e Apache Spark è uno cluster computing framework alternativo a MapReduce che mira a dare gli strumenti per rendere facile questo compito. In questo talk introdurremo Spark e il suo ecosistema, con qualche breve esempio.